Mmal2 Jyd
Mmal2 Jyd
Sources :
• Liret et Martinais, Mathématiques pour le DEUG. Algèbre 1ère année. Éd. Dunod. [512 LIR]
• E. Ramis, C. Deschamps, J. Odoux, Cours de mathématiques [51 L RAM] :
[512 RAM], [514 RAM], [515 RAM], [517 RAM], [517 RAM], niveau L1 seul dans [51 L1 RAM]
• R. L. Burden, J. D. Faires, Numerical analysis, ch. 6 [519.6 BUR].
• Marc Hindry, Cours de Mathématiques, Première Année. Université Paris 7.
(http://www.imj-prg.fr/~marc.hindry/Cours-L1.pdf)
Ch. 1. Polynômes
Plan
I. L’anneau K[X]
II. Racines d’un polynôme
III. Fractions rationnelles
Dans tout ce chapitre, K désigne R ou C (ou plus généralement un « corps commutatif »).
I. L’anneau K[X]
1. Polynômes et fonctions polynomiales
Définition
(a) Un polynôme à coefficients dans K est une suite P = (ak )k≥0 d’éléments de K pour
laquelle il existe n ∈ N tel que : ∀k > n ak = 0.
On le notera P = an X n + · · · + a1 X + a0 au lieu de (ak )k≥0 .
Les nombres a0 , a1 , ..., an s’appellent les coefficients de P .
(b) À chaque polynôme P = an X n + · · · + a1 X + a0 à coefficients dans K, on associe
l’application notée ici fP : K → K définie par :
fP (x) = an xn + · · · + a1 x + a0 pour tout x ∈ K.
| {z }
noté P (x)
Une fonction polynomiale sur K est une application f de K dans K telle qu’il existe un
polynôme P à coefficients dans K pour lequel f = fP .
(c) Le degré d’un polynôme P = an X n + · · · + a1 X + a0 non nul, noté deg P , est le plus
grand d ∈ N tel que ad 6= 0. Par convention on pose : deg 0 := −∞.
Remarque
Soit P un polynôme non-nul de degré d à coefficients dans R :
P = ad X d + · · · + a1 X + a0 avec a0 , ..., ad ∈ R et ad 6= 0.
ad−1
On a : |P (x)| = |x|d ad + x + ··· + a0
−→ +∞
xd x→+∞
si d ≥ 1 et P (0) 6= 0 si d = 0.
| {z }
En particulier : fP =
6 0. (On n’utilisera plus la notation « fP ».) a0
Ainsi, lorsque K = R :
si une fonction polynomiale réelle x 7→ an xn + · · · + a1 x + a0 est nulle, alors a0 = ... = an = 0.
Notations
(a) On note K[X] l’ensemble des polynômes à coefficients dans K.
Il contient K vu comme ensemble des polynômes a0 pour lesquels on peut choisir n = 0.
| {z }
« polynômes constants »
(b) Étant donné N ∈ N, on note KN [X] l’ensemble des polynômes à coefficients dans K qui
sont non-nuls de degré inférieur ou égal à N , ou nuls.
(La convention deg 0 = −∞ permet d’appeler KN [X] l’ensemble des polynômes de degré ≤ N .)
Ainsi : KN [X] = aN X N + · · · + a1 X + a0 ; a0 , a1 , . . . aN ∈ K .
Définition
Soient P = ap X p + · · · + a1 X + a0 et Q = bq X q + · · · + b1 X + b0 deux éléments de K[X].
On prolonge les coefficients en posant : ak = 0 pour k > p et bl = 0 pour l > q.
max(p,q)
P
(a) On note : P + Q := (ak + bk ) X k . ←−[suite (ak + bk )k≥0 ]
k=0
1
p+q
P P
(b) On note : P Q := ai bj X k .
k
P
←−[suite (ck )k≥0 avec ck = ai bk−i ]
i=0
k=0 i+j=k
p+q
P
Concrètement : P Q = (a0 bk + a1 bk−1 + a2 bk−2 + · · · + ak b0 )X k
k=0
= ap bq X p+q + (ap bq−1 + ap−1 bq )X p+q−1 + · · · + a0 b0 .
(c) Soit α ∈ K. On note : αP = (αap )X p + · · · + (αa1 )X + (αa0 ). ←−[suite (αak )k≥0 ]
Remarque
On définit « l’indéterminée » X par : X = (xk )k≥0 où x0 = 0, x1 = 1 et xk = 0 si k ≥ 2.
Quand P = X, on a par récurrence sur n ≥ 0 : P n = (δn (k))k≥0 avec δn (k) = ou 10 si k=n
sinon
.
Il en résulte qu’un polynôme P = (ak )k≥0 à coefficients dans K avec ak = 0 pour k > n
s’écrit effectivement P = an X n + · · · + a1 X + a0 où X k représente maintenant la puissance ke
de X qu’on vient de calculer.
Proposition
Soient P, Q ∈ K[X], α, x ∈ K et n ∈ N. On a posé deg 0 := −∞.
(a) On a : (P + Q)(x) = P (x) + Q(x), (P Q)(x) = P (x)Q(x), et (αP )(x) = αP (x).
(b) On a : deg(P + Q) ≤ max(deg(P ), deg(Q)) et deg(P Q) = deg(P ) + deg(Q).
(c) Si P Q = 0 alors P = 0 ou Q = 0.
P
n
n
n−k k
(d) On a : (P + Q)n = k P Q « formule du binôme de Newton ».
k=0
Démonstration
(a) Immédiat.
(b) On suppose d’abord que P = 0 ou Q = 0. On a : P + Q ∈ {P, Q} et P Q = 0.
Donc deg(P + Q) ∈ {deg(P ), deg(Q)} et deg(P Q) = −∞ = deg(P ) + deg(Q).
On suppose maintenant que P 6= 0 et Q 6= 0 :
P = ap X p + · · · + a1 X + a0 avec ap 6= 0 et Q = bq X q + · · · + b1 X + b0 avec bq 6= 0.
Donc P + Q = (ar + br ) X r + (ar−1 + br−1 ) X r−1 + · · · + (a0 + b0 ) en posant r = max(p, q) et
P Q = ap bq X p+q + (ap bq−1 + ap−1 bq )X p+q−1 + · · · + a0 b0 . Cela fournit le résultat.
|{z}
6= 0
(c) Si P Q = 0, alors deg(P ) + deg(Q) = −∞ d’après (b), puis P = 0 ou Q = 0.
(d) L’égalité se démontre par récurrence comme dans le cas de (u + v)n avec u, v ∈ C.
Définition
Soient P = ap X p + · · · + a1 X + a0 et Q deux éléments de K[X].
(a) On note : P ′ = pap X p−1 + · · · + 2a2 X + a1 ∈ K[X].
On définit les dérivées successives par récurrence : P (0) = P et P (n) = (P (n−1) )′ pour n ≥ 1.
(b) On note : P (Q) = ap Qp + · · · + a1 Q + a0 ∈ K[X].
Exemple
On prend P = X 2 + X + 1 et Q = X 2 .
On a : P ′ = 2X + 1 et P (X 2 ) = (X 2 )2 + (X 2 ) + 1 = X 4 + X 2 + 1.
On a aussi : P (X) = X 2 + X + 1 = P .
Proposition
Soient P, Q ∈ K[X], α, β ∈ K et n ∈ N.
(a) On a : (αP + βQ)′ = αP ′ + βQ′ .
P n (n−k) (k)
n
(b) On a : (P Q)(n) = k P Q « formule de Leibniz ».
k=0
2
Démonstration
Exercice.
Définition-Proposition
(a) Une loi de composition sur un ensemble E est une application ⋆ : E × E → E.
Suivant l’usage, on notera ici x ⋆ y l’image par ⋆ de (x, y).
(b) Un anneau est un triplet (A, +, ×), où A est un ensemble, + et × sont des lois de compo-
sition sur A, avec
(i) (x + y) + z = x + (y + z) pour tous x, y, z ∈ A ;
(ii) il existe 0A ∈ A tel que pour tout x ∈ A, on a : 0A + x = x + 0A = x ;
(iii) pour tout x ∈ A il existe x′ ∈ A tel que : x + x′ = x′ + x = 0A ;
(iv) x + y = y + x pour tous x, y ∈ A :
(v) (x×y)×z = x×(y ×z) pour tous x, y, z ∈ A ;
(vi) x×(y + z) = (x×y) + (x×z) et (x + y)×z = (x×z) + (y ×z) pour x, y, z ∈ A ;
(vii) il existe 1A ∈ A tel que pour tout x ∈ A, on a : 1A ×x = x×1A = x.
Dans ce cas, l’élément 0A du (ii) est unique (immédiat) appelé zéro de (A, +), pour chaque
x ∈ A l’élément x′ de A du (iii) est unique (admis) appelé opposé de x et noté −x, l’élément 1A
du (vii) est unique (immédiat) et appelé élément unité de A.
(c) On dit qu’un anneau (A, +, ×) est commutatif si pour tous x, y ∈ A, on a : x×y = y ×x.
(d) Un corps est un anneau (K, +, ×) qui vérifie :
K 6= {0} et pour tout x ∈ K \{0} il existe x′ ∈ K tel que x×x′ = x′ ×x = 1K .
Dans ce cas, pour chaque x ∈ K \{0} l’élément x′ de K est unique (admis) et noté x−1 .
Démonstration
Vérification des unicités annoncées : exercice.
Proposition
(a) L’ensemble K[X] muni de l’addition et de la multiplication des polynôme est un anneau
commutatif de zéro le polynôme 0 et d’élément unité le polynôme constant 1.
(b) Les ensembles Q, R, C munis des lois + et × usuelles sont des corps commutatifs.
Démonstration
Exercice.
2. Division euclidienne
Définition
Soient A, B ∈ K[X].
On dit que B divise A (ou A est multiple de B), et note B | A, si :
il existe Q ∈ K[X] tel que A = BQ.
Théorème
Soient A ∈ K[X] et B ∈ K[X] \{0}.
Il existe un unique (Q, R) ∈ K[X]2 tel que :
A = BQ + R et deg R < deg B « division euclidienne de A par B ».
Dans ce cas, R s’appelle le reste et Q s’appelle le quotient, de la division de A par B.
3
Démonstration
• On vérifie par récurrence sur n ∈ N que :
(Hn ) existence de (Q, R) ∈ K[X]2 quand deg A < n et B ∈ K[X] \{0}.
(i) On suppose que n = 0. On a : A = 0 = B 0 + 0.
Cela montre que (H0 ) est vraie.
(ii) On suppose que (Hn ) est vraie et deg A ≤ n.
Si deg A < deg B : l’égalité A = B 0 + A fournit un couple (Q, R).
Si deg A ≥ deg B : A = ap X p + · · · + a0 et Q = bq X q + · · · + b0 avec ap 6= 0, bq 6= 0, p ≥ q.
a
On pose : A0 = A − bqp X p−q B donc deg A0 < deg A en examinant les coefficients de X p .
Grâce à (Hn ) il existe (Q0 , R0 ) ∈ K[X]2 tel que A0 = BQ0 + R0 et deg R0 < deg B.
a a
D’où : A = bqp X p−q B + BQ0 + R0 = B( bqp X p−q + Q0 ) + R0 ce qui donne un couple (Q, R).
On en déduit que (Hn+1 ) est vraie.
(iii) Ainsi l’existence est obtenue quand A ∈ K[X] et B ∈ K[X] \{0}.
• On montre maintenant l’unicité.
On se donne (Q, R), (Q1 , R1 ) ∈ K[X]2 tels que :
A = BQ + R = BQ1 + R1 avec deg R < deg B et deg R1 < deg B.
On a : B(Q − Q1 ) = R1 − R. On suppose par l’absurde que Q1 6= Q.
Donc : deg B ≤ deg(B(Q − Q1 )) < deg B contradiction.
| {z }
R1 − R
Par conséquent Q1 = Q puis R1 = R.
Algorithme
On suppose que deg(A) ≥ deg(B) (sinon Q = 0 et R = A) et note :
A = ap X p + · · · + a1 X + a0 et B = bq X q + · · · + b1 X + b0 , où ap 6= 0 et bq 6= 0.
On effectue la division euclidienne de A par B ainsi :
ap X p + ap−1 X p−1 + ··· + a0 bq X q + bq−1 X q−1 · · · + b0
ap bq−1 p−1 ap p−q a′p−1 p−q−1
− ap X p + bq X + ··· bq X + bq X + ···
| {z }
= ap−1 X p−1
′ + ··· + a′0 quotient Q
− ··· ···
= ···
// // //
′′ q−1
aq−1 X + · · · + a′′0
| {z }
reste R
Exemple
On prend : A = X 5 + X 3 + X 2 + 1 et B = X 4 + X 3 + 2X 2 + X + 1 avec K = R.
Division : X 5 + 0X 4 + X 3 + X 2 + 0X + 1 X 4 + X 3 + 2X 2 + X + 1
− X 5 + X 4 + 2X 3 + X 2 + X X −1
= −X 4 − X 3 + 0X 2 − X + 1
− − X 4 − X 3 − 2X 2 − X − 1
= 2X 2 + 0X + 2
Ainsi : A = BQ + R avec Q = X − 1 et R = 2X 2 + 2 , qui vérifient deg R < deg B .
| {z } | {z }
2 4
Définition
Un polynôme unitaire dans K[X] est un polynôme P de la forme suivante :
P = an X n + · · · + a1 X + a0 avec n ∈ N, a0 , ..., an ∈ K et an = 1.
4
II. Racines d’un polynôme
1. Racines avec leur multiplicité
Définition
Soient P ∈ K[X] et r ∈ K.
On dit que r est racine de P (ou zéro de la fonction x 7→ P (x)) si P (r) = 0.
Exemple
• Quelles sont les racines « évidentes » (rationnelles) du polynôme réel 2X 3 − 5X 2 − 3X + 9 ?
• On considère plus généralement : P = an X n + · · · + a1 X + a0 où n ≥ 1 et a0 , ..., an ∈ Z.
On suppose que r = pq ∈ Q vérifie P (r) = 0 avec p et q de seuls diviseurs communs −1 et 1.
On a : an pn + an−1 pn−1 q + · · · + a1 pq n−1 + a0 q n = 0
donc a0 q n = p(−an pn−1 − · · · − a1 q n−1 ) puis p | a0 q n
an pn = q(−an−1 pn−1 − · · · − a0 q n−1 ) puis q | an pn
donc, par le lemme de Gauss : p | a0 et q | an .
• Les racines rationnelles de 2X 3 − 5X 2 − 3X + 9 sont dans {±1, ±3, ±9, ± 12 , ± 32 , ± 29 }. On
constate que 32 est effectivement une racine de 2X 3 − 5X 2 − 3X + 9.
Proposition
Soient P ∈ K[X] et r ∈ K.
On a : r est racine de P si et seulement si X − r divise P .
Démonstration
(⇐) On suppose que X − r divise P .
Il existe Q ∈ K[X] tel que P = (X − r)Q. Donc P (r) = 0.
(⇒) On suppose que P (r) = 0.
Division euclidienne : P = (X − r)Q + R avec (Q, R) ∈ K[X]2 et deg R < 1.
Donc P (r) = R(r) et R est constant. D’où R = 0, ce qui montre que X − r divise P .
Corollaire
Un polynôme non-nul P ∈ K[X] \{0} de degré n a au plus n racines dans K.
!
On verra plus tard que quand P a n racines comptées avec multiplicité (x1 , α1 ), ..., (xp , αp ),
où p ∈ N et α1 , ..., αp ∈ N \{0} vérifient α1 + ... + αp = n, il existe λ ∈ K \{0} tel que :
P = λ(X − x1 )α1 ...(X − xp )αp .
Démonstration
Récurrence sur n ∈ N.
(i) Si n = 0 : P est constant non-nul donc n’a pas de racine.
(ii) Soit n ≥ 0 tel que tout polynôme non-nul de degré n a au plus n racines.
On se donne un polynôme non-nul P de degré n + 1. On suppose que P possède au moins
une racine r (sinon il n’y a rien à faire). Il existe Q ∈ K[X] tel que P = (X − r)Q. On applique
l’hypothèse de récurrence à Q et constate que P a au plus n + 1 racines.
(iii) D’où le résultat.
Remarque
On suppose ici que K = R ou C (∗) .
Soit P ∈ K[X] \{0}. En notant d = deg P , le polynôme P a au plus d racines. En particulier,
comme on l’a déjà vu dans le cas réel, l’application fP : x ∈ K 7→ P (x) ∈ K est non-nulle.
Q
Par contre quand K est fini, le polynôme non-nul P := (X − x) vérifie fP = 0.
x∈K
(∗) (ou plus généralement que K est un corps commutatif infini)
5
Définition-Proposition
Soient P ∈ K[X] \{0} et r ∈ K.
(a) On appelle ordre de multiplicité de r dans P l’unique m ∈ N tel que :
(X − r)m divise P et (X − r)m+1 ne divise pas P (existe).
m ≥ 1 : « r est racine de P » ;
m = 1 : « r est racine simple de P » ;
m = 2 : « r est racine double de P » ;
m ≥ 2 : « r est racine multiple de P ».
(b) Lorsque K = R ou C (∗∗) l’ordre de multiplicité m de r dans P est caractérisé par :
P (r) = P ′ (r) = ... = P (m−1) (r) = 0 et P (m) (r) 6= 0.
En particulier, on a : m ≥ 2 ⇐⇒ P (r) = P ′ (r) = 0.
Par convention : l’ordre de multiplicité de r dans 0 est +∞ (dérivées de 0 nulles en r).
Démonstration
(a) Le polynôme (X − r)0 divise P et (X − r)k ne divise pas P quand k > deg P .
Ainsi il existe un plus grand m ∈ N tel que (X − r)m divise P .
(b) On suppose que |1 + {z... + 1} 6= 0 pour tout n ∈ N \{0} (par exemple K = R ou C).
n fois
On montre P (r) = P ′ (r) = ... = P (m−1) (r) = 0 et P (m) (r) 6= 0 (ce qui déterminera m).
Il existe Q ∈ K[X] tel que P = (X − r)m Q. Donc Q(r) 6= 0 car (X − r)m+1 ne divise pas P .
Pp
p
Formule de Leibniz : ((X − r)m Q)(p) = k ((X − r)m )(k) Q(p−k) pour p ∈ {0, ..., m}.
k=0 | {z }
m · · · (m − k + 1)(X − r)m−k
Exemple (K = R ou C)
On prend P = X 3 + pX + q avec p, q ∈ K.
La division euclidienne de P par P ′ donne : P = P ′ ×( 13 X) + 32 pX + q. D’où, pour r ∈ K :
3r 2 + p
z
}| ′
{ 3
p 6= 0 p = 0
P (r) = 0 P (r) = 0 pr = − 2 q 3q
⇐⇒ 2 ⇐⇒ ⇐⇒ r = − 2p ou q=0 .
P ′ (r) = 0 3 pr + q = 0 3r 2 + p = 0
3(− 3q )2 + p = 0
2p
r=0
Ainsi P a une racine multiple dans K si et seulement si : 4p3 + 27q 2 = 0.
2. Polynômes irréductibles
Définition
Un polynôme irréductible à coefficients dans K est un élément P de K[X] non-constant tel
que les seules égalités P = AB avec A, B ∈ K[X] s’obtiennent quand A ou B est constant.
Remarques (immédiates)
1. Tout polynôme de degré 1 est irréductible.
Si deg P = 1 et P = AB, on a : deg A + deg B = 1 donc deg A = 0 ou deg B = 0.
2. Un polynôme à coefficients dans K de degré 2 ou 3 est irréductible si et seulement si il n’a
aucune racine dans K.
Si deg P ∈ {2, 3} et P = AB avec A et B non-constants :
deg A + deg B ≤ 3 donc A ou B est de degré 1 de la forme λ(X − r) avec λ, r ∈ K.
| {z } | {z }
≥1
≥1
Si deg P ∈ {2, 3} et P = (X − r) C avec r ∈ K et C ∈ K[X] :
deg(X − r) = 1 et deg C ∈ {1, 2} donc X − r et C sont non-constants.
(∗∗) (ou plus généralement quand K est un corps commutatif dans lequel 1 + ... + 1 6= 0 pour tout n ∈ N \{0})
| {z }
n fois
6
Par exemple :
– X 2 + 1 n’est pas irréductible dans C[X] ;
– X 2 + 1 est irréductible dans R[X] et dans Q[X] ;
– X 2 − 2 n’est pas irréductible dans R[X] ;
– X 2 − 2 est irréductible dans Q[X] (exemple du début du paragraphe 1).
Proposition
(a) Soient A, B ∈ K[X] sans diviseur commun non constant.
Il existe U, V ∈ K[X] tels que AU + BV = 1 « théorème de Bézout ».
(b) Soient A, B ∈ K[X] et P ∈ K[X] irréductible.
Si P | AB, alors P | A ou P | B « lemme d’Euclide ».
Démonstration
(a) Tout d’abord : A 6= 0 et B 6= 0. On raisonne par récurrence sur n := deg A + deg B.
(i) Si n = 0 : B = b0 puis on prend U = 1 et V = b10 (1 − A).
(ii) Soit n ≥ 1 tel que le résultat est acquis au niveau de n − 1.
Supposons par exemple que deg A ≥ deg B.
On effectue la division euclidienne de A par B : A = QB + R.
Si R = 0 : B est un diviseur commun de A et B donc B est constant, et on fait comme au (i).
Si R 6= 0 : deg B > deg R où R et B n’ont pas de diviseur commun non constant, ce qui donne
U0 R + BV0 = 1 puis U0 A + B(V0 − QU0 ) = 1 enfin on prend U := U0 et V := V0 − QU0 .
(b) On suppose que P | AB , et P 6 | A.
Comme P est irréductible, le seul diviseur unitaire de P et A est 1. Donc pgcd(A, P ) = 1.
Bézout : il existe U, V ∈ K[X] tels que AU + P V = 1, donc |{z} BA U + BP V = B et P | B.
divisible par P
Théorème
Soit P ∈ K[X] \{0}.
(a) Il existe λ ∈ K \{0}, k ∈ N, des polynômes unitaires irréductibles distincts P1 , ..., Pk et
α1 , ..., αk ∈ N \{0}, tels que : P = λ P1α1 · · · Pkαk .
| {z }
1 quand k = 0
(b) La décomposition du (a) est « unique à l’ordre près »(⋆) au sens où pour toute autre dé-
composition P = µ Qβ1 1 · · · Qβl l , on a : µ = λ et {(Q1 , β1 ), ..., (Ql , βl )} = {(P1 , α1 ), ..., (Pk , αk )}.
(c) Quand P est décomposé comme au (a), les éléments de K[X] qui divisent P sont les
polynômes de la forme µ P1β1 · · · Pkβk avec µ ∈ K \{0} et 0 ≤ β1 ≤ α1 , ..., 0 ≤ βk ≤ αk .
Démonstration
(a) On montre l’existence d’une décomposition de P en polynômes irréductibles.
Récurrence sur n ≥ 0 : (Hn ) existence d’une décomposition en polynômes irréductibles pour
tous les polynômes non-nuls de degré ≤ n.
(i) Cas n = 0 : k = 0 convient. Donc (H0 ) est vraie.
(ii) On suppose que (Hn ) est vraie et se donne Q ∈ K[X] \{0} de degré n + 1 :
– soit Q est irréductible et se décompose en µQ e 1 où Q = µQe avec Qe unitaire irréductible ;
– soit Q n’est pas irréductible et il existe A, B ∈ K[X]\{0} tels que Q = AB, puis en appliquant
(Hn ) au niveau de A et de B on décompose Q en polynômes irréductibles.
On en déduit que (Hn+1 ) est vraie.
(iii) Ainsi, pour chaque n ≥ 1, (Hn ) est vraie et en particulier P possède une décomposition
en polynômes irréductibles.
(b) On montre l’unicité de la décomposition en partant de P = λP1α1 · · · Pkαk = µQβ1 1 · · · Qβl l
avec λ, µ ∈ K \{0}, P1 , ..., Pk , Q1 , ..., Ql unitaires irréductibles et α1 , ..., αk , β1 , ..., βl ∈ N \{0}.
| {z } | {z }
distincts distincts
(⋆) (les autres décompositions s’obtiennent en « changeant l’ordre dans lequel on écrit (P1 , α1 ), ..., (Pk , αk ) »)
7
Le lemme d’Euclide montre que chaque Pj (1 ≤ j ≤ k) divise un des polynômes Q1 , ..., Ql ,
noté Qij , puis Pj = Qij par irréductibilité de Qij . Donc : {P1 , ..., Pk } ⊆ {Q1 , ..., Ql }. De même :
αk −βik βi βi
{Q1 , ..., Ql } ⊆ {P1 , ..., Pk }. D’où l = k. Après simplification : λP1α1... Pk k−1
= µQi1 1... Qik−1
α βi βi −αk
si αk > βik , ou, λP1α1... Pk−1
k−1
= µQi1 1... Qik k si αk < βik , chacun de ces deux cas menant à
une contradiction comme ci-dessus. Ainsi αk = βik . Ensuite αk−1 = βik−1 , ..., α1 = βi1 , µ = ν.
(c) On cherche maintenant les diviseurs de P . Ceux proposés conviennent.
Soit B ∈ K[X] qui divise P . Donc B 6= 0 et il existe C ∈ K[X] \{0} tel que P = BC.
Quitte à ajouter des Q0i , on peut écrire B = µQβ1 1... Qβl l et C = νQγ11... Qγl l , avec λ, µ ∈ K \{0},
Q1 , ..., Ql unitaires irréductibles distincts et β1 , ..., βl , γ1 , ..., γl ∈ N, β1 + γ1 6= 0, ..., βl + γl 6= 0.
Donc P = µν Qβ1 1 +γ1... Qβl l +γl puis par unicité de la décomposition en polynômes irréductibles :
l = k et Q1 = Pj1 et ... et Qk = Pjk et β1 + γ1 = αj1 et ... et βk + γk = αjk . D’où le résultat.
Remarque
Soient P = λ P1α1 · · · Pkαk ∈ K[X] \{0} comme ci-dessus et r ∈ K.
On a : r est racine de P si et seulement si X − r est l’un des Pi , 1 ≤ i ≤ k.
Dans ce cas αi est la multiplicité de la racine r de P .
D’après le (c) du théorème, la multiplicité de r dans P est le plus grand m ∈ N tel que
(X − r)m s’écrive µ P β1 · · · P βk avec µ ∈ K \{0} et 0 ≤ β1 ≤ α1 , ..., 0 ≤ βk ≤ αk .
1 k
Or X − r est unitaire irréductible. On utilise l’unicité de la décomposition.
Théorème (« théorème de d’Alembert-Gauss »)
Tout polynôme non-constant à coefficients dans C a au moins une racine dans C.
Démonstration
Admise (difficile).
Corollaire (important)
(a) Les polynômes irréductibles dans C[X] sont les polynômes de degré 1.
En particulier, tout P ∈ C[X] \{0} s’écrit de manière unique à l’ordre près sous la forme
P = λ (X − r1 )α1 ...(X − rm )αm
avec λ ∈ C \{0}, {r1 , ..., rm } ⊆ C, et α1 , ..., αm ∈ N \{0}.
distincts
(b) Les polynômes irréductibles dans R[X] sont les polynômes de degré 1 et les polynômes
de degré 2 dont le discriminant est strictement négatif.
En particulier, tout P ∈ R[X] \{0} s’écrit de manière unique à l’ordre près sous la forme
P = λ (X − r1 )α1 ...(X − rm )αm (X 2 + u1 X + v1 )β1 ...(X 2 + un X + vn )βn
avec λ ∈ R \{0}, {r1 , ..., rm } ⊆ R, {(u1 , v1 ), ..., (un , vn )} ⊆ R2 tels que les X 2 + uk X + vk
distincts couples distincts
(1 ≤ k ≤ n) n’ont pas de racine réelle, et α1 , ..., αm , β1 , ..., βn ∈ N \{0}.
Démonstration
(a) Tout polynôme P ∈ C[X] de degré 1 est irréductible (déjà vu).
Soit P ∈ C[X] irréductible. D’après le théorème de d’Alembert-Gauss, P a un diviseur de la
forme X − r avec r ∈ C, donc par irréductibilité on a P = λ(X − r) pour un λ ∈ C.
(b) Tout P ∈ R[X] de degré 1, ou de degré 2 sans racine réelle, est irréductible (déjà vu).
Soit P ∈ R[X] irréductible.
Si P a une racine r ∈ R, on a comme ci-dessus P = λ(X − r) pour un λ ∈ R.
Sinon, d’après le théorème de d’Alembert-Gauss, P a une racine r ∈ C\R.
Donc il existe A ∈ C[X] tel que : P = (X − r)A.
Comme P est à coefficients réels, on a : P (r) = P (r) = 0, puis A(r) = 0.
Donc il existe B ∈ C[X] tel que : A = (X − r)B. On a : P = (X 2 − 2 Re(r)X + |r|2 ) B.
De plus : B ∈ R[X] par existence de la division euclidienne dans R[X] et unicité dans C[X].
P = (X 2 − 2 Re(r)X + |r|2 ) B puis P = λ(X 2 − 2 Re(r)X + |r|2 ) pour un λ ∈ R.
Ainsi |{z}
irréductible
8
Exemple
On obtient les décompositions en polynômes irréductibles unitaires suivantes :
4 i π4 −i π4 i 3π −i 3π
– X +
| {z }1 =
|{z} (X − e ) (X − e ) (X − e 4 ) (X − e 4 ) dans C[X] ;
| {z }| {z }
4 racines connues 4 facteurs √ √
X2 −
2X +1 X + 2X + 1 2
√
irréductibles connus
√
– X 4 + 1 = (X 2 − 2 X + 1)(X 2 + 2 X + 1) dans R[X].
Par contre X 4 + 1 est irréductible dans Q[X]. En effet un facteur irréductible de X 4 + 1
dans Q[X] 4
2
√ de degré < 4 devrait être un diviseur
2
√ particulier de X + 1 dans R[X] de la forme
λ (X − 2 X + 1) avec λ ∈ R \{0} ou µ (X + 2 X + 1) avec µ ∈ R \{0}, donc hors de Q[X].
√
[En effet, on a 2 ∈ / Q car le polynôme X 2 − 2 est irréductible dans Q[X].]
1. Fractions rationnelles
Définition
A
(a) Une fraction rationnelle à coefficients dans K est un « quotient » F = B (en un sens
qu’on pourrait préciser) où A ∈ K[X] et B ∈ K[X] \{0}.
ap X p + · · · + a1 X + a0
(b) À chaque fraction rationnelle F = à coefficients dans K, on
bq X q + · · · + b1 X + b0
associe l’application notée ici abusivement fF et définie par :
ap xp + · · · + a1 x + a0
fF (x) = pour (au moins) tout x ∈ K tel que bq xq + · · · + b1 x + b0 6= 0.
bq xq + · · · + b1 x + b0
| {z }
noté F (x)
A
[L’application fF est définie sur cet ensemble pour l’écriture B irréductible et B unitaire.]
Une application rationnelle sur K est une application f d’une certaine partie de K dans K
telle qu’il existe une fraction rationnelle F à coefficients dans K pour laquelle f = fF .
A
(c) Le degré d’une fraction rationnelle F = B avec A ∈ K[X] et B ∈ K[X] \{0}, noté deg F ,
est défini par : deg F := deg A − deg B.
9
Notation
On note K(X) l’ensemble des fractions rationnelles à coefficients dans K.
En « identifiant » A à A1 , on obtient : K[X] ⊆ K(X) (choix de B = 1).
Définition-Proposition
A C
Soient F = B et G = D deux éléments de K(X), α, x ∈ K avec B(x) 6= 0 et D(x) 6= 0.
AD+BC AC αA
On note : F + G := aussi FG := AD
BD , F G := BD , αF = B , et BC quand G 6= 0.
Ainsi, on a : (F + G)(x) = F (x) + G(x), (F G)(x) = F (x)G(x), (αF )(x) = αF (x).
Proposition
L’ensemble K(X) muni de l’addition et de la multiplication des fractions rationnelles est un
corps commutatif de zéro le polynôme 0 et d’élément unité le polynôme constant 1.
Remarques
A
1. Soit F = B ∈ K(X) \{0}.
On décompose A = λP1α1... Pkαk et B = µP1β1... Pkβk avec λ, µ ∈ K \{0}, P1 , ..., Pk ∈ K[X]
min(α1 ,β1 ) min(αk ,βk )
unitaires irréductibles et α1 , ..., αk , β1 , ..., βk ∈ N. On pose D = P1 · · · Pk .
On obtient tout de suite A0 , B0 ∈ K[X] \{0} sans facteur unitaire irréductible commun tels
que A = A0 D et B = B0 D. On a : F = A B0 « écriture de F comme fraction irréductible ».
0
A
2. Soient P = an X n + · · · + a1 X + a0 ∈ C[X] et Q ∈ C[X], F = B ∈ C(X) et G ∈ C(X).
n A
On pose : P := an X + · · · + a1 X + a0 ∈ C[X], puis F := B ∈ C(X) (cf. P Q = P Q).
On obtient : F + G = F + G, F G = F G, et F (z) = F (z) quand z ∈ C vérifie B(z) 6= 0.
Lemme
e ∈ K[X] et r ∈ K tels que B(r)
Soient A, B e 6= 0.
Pour tout α ∈ N \{0} il existe c0 , c1 , ..., cα−1 ∈ K et Rα−1 ∈ K[X] tels que :
A=B e × c0 + c1 (X − r) + · · · + cα−1 (X − r)α−1 + (X − r)α Rα−1
« division de A par Be suivant les puissances croissantes de X − r jusqu’à l’ordre α − 1 ».
Démonstration
On peut supposer que A 6= 0 (clair sinon). On note m la multiplicité de r dans A.
On vérifie par récurrence sur n ∈ N avec α fixé que :
(Hn ) existence d’une décomposition quand A 6= 0 et α − m ≤ n.
(i) Si n = 0 : on écrit A = (X − m
r) C pour un certain C ∈ K[X] où m ≥ α, puis l’égalité
e α
A = B ×0 + (X − r) (X − r) m−α C donne une décomposition.
(ii) Soit n ≥ 1 tel que (Hn−1 ) est vraie. On suppose donc que α − m = n :
A = ãm (X − r)m + · · ·+ ãp (X − r)p et B e = b̃0 + b̃1 (X − r) + · · ·+ b̃q̃ (X − r)q̃ avec b̃0 6= 0.
ãm
On pose : A0 = A − b̃ (X − r) B. m e Si A0 6= 0, la multiplicité de r dans A0 est ≥ m + 1.
0
D’après (Hn−1 ), il existe c0 , c1 , ..., cα−1 ∈ K et R α−1 ∈ K[X] tels que :
e
A0 = B × c0 + c1 (X − r) + · · · + cα−1 (X − r) α−1 α
+ (X − r) Rα−1 .
e ãm
Ainsi : A = B × c0 + c1 (X − r)+ · · ·+ (cm + b̃ )(X − r)m + · · ·+ cα−1 (X − r)α−1 + (X − r)αRα−1 .
0
10
avec γ ∈ C \{0}, {r1 , ..., rm } ⊆ C, et α1 , ..., αm ∈ N \{0}.
distincts
Démonstration (idées)
(a) • On montre l’existence d’une décomposition sur C par récurrence sur m.
(i) On suppose que m = 0. On a : F ∈ K[X] et la décomposition est évidente.
(ii) On se donne m ≥ 1 pour lequel la décomposition est obtenue quand B a m − 1 racines.
On utilise le lemme avec B e := B
(X−rm )αm , r = rm et α = αm :
A=B e × c0 + c1 (X − r) + · · · + cαm −1 (X − r)αm −1 + (X − r)αm Rαm −1 .
c +c (X−r)+···+cαm −1 (X−r)αm −1 R
Donc F = 0 1 (X−rm )αm + αme −1 , puis on applique l’hypothèse de récurrence.
B
On en déduit que la décomposition est obtenue quand B a m racines.
(iii) Ainsi l’existence est obtenue.
• Unicité sur C ? On se donne E ∈ C[X] et λk,i ∈ C tels que
m
P λk,αk
λk,1
E+ X−rk + · · · + (X−rk ) k = 0.
α
k=1
On fixe un k. On multiplie par (X − rk )αk puis prend la valeur en rk . On obtient λk,αk = 0.
On recommence en multipliant par (X − rk )αk −1 ce qui donne λk,αk −1 = 0. Puis ... λk,1 = 0.
Enfin E = 0.
• Si λ = 0 : en multipliant F décomposé par B, on constate que A est divisible par X − rk .
(b) • On montre l’existence d’une décomposition sur R en utilisant la décomposition sur C.
λ
On considère un élément simple (X−rk )i
. Si rk ∈ R, on a : F = F donc λ ∈ R par unicité.
λ
On suppose que rk ∈
/ R. Comme F = F , on a : (X−rk )i
est un élément simple de F sur C.
λ(X−r i i
λ λ k ) +λ(X−rk )
On décompose sur R : (X−r i + (X−r )i qui vaut ((X−rk )(X−rk ))i
, est somme d’éléments
k) k
e i i
simples de 2 espèce (diviser suffisamment de fois λ(X −rk ) +λ(X −rk ) par (X −rk )(X −rk )).
• Unicité sur R ? On se donne E ∈ R[X] et λk,i , µl,j , νl,j ∈ R tels que
Pm λk,αk
Pn µl,βl X+νl,βl
λk,1 µl,1 X+νl,1
E+ X−rk + · · · + (X−rk ) αk
+ 2
X +u X+v
+ · · · + 2
(X +u X+v ) l β = 0.
l l l l
k=1 l=1
11
Comme ci-dessus, on obtient λk,i = 0 pour tous les k, i.
On fixe un l. On introduit une racine sl de X 2 + ul X + vl (non-réelle). On multiplie par
(X 2 + ul X + vl )βl et prend la valeur en sl . Donc : µl,βl sl + νl,βl = 0 puis µl,βl = 0 et νl,βl = 0.
La multiplication par (X 2 + ul X + vl )βl −1 donne µl,βl −1 = νl,βl −1 = 0. Puis ... µl,1 = νl,1 = 0.
Enfin E = 0.
• Si λ = 0 : on constate comme ci-dessus que A est divisible par X − rk .
Si µ = ν = 0 : en multipliant F par B, on constate que A est divisible par X 2 + ul X + vl .
(c) À la fois dans (a) et dans (b), on obtient en multipliant F décomposé par B :
A = BE + R avec deg R ≤ deg B − 1.
Il s’agit du résultat de la division euclidienne de A par B.
Algorithmes (l’algorithme du (b) n’est pas au programme mais peut être utilisé)
On reprend les notations du théorème. (Idée : calcul des DL de x 7→ F (x) en +∞ et en rk .)
a) On suppose que deg(A) ≥ deg(B) (sinon E = 0) et note :
A = ap X p + · · · + a1 X + a0 et B = bq X q + · · · + b1 X + b0 , avec ap 6= 0 et bq 6= 0.
Division euclidienne de A par B : son quotient Q vérifie Q = E (cf. le th. (c)).
Astuce : on utilise dans ce calcul autant de coefficients de A et de B, à partir de ap et bq ,
qu’on en attend dans E.
b) Soit k ∈ {1, ..., m}. On pose X = rk + Y et B e := Bα . On écrit A et B e ainsi :
Y k
e = b̃0 + b̃1 Y + · · ·+ b̃q−α Y q−αk où b̃0 6= 0.
A = ã0 + ã1 Y + · · ·+ ãp Y p et B k
La fraction rationnelle Fk somme des éléments simples de 1re espèce associés à rk s’obtient
e jusqu’à faire apparaître αk coefficients
par division suivant les puissances croissantes de A par B,
dans le quotient (méthode incontournable quand αk ≥ 4) :
ã0 + ã1 Y + ··· + ãp Y p b̃0 + b̃1 Y + ··· + b̃q−αk Y q−αk
ã′1
− ã0 + ãb̃0 b̃1 Y + ··· ã0
b̃0
+ b̃0
Y + ···
0
| {z }
′
= ã′1 Y + ··· · · · + ã′p′ Y p e k := c0 + c1 (X − r) + · · · + cα −1 (X − r)αk −1
Q k
− ··· ··· ···
Qek
= ··· ··· ··· donc Fk = (X−rk )αk (cf. la dém. du th.)
// // // // //
′′
ã′′αk Y αk + · · · + ã′′p′′ Y p
e à partir de ã0 et b̃0 ,
Astuce : on utilise dans ce calcul autant de coefficients de A et de B,
qu’on en attend dans Fk .
Remarques
1. Après avoir utilisé les algorithmes (a), et (b) pour chaque k ∈ {1, ..., m}, on peut :
– appliquer la décomposition en un z ∈ C, par exemple en une racine dans C d’un X 2 + ul X + vl ;
– réduire au même dénominateur la décomposition en éléments simples de F obtenue pour
l’instant et identifier les coefficients de son
numérateur
avec ceux de A ;
Pm
– réduire au même dénominateur F − E + Fk puis le simplifier lorsque K = R et n = 1.
k=1
2. On peut éviter de factoriser B sous la forme (X − rk )αk C pour calculer le coefficient λ
A(rk ) A(rk )
de l’élément simple (X−rλk )αk . En effet, il s’écrit : λ = C(r k)
= αk ! B (αk ) (r )
.
k
(On utilise la formule de Leibniz pour calculer B (αk ) (rk ) à partir de l’égalité B = (X − rk )αk C.)
Exemple 1
X5 + X4 + X2 + 1
On considère : F = ∈ C(X).
X3 − X2 − X + 1
3 2 2 2
On a : | − X {z− X + 1} = (X − 1)(X + 0X − 1) = (X + 1) (X − 1) .
X
s’annule en 1
On note r1 = −1 et r2 = 1. Il existe E ∈ C[X] de degré 2 et a, b, c ∈ C uniques tels que :
12
X5 + X4 + X2 + 1 a b c
= E + + + .
(X + 1) (X − 1)2 X + 1
| {z } (X − 1)2 X − 1
| {z } | {z }
F F1 , cf. (b) F2 , cf. (b)
Exemple 2
1
On considère : F = ∈ R(X).
X3
+1
3 2
On a : X
| {z+ 1} = (X + 1)(X
| + {z ? })).
s’annule en −1 X2 − X + 1
Il existe donc λ, µ, ν ∈ R uniques tels que :
1 λ µX + ν
2
= |{z}
0 + + 2
.
(X + 1)(X − X + 1) X +1 X −X +1
| {z } E
F
On pourrait réduire le membre de droite au même dénominateur, puis identifier les coefficients
des numérateurs (c’est tout à fait possible). D’habitude, on utilise les astuces suivantes :
– on multiplie par X + 1 et prend les valeurs en x = −1 : λ = 13 ;
– valeurs en x = 0 : 1 = λ + ν, donc ν = 32 ;
– on multiplie par X, prend les valeurs en x et passe à x → +∞ : 0 = λ + µ, donc µ = − 31 .
(Au lieu d’utiliser les valeurs 0 et +∞, on aurait
√
aussi pu se placer dans C(X) et prendre une
valeur complexe non-réelle, par exemple 1+i2 3 après avoir multiplié par X 2 − X + 1.)
1
− 31 X+ 32
En conclusion : F = X+1
3
+ X 2 −X+1
.
13
14
Ch. 2. Matrices sur K = R ou C
Plan
I. Systèmes linéaires
II. Calcul matriciel
Définition
(a) Un système d’équations « linéaires » de n équations à p inconnues dans K est du type :
(
a11 x1 + ... + a1p xp = b1
(E) ... d’inconnue (x1 , ..., xp ) ∈ Kp
an1 x1 + ... + anp xp = bn
où sont donnés a11 ,..., a1p , a21 ,..., a2p , . . . , an1 ,..., anp ∈ K et b1 ,..., bn ∈ K.
Dans la suite du I on fixe un tel système (E) et note SE l’ensemble de ses solutions dans Kp .
(b) Le système d’équations linéaires homogène associé à (E) est le système suivant :
(
a11 x1 + ... + a1p xp = 0
(H) ... d’inconnue (x1 , ..., xp ) ∈ Kp .
an1 x1 + ... + anp xp = 0
15
Remarques (importantes)
1. (H) admet toujours comme solution (0, . . . , 0).
2. On suppose que SE 6= ∅ et fixe une solution « particulière » (xE E
1 , . . . , xp ) de (E).
p
Pour tout (x1 , . . . , xp ) ∈ K , on a tout de suite :
(x1 , . . . , xp ) vérifie (E) si et seulement si (x1 − xE E
1 , . . . , xp − xp ) vérifie (H).
Notations
(a) On utilisera les « matrices » suivantes :
a11 ... a1p ! x1 b
.. ..1
A= ... matrice de (E), X = . inconnue
| {z }, et B = . second membre de (E).
an1 ... anp xp b n
identifiée à (x1 , ..., xp )
Définition
Dans ce qui suit on va noter L1 , ..., Ln les lignes de (A|B) et C1 , ..., Cp les colonnes de A.
Étant donnés k ∈ {1, ..., n} et α1 , ..., αn ∈ K, on écrira « Lk ← α1 L1 + ...+ αn Ln » pour exprimer
qu’on remplace la ligne Lk par α1 L1 + ... + αn Ln .
(a) Une opération élémentaire sur les lignes de (A|B) est une des transformations suivantes :
(échange)
(i) Li ←→ Lj avec i 6= j « permutation de deux lignes » ;
(ii) Li ← c Li avec c 6= 0 « multiplication d’une ligne par un scalaire non-nul » ;
(iii) Li ← Li + cLj avec i 6= j et c ∈ K « ajout à une ligne d’un multiple d’une autre ligne ».
(échange)
(b) Une permutation de deux colonnes de A est une transformation Ci ←→ Cj avec i 6= j.
Remarque
Pour toute opération élémentaire l sur les lignes des matrices à n lignes et p (resp. p + 1)
colonnes et toute permutation c de deux colonnes de ces matrices, on a : c ◦ l = l ◦ c.
Lemme
Soit (A′ |B ′ ) une matrice obtenue à partir de (A|B) après avoir effectué un nombre fini d’étapes
de l’un des deux types suivants :
Li ↔ Lj avec i 6= j ;
Li ← c1 L1 + · · · + ci Li + · · · + cn Ln avec 1 ≤ i ≤ n, c1 , ..., cn ∈ K et ci 6= 0.
x1
.
Pour tout X = .. ∈ Kp , le système (E) : AX = B équivaut au système (E ′ ) : A′ X = B ′ .
xp
16
Démonstration (idée)
En appliquant à (E) les opérations sur les lignes qui font passer de (A|B) à (A′ |B ′ ), on
constate que : si (x1 , . . . , xp ) vérifie (E), alors (x1 , . . . , xp ) vérifie (E ′ ).
Chaque étape se décompose en une succession d’opérations élémentaires sur les lignes.
Pour être sûr de pouvoir remonter de (E ′ ) à (E), il reste à constater que ces opérations élémen-
taires sont réversibles :
(i) Li ↔ Lj avec i 6= j a pour réciproque Li ↔ Lj ;
(ii) Li ← c Li avec c 6= 0 a pour réciproque Li ← 1c Li ;
(iii) Li ← Li + cLj avec i 6= j et c ∈ K a pour réciproque Li ← Li − cLj .
Exemple
On va écrire une suite de matrices augmentées associées à des systèmes linéaires équivalents.
On peut commencer la résolution de (Ecart ) ainsi, en entourant le « pivot » :
! ! !
−4 12 −5 1 1 −3 2 −1 1 −3 2 −1
1 −3 2 −1 −−−−−−−−−−−−−−−−−−−−− → −4 12 −5 1 −−−−−−−−−−−−−−−−−−−−−−→ 0 0 3 −3 .
2 −6 1 1 L1 ↔ L2 2 −6 1 1 L2 ← L2 + 4L1 0 0 −3 3
(pour utiliser le pivot 1, ce puis L3 ← L3 − 2L1
qui n’est pas indispensable) (pour amener des 0 dans C1
strictement sous la diagonale)
On va travailler sur les colonnes de A dans (A|B) en allant de la gauche vers la droite pour se
ramener à un système triangulaire. À chaque étape on va chercher un scalaire non-nul (« pivot »)
vers le bas à partir du terme diagonal, et éventuellement à droite ce qui nécessitera de faire un
échange de colonnes. On amène ce pivot sur la diagonale puis des 0 sous ce pivot.
Proposition (∗)
a) On peut passer par une suite finie d’opérations élémentaires sur les lignes et d’échanges
de deux colonnes, de la matrice A à une matrice de la forme
d1
..
0. . . .
. .. ..
.
A′ = 0 ··· 0 dr avec d1 6= 0, ..., dr 6= 0.
0 ... 0 0 ... 0
.. .. .. ..
. . . .
0 ... 0 0 ... 0
x1
.
b) Le système (E) : AX = B d’inconnue X = .. équivaut au système (E ′ ) : A′ X ′ = B ′
xp
xj1 xj1 ... xjp
.. x1 ... xp
′
d’inconnue X := . , où les transformations du (a) envoient ( A | B ) sur ( A′ | B ′ ).
xjp
[Noter que les lettres qui se trouvent au-dessus de A ou de A′ représentent ici les noms des variables-coordonnées d’un vecteur
de Kn et non pas les valeurs particulières qu’elles prennent pour le vecteur X. De plus, ce sont les éventuels échanges de
colonnes qui feront passer de x1 , ..., xp à xj1 , ..., xjp .]
!
b′1
c) On note SE l’ensemble des solutions de (E) et B ′ = .. .
.
b′n
On a : SE 6= ∅ ⇐⇒ b′r+1 = · · · = b′n = 0 .
| {z }
n − r conditions
Dans ce cas, on obtient une équation paramétrique de SE à partir de (E ′ ) en écrivant
successivement xjr , ..., xj1 en fonction des paramètres t1 := xjr+1 , ..., tp−r := xjp .
| {z }
p − r paramètres
Ainsi, quand r = n = p (« système de Cramer ») le système (E) a une unique solution.
(∗) Pour un point de vue sans échanges de colonnes, voir la fin de ce paragraphe (« matrices échelonnées »).
Les échanges de deux colonnes peuvent permettre de minimiser les erreurs d’arrondis sur ordinateur :
en travaillant sur la j e colonne on choisirait comme pivot ai0 ,j0 avec i0 , j0 ≥ j tels que |ai0 ,j0 | = ′max
′
|ai′ ,j ′ |.
i ,j ≥j
17
Démonstration 0 ... 0 0 ... 0
(a) On écarte le cas A = ... qui donnerait r = 0 et A′ = ... . On a :
0 ... 0 0 ... 0
x ... xjp
x ... xkp x ... xkp d1j1
dk16=0 dk1 .
.
b′1
.
1 1 0 . .
x1 ... xp u2 0 . . . .
. . .
A | B ) −−−−−−−−→
( |{z} .. −−−−−−−−−−−−−→
u2
.. −
→ ... −
|{z}
→
. .
0 ··· 0 dr
.
′
b′r
br+1
permutation . L2 ← L2 − d1 L1 . 0
.
... 0
.
0 ... 0
. . .
a un coefficient de lignes et un ... 0 (récurrence) . . . . .
d1 non-nul un .
de colonnes Ln ← Ln − d1 L1 | {z } .
0 ...
.
0
. .
0 ... 0 b′n
on le réduit et transmet
xk2 ... xkp au-dessus les échanges de colonnes
(b) (c) D’après le lemme du 2, et le fait qu’un échange de colonnes donne deux systèmes
linéaires équivalents, (E) équivaut à :
d1 xj1 + · · · · · · · · · · · · = b′1
d1 j2 + · · ·
x · · · · · · = b′2
..
.
(E )′ d1 xjr + · · · = b′r c’est-à-dire à :
0 = b ′
r+1
x
.. ..
jr+1 = t1
. .
..
0 = bn ′
.
xjp = tp−r
b′r+1 = · · · = b′n = 0 et ∃t1 , . . . , tp−r ∈ K xjr = d1r (. . . ) .
z }| {
..
. à exprimer avec t1 , . . . , tp−r
1
xj1 = d1 (. . . )
Remarques
1. Quand (E) a strictement plus d’inconnues que d’équations (c’est-à-dire p > n) et SE 6= ∅
(par exemple (E) est homogène), on a : p − r > n − r ≥ 0, donc SE est infini.
| {z }
nombre de paramètres
Tout système linéaire homogène dont le nombre d’inconnues est strictement supérieur au
nombre d’équations admet une infinité de solutions.
2. La matrice (A′ |B ′ ) dépend des opérations sur les lignes et les colonnes qu’on a utilisées.
Cependant, on verra dans la suite du cours que :
– r ne dépend que de A, et sera appelé « le rang de A » ;
– SE n’a pas d’équation paramétrique avec strictement moins que p − r paramètres ;
−→
(lorsque SE : AX = B et SE = {U T + V ; T ∈ Kk }, on a : k ≥ dim SE = dim Ker A = p − r)
– une équation cartésienne obtenue par la méthode de Gauss à partir d’une équation paramétrique
a un nombre d’égalités qui est minimal.
→
−
(lorsque E = {AT + C ; T ∈ Kp } et E : U X = V , on a : rg U = n − dim E = n − r)
18
Après avoir travaillé sur toutes les colonnes en reportant les opérations sur les lignes au niveau
de la colonne à droite de la barre verticale, on regarde si les membres de droite des égalités dont
le membre de gauche est 0 vaut lui-même 0 (sinon le système n’a pas de solution) auquel cas on
résout le système en remontant de la dernière égalité à la première égalité.
Remarques
En pratique, on exploitera la proposition précédente en allégeant la présentation :
– lorsque B = 0 on ne fera pas apparaître la dernière colonne (seconds membres nuls) ;
– on n’introduira les noms des variables au dessus des p premières colonnes qu’à partir du moment
où un échange de colonnes aura été introduit (ce qui est rarement indispensable) ;
– on résoudra « de tête » le système triangulaire correspondant à la dernière étape de la méthode
de Gauss, en partant de la dernière égalité et remontant vers la première.
(b) Une matrice échelonnée réduite est une matrice échelonnée dans laquelle les premiers
termes non-nuls sur chaque ligne sont des 1 au-dessus desquels se trouvent des 0. Elle s’écrit :
0 ... 0 1 0 0
.
0 ... 0 1 .
0 ... 0
.
0 .
1
0 ... 0
...
0 ... 0 0 ... 0 0 ... 0 0 ... 0
Proposition
Il existe une unique matrice échelonnée réduite EA qui se déduit de A par des opérations
élémentaires sur les lignes.
19
Démonstration (idées)
• Existence ?
Elle s’obtient par exemple ainsi :
0 ... 0 0 0 ... 0 1
0 ... 0 1
. x2
. 0
.
0
A= Li0 x6=0 −−−−−−−−1−−−→ −−−−−−−−−−−−→
Li0 ← x Li0 i
L ← L i − x i 1
L
puis L1 ↔ Li0 pour i 6= 1
0 ... 0 0 ... 0 xn 0 ... 0 0
| {z }
0 ... 0 1 0 0 à réduire en amenant 0
au-dessus de chaque pivot
0 ... 0 1
0 ... 0 0
−−→ . . . −−→
|{z}
EA := 1 .
0 ... 0
(récurrence) ...
0 ... 0 0 ... 0 0 ... 0 0 ... 0
• Unicité ?
On vérifie par récurrence sur p qu’une matrice échelonnée réduite A′ avec r lignes non-nulles
déduite de A par des opérations élémentaires sur les lignes est déterminée par A.
On remarque tout d’abord que les relations α1 C1 + · · · + αp Cp = 0 sont vérifiées pour les mêmes
(α1 , ..., αp ) ∈ Kp au niveau de A et de A′ (il s’agit des solutions du système (H) : AX = 0).
Lorsque p = 0 la seule matrice échelonnée réduite est la matrice vide. En supposant que la
proposition est vraie avec p − 1 à la place de p, les colonnes C1 , ..., Cp−1 de A′ sont déterminées
par A. Il reste à constater que la colonne Cp de A′ est nulle quand A = 0, et sinon
| {z } contient :
avec r 6= 0
– un seul terme non-nul égal à 1 au niveau de la r e ligne si Cp 6∈ Vect(C1 , ..., Cp−1 ) ;
– les coordonnées de Cp suivant les r colonnes des pivots si Cp ∈ Vect(C1 , ..., Cp−1 ).
(i) On se place dans la colonne la plus à gauche qui a, à partir de la j e ligne, au moins un
coefficient dj =
6 0 (s’il n’y a pas une telle colonne on arrête).
(ii) On échange la j e ligne avec la ligne contenant dj .
(iii) On amène des 0 strictement au-dessous de dj par des opérations sur les lignes (composées
de deux opérations élémentaires) de la forme Li ← ci Li + cj Lj avec ci 6= 0 quand i > j.
Pour obtenir une matrice échelonnée réduite, on amènerait aussi à la j e étape dans (iii) des 0
strictement au-dessus du pivot dj par des opérations sur les lignes de la forme Li ← ci Li + cj Lj
avec ci 6= 0 quand i < j, puis en fin de calcul on diviserait chacune des lignes non-nulles par son
premier coefficient non-nul (noté dj à la j e étape).
Après avoir travaillé sur toutes les lignes en reportant les opérations sur les lignes au niveau
de la colonne qui se trouve à droite de la barre verticale, on regarde si les membres de droite des
égalités dont le membre de gauche est 0 vaut lui-même 0 (sinon le système n’a pas de solution),
auquel cas on résout le système en remontant de la dernière égalité à la première égalité.
20
II. Calcul matriciel
Dans cette partie, on fixe n, p, q, r ∈ N \{0}.
1. Opérations usuelles
On considère un système d’équations linéaires de n équations à p inconnues dans K :
(
a11 x1 + · · · + a1p xp = b1
(E) ··· d’inconnue (x1 , ..., xp ) ∈ Kp
an1 x1 + · · · + anp xp = bn
où sont donnés a11 ,..., a1p , a21 ,..., a2p , . . . , an1 ,..., anp ∈ K et b1 ,..., bn ∈ K.
a11 ··· a1p x1 b
. .1
On lui associe : A := ··· matrice de (E), X := .. inconnue de (E) et B := ..
an1 ··· anp xp bn
second membre de (E). On écrit en abrégé (E) : AX = B.
Cette notation (E) : AX = B va être un guide pour définir le produit des matrices.
Définition
n × p à coefficients dans K est un tableau(∗∗) de la forme :
(a) Une matrice |{z}
|{z}
nb lignes nb colonnes
a11 ··· a1p
A= ··· avec a1,1 , ..., a1p ; . . . ; an1 , ..., anp ∈ K.
an1 ··· anp
On écrit aussi A = (aij ) 1≤i≤n et appelle coefficient de A d’indice (i, j) le nombre aij .
1≤j≤p
Cela sous-entend que « aij est placé à l’intersection de la ie ligne et de la j e colonne ».
(b) On note Mn,p (K) l’ensemble des matrices n × p à coefficients dans K.
On pose ensuite M(n, K) := Mn,n (K) matrices carrées d’ordre n à coefficients dans K
et M0,p (K) = Mn,0 (K) = M(0, K) := {0} ⊆ K où à la matrice vide () est identifiée à 0.
Exemples
x x
0. ··· 0. 1 . 0
Matrice nulle 0 := .. .. n et matrice (carrée) identité In := . n .
0 ··· 0
y 0 .1y
←−−p−→ ←−−
n−→
Matrice scalaire : (a11 ), s’identifie à a11 .
Matrice ligne : (a11 · · · a1p ), à ne pas confondre avec (a11 , . . . , a1p ) ∈ Kp .
a11
..
Matrice colonne : . , sera par convention identifiée avec (a11 , . . . , an1 ) ∈ Kn .
an1 !
0
Matrice (carrée) diagonale : D = .
0 !
Matrice (carrée) triangulaire supérieure : U = .
0
Définition
(a) Soient λ ∈ K et A = (aij ) 1≤i≤n , B = (bij ) 1≤i≤n ∈ Mn,p (K).
1≤j≤p 1≤j≤p
On pose : λA := (λaij ) 1≤i≤n et −A := (−aij ) 1≤i≤n .
1≤j≤p 1≤j≤p
A + B := (aij + bij ) 1≤i≤n et A − B := (aij − bij ) 1≤i≤n
1≤j≤p 1≤j≤p
(b) Soient A = (aij ) 1≤i≤n ∈ Mn,p (K) et B = (bij ) 1≤i≤p ∈ Mp,q (K).
1≤j≤p 1≤j≤q
Pp
On pose : AB := (cij ) 1≤i≤n ∈ Mn,q (K) avec cij = aik bkj = ai1 b1j + · · · + aip bpj .
1≤j≤q k=1
p x •
x←−−−−−−−→ x •
• • ... • .. somme des
. produits coefficient de AB
Schéma : ny p = ny avec | {z } −−−−→ d’indice (i, j) .
•
y ←→
ie ligne de A
|{z}
←→
q
q j e colonne de B
21
Exemples
x
1 −1 1 1 0 −1 2
On considère : U = , V = , W = , X= y .
−1 1 2 2 3 4 −6
z
Les sommes et produits
possibles de 2 matrices différentes parmi U , V , W , X sont :
2 0
U +V = V +U = ;
1 3
−1 −1 0 0
UV = et V U = , donc U V 6= V U ;
1 1 0 0
−3 −5 8 3 3 −4
UW = et V W = ;
3 5 −8 6 6 −8
−y + 2z
WX = , ce qui est compatible avec la notation « (E) : AX = B ».
3x + 4y − 6z
Remarque
Dans l’exemple ci-dessus, on pourrait calculer U n et V n pour n ∈ N car U et V sont carrées.
Dans le cas favorable où des matrices carrées A et B commutent on peut déduire des An et
B n les puissances de A + B. En effet, la formule du binôme se généralise facilement ainsi :
Pn
n
n−k k
si A, B ∈ M(p, K) vérifient AB = BA, alors (A + B)n = k A B pour tout n ∈ N.
k=0
Proposition
(a) Soient A, B, C ∈ Mn,p (K), et λ, µ ∈ K.
On a : 1A = A, A + 0 = A et A + (−A) = 0
(A + B) + C = A + (B + C) et A + B = B + A
λ(A + B) = (λA) + (λB) et (λ + µ)A = (λA) + (µA)
λ(µA) = (λµ)A
(Cela s’exprimera en disant que « (Mn,p (K), +, .) est un K-espace vectoriel ».)
(b) Soient A, A1 , A2 ∈ Mn,p (K), B, B1 , B2 ∈ Mp,q (K), C ∈ Mq,r (K), et λ ∈ K.
On a : In A = A = AIp
(AB)C = A(BC)
A(B1 + B2 ) = (AB1 ) + (AB2 ) et (A1 + A2 )B = (A1 B) + (A2 B)
λ(AB) = (λA)B = A(λB)
En particulier : (M(n, K), +, .) est un anneau. ←−[ non-commutatif quand n ≥ 2]
Démonstration
Exercice.
Définition-Proposition z }|
∈ NN
{ z }| {
∈ NP
(a) Une décomposition en blocs de taille (n1 , ..., nN )×(p1 , ..., pP ) d’une matrice A ∈ Mn,p (K)
est la donnée de matrices Ai,j ∈ Mni ,pj (K), i ∈ {1, ..., N } et j ∈ {1, ..., P }, telles que :
p1 pP
←−→ ←−−− → !
A1,1 ··· A1,P l n1
A= .. .. .. où les parenthèses des matrices A ont été enlevées.
. . . i,j
AN,1 ··· AN,P l nN
(b) Soient λ ∈ K et deux matrices A, B ∈ Mn,p (K) décomposées en blocs Ai,j 1≤i≤N et
1≤j≤P
Bi,j 1≤i≤N de même taille. On a : λA = λAi,j 1≤i≤N et A + B = Ai,j + Bi,j 1≤i≤N .
1≤j≤P 1≤j≤P 1≤j≤P
(c) Soient A ∈ Mn,p (K) et B ∈ Mp,q (K) décomposées en blocs A = Ai,j 1≤i≤N de taille
1≤j≤P
(n1 , ..., nN ) × (p1 , ..., pP ) et B = Bj,k 1≤j≤P de taille (p1 , ..., pP ) × (q1 , ..., qQ ).
1≤k≤Q
XP
On a la décomposition en blocs suivante : AB = Ci,j 1≤i≤N avec Ci,j = Ai,k Bk,j .
1≤j≤Q
k=1
22
Démonstration
(b) Calcul immédiat.
(c) Soit (u, v) ∈ {1, ..., n} × {1, ..., q}. On peut écrire u et v sous la forme :
u = n1 + ... + ni−1 + r avec 1 ≤ r ≤ ni et v = q1 + ... + qj−1 + s avec 1 ≤ s ≤ qj .
En notant M(i,j) le coefficient d’indice (i, j) d’une matrice M , on a :
p1
P p1P
+p2 p1 +...+p
P P
(AB)(u,v) = A(u,w)B (w,v) + A(u,w)B (w,v) + · · · + A(u,w)B (w,v)
w=1 w=p1 +1 w=p1 +...+pP −1+1
p1
P p2
P pP
P
= A(u,t)B (t,v) + A(u,p1 +t)B (p1 +t,v) + · · · + A(u,p1 +...+pP −1+t)B (p1 +...+pP −1+t,v)
t=1 t=1 t=1
Pp1 p1
P pP
P
= Ai,1 (r,t)B1,j (t,s) + Ai,2 (r,t)B2,j (t,s) + · · · + Ai,P (r,t)B1,j (t,s)
t=1 t=1 t=1
P
P P
pk P
P
= Ai,k (r,t)Bk,j (t,s) = (Ai,k Bk,j )(r,s) = Ci,j (r,s).
k=1 t=1 k=1
D’où le résultat.
Exemples
On va délimiter des blocs par des traits horizontaux et verticaux.
(1) Exemple de calcul pour illustrer le point (c) :
! !
0 1 1 1 3 0 1 1 1 3 ( 0 1 )( 1 3 ) + ( 1 )( 5 6 ) ( 2 4) + (5 6) 7 10
10 24 1 13 56
10 1 24 = 10 1 24
= = = 6 9 .
2 1 −1 56 2 1 −1 56 ( 2 1 )( 12 34 ) + ( −1 )( 5 6 ) ( 4 10 ) + ( −5 −6 ) −1 4
Proposition
Soient A ∈ Mn,p (K) et B ∈ Mp,q (K). On a : t B t A est définie et t (AB) = t B t A.
Démonstration
On pose A = (aij ) 1≤i≤n et B = (bij ) 1≤i≤p .
1≤j≤p 1≤j≤q
Donc : t A = (a′i j ) 1≤i≤p et t B = (b′i j ) 1≤i≤q , avec a′i j := aj i et b′i j := bj i .
1≤j≤n 1≤j≤p
P p
D’une part : AB = (cij ) 1≤i≤n avec cij = aik bkj , puis t (AB) = (c′i j ) 1≤i≤q avec c′i j := cj i .
1≤j≤q k=1 p 1≤j≤n
P
D’autre part : t B t A = (dij ) 1≤i≤q avec dij = b′ik a′kj .
1≤j≤n k=1
Pp p
P ′ ′
Finalement : c′i j = ajk bki = akj bik = dij , ce qui s’écrit t (AB) = t B t A.
k=1 k=1
Variante p p
t P P
(AB)(i, j) = (AB)(j, i) = A(j, k)B(k, i) = (t B)(i, k)(t A)(k, j) = (t B t A)(i, j).
k=1 k=1
23
Définition (matrices carrées)
a ··· a1n
11
Soit A = ··· ∈ M(n, K).
an1 ··· ann
(a) On dit que A est symétrique si t A = A (c’est-à-dire aj i = ai j quand 1 ≤ i < j <≤ n).
(b) On appelle trace de A, l’élément de K noté tr A, défini par :
P
n
tr A = ai,i = a1,1 + · · · + an,n .
i=1
Proposition
Soient A ∈ Mn,p (K) et B ∈ Mp,n (K). On a : tr(AB) = tr(BA).
Démonstration
On pose A = (aij ) 1≤i≤n et B = (bij ) 1≤i≤p .
n P
1≤j≤p 1≤j≤n
p
P P
n P n
On a : AB = (cij ) 1≤i≤n avec cij = aik bkj , donc tr (AB) = ci,i = aik bki .
1≤j≤q k=1 i=1 i=1 k=1
P
n P
n
On conclut en intervertissant et .
i=1 k=1
Démonstration
On se place dans la situation du (a) avec deux « inverses » potentiels : si B, C ∈ M(n, K)
vérifient AB = In et CA = In , alors C = CIn = C(AB) = (CA)B = In B = B.
Remarque (importante)
On suppose que A ∈ M(n, K) est inversible et B ∈ Kn .
Le système (E) : AX = B d’inconnue X ∈ Kn équivaut à l’équation A−1 (AX) = A−1 B.
Il a donc pour unique solution X := A−1 B. ←−[dans ce cas le nombre de paramètres n − r pour les solutions est nul]
Proposition
−1
(a) Soit A ∈ M(n, K) inversible. La matrice A−1 est inversible et A−1 =A .
t
(b) Soit A ∈ M(n, K) inversible. La matrice t A est inversible et (t A)−1 = (A−1 ) .
(c) Soient A,B ∈ M(n, K) inversibles. La matrice AB est inversible et (AB)−1 = B −1A−1 .
Démonstration
(a) Il suffit de remarquer qu’en posant B := A−1 , on a : A−1 B = In et B A−1 = In .
t t
(b) D’après la fin du 2, on a : t A (A−1 ) = t (A
|
−1
{z A}) = In et (A−1 )t A = t (AA
| {z
−1
}) = In .
t t −1
Donc A est inversible d’inverse (A ). In In
Lemme
On se donne une suite finie d’opérations élémentaires sur les lignes des matrices à n lignes. Il
existe une matrice inversible P ∈ M(n, K) telle que cette suite d’opérations élémentaires envoie
toute matrice M ∈ Mn,p (K) sur P M . ←−[il en résulte d’ailleurs que P est l’image de In ]
24
Démonstration (au programme)
On est ramené à vérifier le lemme pour une seule opération élémentaire :
1
..
.
1
penser au 0 ··· 0 1 ← ligne i
cas M = In .. 1 0
..
Li ↔ Lj avec i 6= j est associé à P :=
. .
..
.
;
0 1
1 0 ··· 0 ← ligne j
1
..
.
1
| {z }
0 ailleurs
1
..
penser au .
cas M = In 1 ← ligne i
Li ← c Li avec c 6= 0 est associé à P := c ;
1.
..
1
| {z } colonne j
0 ailleurs
1 ↓ !
penser au ..
cas M = In . c ← ligne i .
Li ← Li + cLj avec i 6= j et c ∈ K est associé à P := ..
.
1
| {z }
0 ailleurs
Chacune des trois matrices P ci-dessus est inversible car en appliquant l’opération élémentaire
en question et sa réciproque de la forme M 7→ QM à In , on retrouve In .
Proposition
Soit A ∈ M(n, K). Les propriétés suivantes sont équivalentes :
(i) A est inversible ;
(ii) il existe B ∈ M(n, K) tel que AB = In ;
(iii) il existe C ∈ M(n, K) tel que CA = In ;
(iv) il existe une suite finie d’opérations élémentaires sur les lignes qui envoie A sur In .
Dans les cas (ii) à (iv), on a respectivement : A−1 = B, A−1 = C, et A−1 est l’image de In
par la suite finie d’opérations élémentaires.
Démonstration (idée)
On vérifie que (i) ⇒ (ii) ⇒ (iv) ⇒ (i) et (i) ⇔ (iii).
• Par définition de l’inversibilité, on a : (i) ⇒ (ii) et (i) ⇒ (iii).
• On suppose (iv) vrai, ce qui fournit une suite finie Σ d’opérations élémentaires sur les lignes
envoyant A sur In qui d’après le lemme est de la forme M 7→ P M pour un certain P ∈ M(n, K)
inversible. En choisissant M tout d’abord égal à A, et ensuite égal à In , on obtient : P A = In
puis A = P −1 (par produit à gauche par P −1 ) et l’image de In par Σ est P .
Ainsi (i) est vrai et A−1 qui est égal à P est bien l’image de In par la suite Σ.
• On montre que (ii) ⇒ (iv). On sait que pour toute M0 ∈ Mn,p (K) il existe une suite finie
d’opérations élémentaires sur les lignes qui transforme M0 en une matrice échelonnée réduite :
0 ... 0 0
. 1 0 0.
cas M0 6= 0 . .
z}|{ .
1 .
M0 = 0 −−→ ......... −−→ ... 0 .
0 ... 0
x6=0
0 1
25
• On suppose (iii) vrai. La matrice C vérifie l’analogue du (ii) avec le rôle de A. On vient de
voir que « (ii) ⇒ (i) ». On en déduit que C est inversible, puis A = C −1 (CA) = C −1 .
Ainsi (i) est vrai et A−1 = C.
Remarques
1. La condition (iv) de la proposition signifie que In est l’unique matrice échelonnée réduite
qui se déduit de A par des opérations élémentaires sur les lignes.
2. L’ensemble des transformations obtenues à l’issue d’une suite finie d’opérations élémen-
taires sur les lignes des matrices à n lignes est égal à celui des transformations M 7→ P M avec
P ∈ M(n, K) inversible. En effet :
(⊆) toute suite finie d’opérations élémentaires sur les lignes des matrices à n lignes s’écrit d’après
le lemme M 7→ P M pour un certain P ∈ M(n, K) inversible ;
(⊇) étant donné P ∈ M(n, K) inversible, il existe d’après la proposition une suite finie Σ
d’opérations élémentaires sur les lignes qui envoie P −1 sur In , et comme Σ est d’après le lemme
de la forme M 7→ QM avec Q ∈ M(n, K) inversible, l’égalité QP −1 = In obtenue en choisissant
| {z }
M = P −1 montre aussi que Σ s’écrit M 7→ P M . signifie que Q = P
.
.
.
0
.
. 0
.
d1
.
.
. 0
dj−1
(i) (ii) (iii) .
dj−1 dj−1
0 dj
0 dj
0 dj
Exemple
5 4
A := est-elle inversible ? Si oui, que vaut A−1 ?
6 5
5 4 1 0 5 4 1 0 5 0 25 −20 1 0 5 −4
On a : (A|I) = 6 5 0 1
−−−−−−−−−−−−→
0 1 −6 5
−−−−−−−−−−−→
0 1 −6 5
−−−−−−−→
0 1 −6 5
.
1L
L1 ← 5
L2 ← 5L2 − 6L1 L1 ← L1 − 4L2 1
(On verra plus bas que le calcul de rang à mi-chemin prouve à cette
étape que
A est inversible.)
5 −4
D’après la proposition précédente : A est inversible et A−1 = .
−6 5
On disposera aussi plus tard (en L2) d’une formule simple pour A−1 quand A ∈ GL(2, K).
4. Rang
La définition qui suit va utiliser la notion de rang d’une famille (v1 , ..., vp ) avec v1 , ..., vp ∈ Kn ,
qui ne sera introduite que dans le chapitre suivant. En première lecture on admettra donc que
le nombre r qui apparaitra dans l’algorithme qui va suivre la définition est indépendant de la
matrice A′ , et considèrera que c’est pour l’instant ce nombre qui sera appelé rang de A.
26
Définition
a11 ··· a1p
Soit A = ··· ∈ Mn,p (K).
an1 ··· anp
a a
11 1p
..
On note : rg A := rg . , ..., ... ∈ N.
an1 anp xj1 ... xjr xjr+1... xjp
d1
..
Algorithme x1 ... xp 0 .
! . . .
x1 ... xp
a11 ... a1p xj1 ... xjp .. . . . .
On transforme A := ... en A′ = 0 ··· 0 dr
an1 ... anp
0 ... 0 0. ... 0.
.. .. .. ..
. .
0 ... 0 0 ... 0
par la méthode de Gauss, avec d1 6= 0, ..., dr 6= 0.
On a : rg A = r « calcul du rang par la méthode de Gauss ».
(Le nombre r est donc indépendant de la manière dont on applique la méthode de Gauss.)
Démonstration
On note v1 , ..., vP les colonnes de A et montre que (vj1 , ...,vjr ) est une base de Vect(v1 , ...,vp ).
• On vérifie que la famille (vj1 , ..., vjr ) est libre. On montre que (⋆) α1 vj1 + ... + αr vjr = 0
montre que l’équation (⋆⋆) α1 vj1 + ... + αr vjr = vjk d’inconnue (α1 , ..., αr ) ∈ Kr a au moins
une solution. Le résultat en découlera car on aura ensuite Vect(v1 , ..., vp ) ⊆ Vect(vj1 , ..., vjr ).
| {z }
plus petit sous-espace vectoriel de Kn contenant v1 , ..., vp
Remarque
Lorqu’on adopte le point de vue de la méthode de Gauss sans permutation de colonnes, qui
fournit une matrice échelonnée A′ pas forcément réduite, le rang de A reste égal au nombre de
pivots non nuls qui apparaissent dans la matrice A′ .
Proposition
Soit A ∈ M(n, K).
On a : A est inversible si et seulement si rg A = n.
Démonstration
(⇒) On suppose que A est inversible. Elle vérifie la condition (iv) de la dernière proposition,
et on a donc rg A = n en calculant rg A par la méthode de Gauss.
(⇐) On suppose que rg A = n. On reproduit la démonstration de l’implication (ii) ⇒ (iv)
de la dernière proposition en remplaçant l’hypothèse (ii) par l’hypothèse « rg A = n ».
La matrice P A fournit rg A. Elle a donc n blocs 1 , puis (iv) est vérifié et A est inversible.
27
Proposition
t
Soit A ∈ Mn,p (K). On a : rg A = rg (A).
28
Ch. 3. Espaces vectoriels sur K = R ou C
Plan
I. Règles de calcul
II. Constructions
III. Bases et dimension
I. Règles de calcul
1. Généralités
Définition-Proposition
(a) On appelle espace vectoriel sur K (ou K-ev ) un ensemble E muni de deux applications
E × E −→ E et K × E −→ E telles que :
(v, w) 7−→ v + w (α, v) −7 → |{z}
α×v
noté par la suite α v
Démonstration
Il s’agit de prouver les deux cas d’unicité signalés au (a).
(ii) Pour tout candidat 0̃ au rôle de 0E , on a d’après (i) :
0̃ = 0̃ + 0E = 0E + 0̃ = 0E .
(iii) Pour tout candidat ṽ au rôle de −v, on a aussi d’après (i) et (ii) :
ṽ = ṽ + 0E = ṽ + (v + (−v)) = (ṽ + v) + (−v) = (v + ṽ) + (−v) = 0E + (−v) = −v.
Remarques
On se donne un K-espace vectoriel E.
(1) Pour α ∈ K et v ∈ E, on a :
0 v= 0 v + (1 v − v) = 0E ;
α 0E = α(0E + 0E ) − α 0E = 0E ;
(−α)v= (−α + α)v − (α v) = −(α v).
(2) Règles de simplification. Pour α, β ∈ K et u, v, w ∈ E, on a :
u + v = u + w =⇒ v = w ; (ajouter −u à chaque membre)
α v = 0E =⇒ α = 0 ou v = 0E ; 1)
(si α 6= 0, multiplier chaque membre par α
2. Exemples
29
Exemple 1
Soit n ∈ N. L’ensemble Kn des n-uplets (x1 , ..., xn ) d’éléments x1 , ..., xn de K, muni de
(x1 , ..., xn ) + (y1 , ..., yn ) := (x1 + y1 , ..., xn + yn ) et α×(x1 , ..., xn ) := (αx1 , ..., αxn )
est un K-espace vectoriel (clair). Ses éléments sont les applications i 7→ xi de {1, ..., n} dans K.
Par convention, on écrira : K0 := {0} ⊆ K en « identifiant » la suite vide () et 0.
Cas particulier
Le « plan » R2 est un R-espace vectoriel et la « droite » C1 est un C-espace vectoriel.
Ainsi C possède à la fois une structure de C-espace vectoriel et de R-espace vectoriel (d’en-
semble R2 en définissant x + iy comme le couple (x, y) quand x, y ∈ R).
Exemple 2
Soient A un ensemble et E un K-espace vectoriel.
L’ensemble, noté E A , des applications de A dans E, muni des « lois » déterminées par
f +g : A→ E et α × f : A → E
∈
∈
∈
E A
E A x →
7 f (x) + g(x) K
E A x 7 → α (f (x))
est un K-espace vectoriel, avec 0E A : A → E . ←−[exercice]
x 7→ 0
Exemple 3
En particulier, l’ensemble KN des suites d’éléments de K, est un K-espace vectoriel.
Suivant l’usage, on notera (un )n∈N au lieu de u : N → K .
n 7→ un
Ainsi, on a par définition : (un )n∈N + (vn )n∈N = (un + vn )n∈N et α×(un )n∈N = (α un )n∈N .
Exemple 4
Soient n, p ∈ N. D’après l’exemple 2, l’ensemble Mn,p (K) des matrices n × p à coefficients
dans K, qui est égal à K{1,...,n}×{1,...,p}, est aussi un K-espace vectoriel, avec la somme et le
produit d’un scalaire par une matrice qui ont été définis dans le chapitre 2.
3. Combinaisons linéaires
Définition-Proposition
Soient E un K-espace vectoriel, p ∈ N et v1 , . . . , vp , v, w ∈ E.
(a) Une combinaison linéaire (ou cl) des vecteurs v1 , . . . , vp est un vecteur u de E de la forme
u = α1 v1 + · · · + αn vp avec α1 , . . . , αp ∈ K.
| {z }
0E quand p = 0
(b) On dit que v et w sont colinéaire (« sur une même droite ») s’il existe α ∈ K tel que
v = α w ou w = α v. Cela équivaut à : v = 0E ou il existe α ∈ K tel que w = α v.
Démonstration
Il s’agit de prouver l’équivalence du (b).
1
(⇒) Dans le cas où v = α w, on a : soit α = 0 et par suite v = 0E , soit α 6= 0 et w = α v.
(⇐) Lorsque v = 0E , on a : v = 0 w.
Exemple
Dans R3 , on choisit v1 = (0, 1, −1), v2 = (1, 0, −1), v3 = (1, −1, 0), et v = (5, −2, −3).
Le vecteur v est combinaison linéaire de v1 , v2 , v3 car : v = v1 + 2v2 + 3v3 .
Remarque
La notation « α1 v1 + · · · + αPn vp » avec des points de suspension est usuelle mais abusive.
P
On pourrait la remplacer par « αk vk » avec la définition par récurrence suivante : uk :=
1≤k≤p 1≤k≤0
P P
0E , et, uk = uk + up+1 pour tous p ∈ N et (ui )1≤i≤p+1 ∈ E p+1 .
1≤k≤p+1 1≤k≤p
30
II. Constructions
Dans toute cette partie, on fixe un K-espace vectoriel E.
1. Sous-espaces vectoriels
Définition
On dit qu’une partie F de E est un sous-espace vectoriel de E (ou sous-ev de E) si :
(i) 0E ∈ F ;
(ii) pour tous α, β ∈ K et v, w ∈ F , on a α v + β w ∈ F .
Remarques
(1) Il est immédiat que : {0E } et E sont des sous-espaces vectoriels de E.
(2) Soient F un sous-espace vectoriel de E, p ∈ N et v1 , . . . , vp ∈ F .
Par récurrence sur p, on constate que toute combinaison linéaire de v1 , . . . , vp appartient à F .
Proposition
Tout sous-espace vectoriel de E est un K-espace vectoriel pour l’addition et la multiplication
par un scalaire dans E. (∗)
Démonstration
Soit F un sous-espace vectoriel de E. Par restriction de l’addition et la multiplication par un
scalaire dans E, on définit les applications F × F −→ F et K × F −→ F .
(v, w) 7−→ 1v + 1w (α, v) 7−→ αv + 00E
Comme E est un K-espace vectoriel, F satisfait clairement les conditions pour être un K-
espace vectoriel, en prenant 0F := 0E et l’opposé de v ∈ F égal à |{z}−v .
notation relative à E
Exemples
1. On considère E = {(x, y, z) ∈ R3 | x + y + z = 0}.
(i) On a : 0 + 0 + 0 = 0 donc 0 ∈ E.
(ii) Soient α, β ∈ R et v = (x′ , y ′ , z ′ ), w = (x′′ , y ′′ , z ′′ ) ∈ E.
On a : α v + β w = (x, y, z) avec x := αx′ + βx′′ , y := αy ′ + βy ′′ , z := αz ′ + βz ′′ .
Or : x + y + z = α(x′ + y ′ + z ′ ) + β(x′′ + y ′′ + z ′′ ). D’où : α v + β w ∈ E.
| {z } | {z }
0 car v ∈ E 0 car w ∈ E
En conclusion : E est un sous-espace vectoriel de R3 .
2. Soit A ∈ Mn,p (K). L’ensemble
SH des solutions du système d’équations linéaires homo-
x1
.
gène (H) : AX = 0 d’inconnue X = .. ∈ Kp est un sous-ev de Kp .(∗∗) , car :
xp
(i) on a : A 0Kp = 0Kn donc 0Kp ∈ SH ;
(ii) pour α, β ∈ K et X, Y ∈ SH , on a A(αX + βY ) = αAX AY = 0, donc αX + βY ∈ SH .
|{z}+β |{z}
0 0
3. Par définition, un polynôme à coefficients dans K est une suite P = (an )n≥0 d’éléments
de K pour laquelle il existe p ∈ N tel que : an = 0 pour tout n > p. ←−[P = ap X p + ... + a1 X + a0 ]
L’ensemble K[X] des polynômes à coefficients dans K est un sous-espace vectoriel de KN car :
(i) 0KN ∈ K[X] en prenant par exemple p = 0 ;
(ii) pour tous α, β ∈ K et P = (an )n≥0 , Q = (bn )n≥0 ∈ K[X], en fixant p, q ∈ N tels que
an = 0 quand n > p et bn = 0 quand n > q (il en existe), on constate que αan + βbn = 0 quand
n > max(p, q), ce qui montre que αP + βQ ∈ K[X].
(∗) Cette proposition fournira de nombreux espaces vectoriels formés de fonctions réelles de la variable réelle
(applications de R dans R) ou formés de suites de nombres réels (applications de N dans R).
(∗∗) On dira qu’il s’agit d’un sous-espace vectoriel de Kp donné par « équation cartésienne ».
31
Définition-Proposition
(a) Soit P une partie de E. On appelle sous-espace vectoriel de E engendré par P , et note
Vect P (ou VectK P ), l’ensemble des combinaisons linéaires d’un nombre fini d’éléments de P .
On a : Vect P est le plus petit sous-espace vectoriel de E contenant P (unique sous-espace
vectoriel de E contenant P qui est inclus dans tout sous-espace vectoriel F de E contenant P ).
(b) En particulier, quand p ∈ N et v1 , ..., vp ∈ E, on pose :
cf. (a)
Vect(v1 , ..., vp ) := Vect {v1 , ..., vp } = α1 v1 + · · · + αp vp ; α1 , . . . , αp ∈ K .(∗ ∗ ∗)
Démonstration
Il s’agit de démontrer la caractérisation de Vect P donnée à la fin du (a).
Tout d’abord, on vérifie que Vect P est un sous-espace vectoriel de E.
(i) On a 0E ∈ Vect P (seule combinaison linéaire avec 0 vecteur).
(ii) Soient α, α′ ∈ K et v = α1 v1 + · · · + αn vn , v ′ = α′1 v1′ + · · · + α′n′ vn′ ′ ∈ Vect P .
∈
∈
K P K P K P K P
On a : α v+α′ v ′ = (αα1)v1 +· · ·+(ααn)vn +(α′ α′1 )v1′ +· · ·+(α′ α′n′ )vn′ ′ donc α v+α′ v ′ ∈ Vect P .
Cela montre que Vect P est un sous-espace vectoriel de E.
On a aussi : Vect P contient P car tout v ∈ P s’écrit 1 v où évidemment 1 ∈ K et v ∈ P .
Pour terminer, on constate que la remarque 2 ci-dessus montre que Vect P est inclus dans
tout sous-espace vectoriel F de E qui contient P .
Définition
On appelle :
– droite vectorielle de E un sous-ev de E de la forme Vect(v) avec v ∈ E \{0} ;
– plan vectoriel de E un sous-ev de E de la forme Vect(v, w) avec v, w ∈ E non-colinéaires.
Exemple
1 0 1
Soient v1 = −1 , v2 = 1 , v3 = 0 ∈ R3 (identifiés à des triplets) avec λ ∈ R fixé.
0 −1 λ
Il est « clair » que v1 et v2 sont non-colinéaires (car v2 6= 0 et – au vu des 1res coordonnées –
une égalité v1 = αv2 impliquerait 1 = 0).
(a) A-t-on : v3 ∈ Vect(v1 , v2 ) ? expression « paramétrique » des éléments de Vect(v1 , v2 )
z }| {
On étudie par la méthode de Gauss l’existence de α1 , α2 ∈ R tels que α1 v1 + α2 v2 = v3 :
| {z }
! !
inconnues α1 , α2
1 0 1 1 0 1 1 0 1
−1 1 0 −−−−−−−−−−→ 0 1 1 −−−−−−−−−−→ 0 1 1 .
L2 ← L2 + L1 L3 ← L3 + L2
0 −1 λ 0 −1 λ 0 0 λ+1
Donc : v ∈ Vect(v1 , v2 , v3 ).
On peut en conclure – l’inclusion ⊆ étant claire – que : Vect(v1 , v2 , v3 ) = R3 .
32
Proposition
Soient F et G deux sous-espaces vectoriels de E.
On a : F ∩ G est un sous-espace vectoriel de E.
Démonstration
(i) On a : 0E ∈ F et 0E ∈ G donc 0E ∈ F ∩ G.
(ii) Soient α, β ∈ K et v, w ∈ F ∩ G.
On a : α v + β w ∈ F et α v + β w ∈ G, donc α v + β w ∈ F ∩ G.
∈
∈
F F G G
Il en résulte que F ∩ G est un sous-espace vectoriel de E.
Remarque
On prend ici F = (Ox) et G = (Oy) dans R2 . Donc F = Vect((1, 0)) et G = Vect((0, 1))
sont des sous-espaces vectoriels de R2 .
On a F ∩ G = {(0, 0)}, où {(0, 0)} est un sous–espace vectoriel bien connu de R2 .
Par contre F ∪ G n’est pas un sous-espace vectoriel de R2 car : 1 (1, 0) +1 (0, 1) = (1, 1).
| {z } | {z } | {z }
∈F ∈G ∈
/ F ∪G
Exemple
Idée : des équations cartésiennes de F et G fournissent une équation cartésienne de F ∩ G.
On considère Π1 : x + y + z = 0 et Π2 : x + 2y = 0 dans R3 . Comme ensembles de solutions
de systèmes d’équations homogènes, Π1 et Π2 sont des sous-espaces vectoriels de R3 (on verra
dans le prochain exemple que ce sont des plans vectoriels).
On cherche à préciser la nature du sous-espace vectoriel Π1 ∩ Π2 de R3 .
x+y+z =0
On regroupe les équations cartésiennes de Π1 et de Π2 : Π1 ∩ Π2 : .
x + 2y = 0
On va exhiber une équation paramétrique de Π1 ∩ Π2 en résolvant par la méthode de Gauss :
1 1 1 1 1 1
−−−−−−−−−−→ . On effectue ensuite de tête la « remontée triangulaire ».
1 2 0 L2 ← L2 − L1 0 1 −1
x = −2t −2
Ainsi : Π1 ∩ Π2 : y = t , t ∈ R puis Π1 ∩ Π2 = Vect 1 est une droite vectorielle.
1
z= t
Définition-Proposition
Soient F , G et F1 , . . . , Fk des sous-espaces vectoriels de E.
(a) On note : F + G := {v + w ; v ∈ F et w ∈ G}.
On a : F + G est un sous-espace vectoriel de E, appelé somme de F et de G.
On note plus généralement : F1 + · · · + Fk := {v1 + · · · + vk ; v1 ∈ F1 , . . . vk ∈ Fk }.
On a : F1 + · · · + Fk est un sous-espace vectoriel de E, appelé somme de F1 , . . . , Fk .
(b) On a : F + G = Vect(P ∪ Q) quand F = Vect P et G = Vect Q avec P, Q ⊆ E.
(On en déduit que F + G = Vect(F ∪ G).)
On a même : F1 + · · · + Fk = Vect(P1 ∪ · · · ∪ Pk ) quand Fi = Vect Pi pour 1 ≤ i ≤ k.
|{z}
Démonstration ⊆E
F G F G
′ ′ ′ ′
On a : α u + α′ u′ = (αv
| +{zα v}) + (αw
| +
′ ′
{zα w}), donc α u + α u ∈ F + G.
∈F ∈G
Il en résulte que F + G est un sous-espace vectoriel de E.
(b) On a : P ∪ Q ⊆ F + G donc Vect(P ∪ Q) ⊆ F + G.
| {z }
plus petit sous-ev de E contenant P ∪ Q
Soit u = v + w ∈ F + G. Comme v ∈ Vect P et w ∈ Vect Q, on a v, w ∈ Vect(P ∪ Q) puis
∈
F G
u = 1v + 1w ∈ Vect(P ∪ Q). Ainsi : F + G ⊆ Vect(P ∪ Q).
En conclusion : F + G = Vect(P ∪ Q).
33
Exemple
Idée : des équations paramétriques de F et G donnent une équation paramétrique de F + G.
On reprend Π1 : x + y + z = 0 et Π2 : x + 2y = 0 dans R3 . On cherche à préciser Π1 + Π2 .
•Méthode de Gauss pour aboutir à Π1 = Vect(v1 , ..., vp ) et Π2 = Vect(w1 , ..., wq ) :
x y z x = −s − t x y z x = −2u
( 1 1 1 ) donne Π1 : y = s s, t ∈ R, et ( 1 2 0 ) donne Π2 : y = u u, v ∈ R.
z= t z= v
−1 −1 −2 0
En particulier Π1 = Vect 1 , 0 et Π2 = Vect 1 , 0 sont des plans vectoriels.
0 1 0 1
x = −s − t − 2u
On a ensuite : Π1 + Π2 : y = s+u s, t, u, v ∈ R. On va voir que : Π1 + Π2 = R3 .
z= t+v
x
• Soit v = y
z
∈ R3 . On étudie l’existence de s, t, u, v ∈ R permettant de s’assurer que v
vérifie l’équation paramétrique précédente de Π1 + Π2 , par la méthode de Gauss :
−1 −1 −2 0 x −1 −1 −2 0 x −1 −1 −2 0 ///
1 0 1 0 y −−−−−−−−−−→ 0 −1 −1 0 x + y −−−−−−−−−−→ 0 −1 −1 0 /// .
L2 ← L2 + L1 L3 ← L3 + L2
0 1 0 1 z 0 1 0 1 z 0 0 −1 1 ///
Donc : v ∈ Π1 + Π2 .
En conclusion : Π1 + Π2 = R3 . ←−[variante, plus tard : extraction de base d’une famille génératrice]
Proposition
Soient F et G deux sous-espaces vectoriels de E. Les propriétés suivantes sont équivalentes :
(i) pour tout u ∈ E, il existe v ∈ F et w ∈ G uniques(∗ ∗ ∗) tels que u = v + w ;
(ii) E = F + G et F ∩ G = {0}.
Démonstration
(⇒) On suppose (i) vrai. En particulier, on a : E = F + G.
Soit u ∈ F ∩ G. On a : u + 0E = 0E + u donc, par unicité, u = 0E . Ainsi : F ∩ G = {0}.
∈
∈
∈
F G F G
(⇐) On suppose (ii) vrai et se donne u ∈ E. En particulier, il existe au moins une décom-
position u = v + w avec v ∈ F et w ∈ G.
′ ′
Si u = v + w = v ′ + w′ alors v| −
{zv} = w
| {z− w} puis v − v ′ , w′ − w ∈ F ∩ G ce qui donne v = v ′
∈
F G F G ∈F ∈G
et w = w′ . On en déduit l’unicité de la décomposition de u.
Définition-Proposition
Soient F , G et F1 , . . . , Fk des sous-espaces vectoriels de E.
(a) On dit que la somme de F et G est directe si F ∩ G = {0}.
On traduit cela en utilisant abusivement la notation F ⊕ G pour désigner F + G.
Plus généralement (c’est cohérent si k = 2), on dit que la somme de F1 , . . . , Fk est directe si,
pour tous vecteurs v1 ∈ F1 , . . . , vk ∈ Fk on a : v1 + · · · + vk = 0 =⇒ v1 = · · · = vk = 0.
On traduit cela en utilisant abusivement la notation F1 ⊕ · · · ⊕ Fk pour désigner F1 + · · · + Fk .
(b) On dit que F et G sont supplémentaires dans E (ou que G est supplémentaires de F dans
E), ce qui s’écrit E = F ⊕ G, s’ils vérifient les (i) et (ii) de la proposition précédente.
Plus généralement, on dit que F1 , . . . , Fk sont supplémentaires dans E, ce qui s’écrit E = F1 ⊕
· · · ⊕ Fk , s’ils vérifient l’une des deux propriétés équivalentes suivantes :
(i) pour tout u ∈ E, il existe v1 ∈ F1 , . . . , vk ∈ Fk uniques tels que u = v1 + · · · + vk ;
(ii) E = F1 + · · · + Fk et la somme de F1 , . . . , Fk est directe.
(∗ ∗ ∗) Il faut interpréter l’expression « il existe v ∈ F et w ∈ G uniques » par « il existe (v, w) ∈ F ×G unique ».
34
Démonstration
(a) Le cas général avec k = 2 est bien compatible avec le cas de la somme de F et G car :
– si F ∩ G = {0} et (v1 , v2 ) ∈ F × G vérifie v1 + v2 = 0, alors v1 = −v2 ∈ F ∩ G = {0} puis
v1 = v2 = 0 ;
– si u ∈ F ∩ G et pour tout (v1 , v2 ) ∈ F × G l’égalité v1 + v2 = 0 implique v1 = v2 = 0, alors en
choisissant v1 = u et v2 = −u on constate que u = 0.
(b) Les idées de la proposition précédentes permettraient de démontrer encore ici l’équivalence
entre (i) et (ii) (on ne détaille pas).
Exemples
1
0
1
(1) Soient v1 = −1 , v2 = 1 , v3 = 0 avec λ ∈ R tel que λ 6= −1.
0 −1 λ
On constate en utilisant la méthode de Gauss que : v3 ∈ / Vect(v1 , v2 ) et Vect(v1 , v2 , v3 ) = R3 .
On s’aperçoit donc que Vect(v1 , v2 ) a pour supplémentaire Vect(v3 ) dans R3 .
En prenant différents λ, on constate que Vect(v1 , v2 ) a une infinité de supplémentaires dans R3 .
(2) Soient Π1 : x + y + z = 0 et Π2 : x + 2y = 0 dans R3 .
On trouve par la méthode de Gauss que : Π1 ∩ Π2 6= {(0, 0, 0)} et Π1 + Π2 = R3 .
Donc la somme de Π1 et Π2 n’est pas directe.
(3) Soient D1 = (Ox), D2 = (Oy), et D3 : x = y dans R2 .
Les droites vectorielles D1 , D2 , D3 vérifient D1 ∩ D2 = D2 ∩ D3 = D3 ∩ D1 = {(0, 0)} et
D1 + D2 + D3 = R2 (facile).
Mais la somme de D1 , D2 , et D3 n’est pas directe, car : (1, 0) + (0, 1) + (−1, −1) = (0, 0).
| {z } | {z } | {z }
∈ D1 ∈ D2 ∈ D3
Définition
(a) Une famille numérotée de p vecteurs de E où p ∈ N, est un élément (v1 , . . . , vp ) de E p .
Plus généralement, une famille de vecteurs de E est une application v : I → E , qu’on notera
ensemble
plutôt (vi )i∈I . i 7→ vi
Dans la suite de cette définition, on se donne suivant le cas : soit p vecteurs v1 , . . . , vp de E
où p ∈ N, soit une famille (vi )i∈I indexée par I de vecteurs de E où I est un ensemble fixé.
(b) On dit que la famille (v1 , . . . , vp ) est libre si pour tous α1 , . . . , αp ∈ K, on a :
| {z }
ou « les vecteurs v1 , . . . , vp sont linéairement indépendants »
α1 v1 + · · · + αp vp = 0 =⇒ α1 = · · · αp = 0 .
Plus généralement, on dit que la famille (vi )i∈I est libre si pour tous k ∈ N et i1 , . . . , ik ∈ I,
distincts
les seuls α1 , . . . , αk ∈ K tels que α1 vi1 + · · · + αk vik = 0 sont α1 = · · · αk = 0.
On exprimera qu’une famille de vecteurs de E n’est pas libre en disant qu’elle est liée.
(c) On dit que la famille (v1 , . . . , vp ) est génératrice de E si pour tout v ∈ E, il existe
| {z }
ou « les vecteurs v1 , . . . , vp engendrent E »
α1 , . . . , αp ∈ K tels que : v = α1 v1 + · · · + αp vp .
Plus généralement, on dit que la famille (vi )i∈I est génératrice de E si pour tout v ∈ E, il
existe k ∈ N, i1 , . . . , ik ∈ I, et α1 , . . . , αk ∈ K tels que : v = α1 vi1 + · · · + αk vik .
distincts
Ainsi, la famille (vi )i∈I est génératrice de E si et seulement si Vect {vi ; i ∈ I} = E.
35
Exemples
(1) Les vecteurs 1 et i du R-espace vectoriel C sont linéairement indépendants (sur R), car :
si α 1 + β i = 0 avec α, β ∈ R alors α = β = 0.
Par contre, les vecteurs 1 et i du C-espace vectoriel C sont linéairement dépendants (sur C),
car : α 1 + β i = 0 quand α = i et β = −1.
(2) Les vecteurs f : R → R et g : R → R du R-espace vectoriel RR sont linéairement
x 7→ cos x x→ 7 sin x
α = (αf + βg)(0) = 0
indépendants, car : si αf + βg = 0 avec α, β ∈ R alors .
β = (αf + βg)( π2 ) = 0
1 1 2
(3) Soient u1 = 0 , u2 = 2 , u3 = 1 dans R3 .
1 0 2 x x
On étudie (⋆) : α1 u1 + α2 u2 + α3 u3 = 0 et (⋆⋆) : α1 u1 + α2 u2 + α3 u3 = y à y ∈ R3
z z
fixé avec comme inconnue (α1 , α2 , α3 ), et obtient par la méthode de Gauss que :
α1 α2 α3
! α1 α2 α3
! α1 α3 α2
1 1 2 1 1 2 1 2 1
– la famille (u1 , u2 , u3 ) est libre, cf. 0 2 1 −−−−−−−−−−→ 0 2 1 −−−−−−→ 0 1 2 ;
L3 ← L3 − L1 C2 ↔ C3
1 0 2 0 −1 0 0 0 −1
| {z }
unique solution (0, 0, 0)
α1 α2 α3
! α1 α3 α2
1 1 2 x 1 2 1 ///
Notation
Soit I un ensemble. On note E (I) l’ensemble des familles (vi )i∈I d’éléments de E indexées
par I telles que la partie J := {i ∈ I | Pvi 6= 0} de I est finie. ←−[par exemple : K(N) = K[X]]
(I)
Pour un tel (vi )i∈I ∈ E , on pose : vi := vi1 + · · · + vik où {i1 , . . . , ik } := J.
P i∈I (indépendant de l’ordre sur J ) distincts
On peut donc écrire P = an X n pour tout P ∈ K[X] de coefficients an , n ∈ N.
n∈N
Le choix de E = K fournit en particulier la notation K(I) .
Proposition
Une famille finie (v1 , . . . , vp ) de vecteurs de E est libre et génératrice de E, si et seulement
si, pour tout v ∈ E il existe (α1 , . . . , αp ) ∈ Kp unique tel que v = α1 v1 + · · · + αp vp .
Plus généralement, une famille (vi )i∈I de vecteurs de E est libre et génératrice
P de E, si et
seulement si, pour tout v ∈ E il existe (αi )i∈I ∈ K(I) unique tel que v = αi vi .
i∈I
|{z}
détermine un élément de E (I)
36
Démonstration
On traite seulement le cas général.
(⇒) On suppose que (vi )i∈I est libre et génératrice de E. Soit v ∈ E.
P
Comme (vi )i∈I est génératrice de E, il existe (αi )i∈I ∈ K(I) tel que v = αi vi .
P i∈I
On se donne une autre décomposition v = βi vi avec (βi )i∈I ∈ K(I) . On pose :
i∈I
{i1 , ..., ik } := {i ∈ I | αi 6= 0}, {j1 , ..., jl } := {i ∈ I | βi 6= 0}, et {t1 , ..., tm } := {i1 , ..., ik , j1 , . . . , jl }.
distincts distincts distincts
v = αi1 vi1 + · · · + αik vik = αt1 vt1 + · · · + αtm vtm
On a : donc, par soustraction, (αt1 −
v = βj1 vj1 + · · · + βjl vjl = βt1 vt1 + · · · + βtm vtm
βt1 )vt1 + · · · + (αtm − βtm )vtm = 0 puis, la famille (vi )i∈I étant libre, βt1 = αt1 et . . . et
βtm = αtm . Cela donne l’unicité de la famille (αi )i∈I .
P
(⇐) On suppose que : ∀v ∈ E |{z} ∃! (αi )i∈I ∈ K(I) v = αi vi .
« il existe un unique »
i∈I
L’existence d’un (αi )i∈I ∈ K(I) associé à chaque v montre que (vi )i∈I est génératrice de E.
L’unicité de (αi )i∈I ∈ K(I) quand v = 0 montre que (vi )i∈I est libre.
Définition
(a) On dit qu’une famille (vi )i∈I de vecteurs de E est une base de E si (vi )i∈I est libre et
génératrice de E.
(b) On suppose que E a une base finie B = (v1 , . . . , vn ).
Pour tout v ∈ E, les uniques scalaires α1 , . . . , αn ∈ K tels que v = α1 v1 + · · · + αn vn
α1
..
s’appellent les coordonnées de v suivant B. On le notera : v . .
/B αn
Exemples
(1) Le K-espace vectoriel Kn admet la base suivante, appelée base canonique de Kn :
B := (e1 , . . . , en ) avec e1 := (1, 0, ..., 0), e2 := (0, 1, 0, ..., 0), . . . , en := (0, ..., 0, 1).
x1
.
(2) Soit (H) : AX = 0 avec X = .. ∈ Kp un système d’équations linéaires homogène.
xp
On sait que l’ensemble SH de ses solutions est un sous-espace vectoriel de Kp .
La méthode de Gauss fournit des vecteurs w1 , ..., wp−r de Kp tels que :
xj = ...
.1
xj
.
.
= ...
– SH = t1 w1 + · · · + tp−r wp−r ; t1 , . . . , tp−r ∈ K ;
←− cf. SH :
xj
r
r+1
= t1 ,
t1 , tp−r ∈ R.
.
.
x. = tp−r
coordonnée jr+1 : t1 +0+···+0=0
jp
.
– si t1 w1 + · · · + tp−r wp−r = 0, alors .
. , alors t1 = · · · = tp−r = 0.
coordonnée jp : 0+···+0+tp−r =0
Ainsi (w1 , ..., wp−r ) est une base de SH .
(3) La famille (X n )n≥0 est une base du K-espace vectoriel K[X].
Soit N ∈ N. L’ensemble KN [X] est le sous-espace vectoriel Vect(1, X, ..., X N ) de K[X].
La famille (1, X, ..., X N ) est une base de KN [X], appelée base canonique de KN [X].
(4) Le K-espace vectoriel Mn,p (K) admet la base suivante : colonne j
0 ↓ 0
!
(E1,1 , ..., E1,p ; E2,1 , ..., E2,p ; . . . ; En,1 , ..., En,p ) avec Ei,j := 1 ← ligne i
0 0
| {z }
0 ailleurs qu’en l’emplacement (i, j)
En effet, pour tous A = (aij ) 1≤i≤n ∈ Mn,p (K) et (xij ) 1≤i≤n ∈ K{1,...,n}×{1,...,p}, on a :
P 1≤j≤p 1≤j≤p
A = xij Eij ⇐⇒ ∀(i, j) ∈ {1, ..., n} × {1, ..., p} xij = aij .
i,j
2. Dimension. Rang
37
Théorème (« théorème de la base incomplète »)
On suppose que E a une famille génératrice finie (g1 , ..., gk ).
Toute famille libre (h1 , ..., hl ) de E se complète à l’aide de certains vecteurs parmi g1 , ..., gk
en une base (e1 , ..., ed ) de E.
Démonstration
Rappel : toute partie non-vide de {0, 1, ..., N }, N ∈ N, a un plus grand élément (par récurrence).
On note F l’ensemble des éléments n de {l, l + 1, ..., k + l} pour lesquels il existe une famille
libre (e1 , ..., en ) de E vérifiant : e1 = h1 , ..., el = hl , et el+1 , ..., en sont parmi g1 , ..., gk .
L’ensemble F est non-vide, car il contient l qui correspond au cas (e1 , ..., en ) = (h1 , ..., hl ).
Soit d le plus grand élément de F et (e1 , ..., ed ) une famille associée. Pour terminer la démons-
tration, il reste à vérifier que cette famille libre (e1 , ..., ed ) est aussi génératrice de E.
Soit i ∈ {1, ..., k}. Comme d est maximal, la famille (e1 , ..., ed , gi ) est liée. On dispose d’une
égalité α1 e1 + ... + αd ed + αgi = 0 donc α 6= 0 et gi = − α1 (α1 e1 + ... + αd ed ) ∈ Vect(e1 , ..., ed ).
| {z }
α1 , ..., αd , α ∈ K non-tous nuls
D’où : E = Vect(g1 , ..., gk ) ⊆ Vect(e1 , ..., ed ), ce qui montre que e1 , ..., en engendrent E.
| {z }
plus petit sous-ev de E contenant g1 , ..., gk
Démonstration
D’après le théorème de la base incomplète, on obtient une base finie B = (e1 , ..., ed ) de E en
complétant la famille () à l’aide de vecteurs pris dans une famille génératrice finie fixée de E.
On va vérifier que :
(i) toute base finie B ′ = (e′1 , ..., e′d′ ) de E a d vecteurs, et pour cela quitte à échanger les rôles
de B et B ′ , il suffit de prouver que d′ ≤ d :
(ii) E n’a pas de base infinie B ′′ .
Comme B ′ et B ′′ sont libres, il reste à démontrer que toute famille libre L dans E a au plus
d vecteurs. Une famille libre infinie dans E aurait une famille extraite formée de d + 1 vecteurs,
elle-même libre. On peut donc supposer que L est finie, de la forme (h1 , ..., hl ).
On considère l’équation x1 h1 + ... + xl hl = 0 d’inconnue (x1 , ..., xl ) ∈ Kl .
a11 a1l
.. .. a11 x1 + · · · + a1l xl = 0
En notant h1 . , ..., hl . elle équivaut à : (H) ... .
/B ad1 /B adl ad1 x1 + · · · + adl xl = 0
Si l > d, alors comme le nombre d’équations est strictement supérieur au nombre d’inconnues,
(H) a une solution non-nulle ; cela contredit la condition « (h1 , ..., hl ) est libre ». Ainsi : l ≤ d.
Variante
On a : h1 , ..., hl ∈ Vect(e1 , ..., ed ). Si l > d, on aurait donc : (⋆) h1 , ..., hl+1 ∈ Vect(e1 , ..., ed ).
Pour montrer que (⋆) est fausse il reste à voir que pour tout k ≥ 0, on a :
(Hk ) pour tous v1 , ..., vk ∈ E et w1 , ..., wk+1 ∈ Vect(v1 , ..., vk ), la famille (w1 , ..., wk+1 ) est liée.
(i) L’assertion (H0 ), qui signifie que pour tout w1 ∈ {0} la famille (w1 ) est liée, est vraie.
(ii) Soit k ≥ 1 tel que (Hk−1 ) est vraie. On se donne v1 , ..., vk ∈ E et w1 = λ1,1 v1 +...+λ1,k vk ,
. . ., wk+1 = λk+1,1 v1 + ... + λk+1,k vk ∈ Vect(v1 , ..., vk ). On vérifie que (w1 , ..., wk+1 ) est liée.
On peut supposer que w1 6= 0, puis – quitte à renuméroter les vi – que λ1,1 6= 0.
λ2,1 λ
En appliquant (Hk−1 ) aux vecteurs u2 := w2 − λ1,1 w1 , . . ., uk+1 := wk+1 − k+1,1
λ1,1 w1 de
Vect(v2 , ..., vk ), on obtient l’existence de scalaires α2 , ..., αk+1 ∈ K non-tous nuls, tels que α2 u2 +
λ2,1 λ
... + αk+1 uk+1 = 0. D’où l’égalité α2 w2 + ... + αk+1 wk+1 = α2 λ1,1 λ1,1 w1 qui
+ ... + αk+1 k+1,1
montre que (w1 , ..., wk+1 ) est liée.
38
Définition
(a) On dit que le K-espace vectoriel E est de dimension finie s’il a une base finie (e1 , ..., ed ).
Dans ce cas, on appelle dimension de E le nombre d, noté dim
| {z E}, de vecteurs de ses bases.
ou dimK E
D’après le théorème de la dimension, ce d est bien indépendant du choix de la base.
(b) Soient v1 , ..., vp ∈ E. On appelle rang de la famille (v1 , ..., vp ) le nombre
rg (v1 , ..., vp ) := dim Vect(v1 , ..., vp ).
Cela a un sens car d’après le théorème de la dimension, Vect(v1 , ..., vp ) est de dimension finie.
Exemples
(1) On reprend certaines définitions du paragraphe II.1. :
– E = {0} si et seulement si dim E = 0 ;
– E est une droite vectorielle si et seulement si dim E = 1 ;
– E est un plan vectoriel si et seulement si dim E = 2.
(2) Tout z ∈ C s’écrit de manière unique z = x 1 + y i avec x, y ∈ R.
Donc (1, i) est une base du R-espace vectoriel C. En particulier : dimR C = 2.
Par contre, comme C = VectC (1) avec 1 6= 0, l’exemple 1 montre que : dimC C = 1.
(3) Compte tenu des bases exhibées à la fin du paragraphe 1, on a :
dim Kn = n, dim KN [X] = N + 1 et dim Mn,p (K) = np.
Corollaire 2
On suppose que E est de dimension finie. On note d la dimension de E.
(a) Toute famille libre de E a au plus d vecteurs ;
quand elle a d vecteurs, c’est une base de E.
(b) Toute famille génératrice de E a au moins d vecteurs ;
quand elle a d vecteurs, c’est une base de E.
Démonstration
(a) Une famille libre infinie dans E aurait une famille extraite formée de d + 1 vecteurs, qui
serait elle-même encore libre. On se contente donc de traiter le cas des familles libres finies.
Une famille libre finie de l vecteurs de E se complète d’après le théorème de la base incomplète
en une base de E qui a d vecteurs d’après le théorème de la dimension, donc l ≤ d.
(b) Une famille génératrice de E infinie a au moins d vecteurs. On se contente donc de traiter
le cas des familles génératrices finies.
Soit (g1 , ..., gk ) une famille génératrice finie de vecteurs de E. D’après le théorème de la base
incomplète, la famille () se complète en une base B ′ de E extraite de (g1 , ..., gk ).
D’après le théorème de la dimension, la famille B ′ a d vecteurs. D’où le résultat.
Remarques
1 1 2
(1) On reprend l’exemple 3 du début du paragraphe 1 : u1 = 0 , u2 = 2 , u3 = 1 .
1 0 2
On a vu à l’aide d’un premier calcul que (u1 , u2 , u3 ) est libre. On remarque que la base
canonique de R3 est formée de 3 vecteurs. On peut donc maintenant utiliser le a) du corollaire
2 pour en conclure, sans autre calcul, que (u1 , u2 , u3 ) est génératrice de R3 .
(2) On considère les applications fn : R → R , n ∈ N.
x 7→ xn
Elles forment une famille (fn )n∈N qui est libre dans RR car :
si des éléments n1 < ... < nk de N et α1 , ..., αk ∈ R vérifient α1 fn1 + ... + αk fnk = 0,
alors α1 = n11 ! (α1 fn1 + ... + αk fnk )(n1 ) (0) = 0 et ... et αk = n1k ! (α1 fn1 + ... + αk fnk )(nk ) (0) = 0.
Ainsi le a) du corollaire 2, appliqué à la famille (fn )n∈N qui est libre et indexée par un
ensemble infini, montre que RR n’est pas un espace vectoriel de dimension finie.
D’autre part, la famille (fn )n∈N n’est pas génératrice de RR car Vect({fn ; n ∈ N}) qui est
formée de fonctions dérivables ne contient donc pas l’application valeur absolue.
39
Proposition
On suppose que E a une base finie B = (e1 , ..., en ).
a11 a1p
.. .
Soient v1 . , . . . , vp .. ∈ E.
/B an1 /B anp
xj1 ... xjr xjr+1... xjp
d1
.
x1 ... xp 0 ..
! . . .
x1 ... xp
a11 ... a1p xj1 ... xjp .. . . . .
(a) On transforme A := ... en A′ = 0 ··· 0 dr
an1 ... anp
0 ... 0 0. ... 0.
.. .. .. ..
. .
0 ... 0 0 ... 0
par la méthode de Gauss, avec d1 6= 0, ..., dr 6= 0.
On a : (vj1 , ..., vjr ) est une base de Vect(v1 , ..., vp ).
(b) En particulier : rg (v1 , ..., vp ) = r « calcul du rang par la méthode de Gauss ».
(Le nombre r est donc indépendant de la manière dont on applique la méthode de Gauss.)
Démonstration
Mêmes arguments que pour le calcul du rang d’une matrice par la méthode de Gauss.
Proposition
On suppose E de dimension finie.
Tout sous-espace vectoriel F de E est de dimension finie avec dim F ≤ dim E.
De plus, si dim F = dim E, alors F = E.
Démonstration
Toute famille libre (v1 , ..., vp ) de F est libre dans E, donc vérifie : p ≤ dim E.
Il en existe, par exemple la famille vide. On choisit (v1 , ..., vp ) de façon à avoir p maximal.
Soit v ∈ F . Comme p est maximal, la famille (v1 , ..., vp , v) est liée. On dispose d’une égalité
α1 v1 + ... + αp vp + αv = 0 donc α 6= 0 et v = − α1 (α1 v1 + ... + αp vp ) ∈ Vect(v1 , ..., vp ).
| {z }
α1 , ..., αp , α ∈ K non-tous nuls
Par conséquent, (v1 , ..., vp ) est génératrice de F et finalement (v1 , ..., vp ) est une base de F .
En particulier : F est de dimension finie et dim F = p ≤ dim E.
De plus : si dim F = dim E, alors la famille libre (v1 , ..., vp ) de E qui est formée de dim E
vecteurs est une base de E, puis F = Vect(v1 , ..., vp ) = E.
Remarque
D’après cette proposition, les sous-espaces vectoriels de R3 ont une dimension, égale à 0 ou
1 ou 2 ou 3, le cas de la dimension 3 n’étant atteint que par R3 lui-même. Les sous-espaces
vectoriels de R3 sont donc {0}, les droites vectorielles de R3 , les plans vectoriels de R3 , et R3 .
40
Proposition (utile)
Soient v1 , ..., vp ∈ E. On pose : r = rg (v1 , ..., vp ).
(a) La famille (v1 , ..., vp ) est libre si et seulement si r = p.
(b) On suppose E de dimension finie, notée n.
La famille (v1 , ..., vp ) est génératrice de E si et seulement si r = n.
Démonstration
(a) La famille (v1 , ..., vp ), de p vecteurs, engendre Vect(v1 , ..., vp ) qui est de dimension r.
Elle est libre si et seulement si elle est base de Vect(v1 , ..., vp ), ce qui équivaut (compte tenu du
corollaire 2 (b) du théorème de la base incomplète) à r = p.
(b) La famille (v1 , ..., vp ) est génératrice de E si et seulement si Vect(v1 , ..., vp ) = E, c’est à
dire (vu la proposition précédente) dim Vect(v1 , ..., vp ) = dim E, c’est à dire r = n.
Proposition
On suppose que E est de dimension finie. Soient F et G deux sous-espaces vectoriels de E,
(v1 , ..., vp ) une base de F et (w1 , ..., wq ) une base de G.
On a : E F ⊕ G} si et seulement si (v1 , ..., vp , w1 , ..., wq ) est une base de E.
| = {z
« F et G sont supplémentaires dans E »
Démonstration
On a F + G = Vect(v1 , ..., vp ) + Vect(w1 , ..., wq ) = Vect(v1 , ..., vp , w1 , ..., wq ).
Donc : F + G = E si et seulement si (v1 , ..., vp , w1 , ..., wq ) engendre E.
Il reste à vérifier que : F ∩ G = {0} si et seulement si (v1 , ..., vp , w1 , ..., wq ) est libre.
• On suppose que F ∩ G = {0}.
Soient α1 , ..., αp , β1 , ..., βq ∈ K tels que α1 v1 + ... + αp vp + β1 w1 + ... + βq wq = 0.
On a α1 v1 + ... + αp vp = −β1 w1 − ... − βq wq ∈ F ∩ G. Puisque F ∩ G = {0}, on en déduit que
α1 v1 + ... + αp vp = 0 et β1 w1 + ... + βq wq = 0. Or (v1 , ..., vp ) et (w1 , ..., wq ) sont libres.
D’où α1 = ... = αp = β1 = ... = βq = 0.
Cela montre que la famille (v1 , ..., vp , w1 , ..., wq ) est libre.
• On suppose que la famille (v1 , ..., vp , w1 , ..., wq ) est libre.
Soit u ∈ F ∩ G. Vu que (v1 , ..., vp ) est une base de F et (w1 , ..., wq ) est une base de G, il
existe x1 , ..., xp , y1 , ..., yq ∈ K tels que u = x1 v1 + ... + xp vp et u = y1 w1 + ... + yq wq . On
a donc x1 v1 + ... + xp vp − y1 w1 − ... − yq wq = 0. Puisque (v1 , ..., vp , w1 , ..., wq ) est libre, il en
résulte que x1 = ... = xp = y1 = ... = yq = 0, puis u = 0v1 + ... + 0vp = 0.
Cela montre que F ∩ G = {0}.
Remarque (importante)
On suppose que E est de dimension finie. Soit F un sous-espace vectoriel de E. On peut
compléter une base (v1 , ..., vp ) de F (qui est en particulier libre) à l’aide de certains vecteurs
de E (par exemple les vecteurs d’une base donnée de E) en une base (v1 , ..., vp , w1 , ..., wq ) de E.
D’après la proposition, G := Vect(w1 , ..., wq ) est un supplémentaire de F dans E.
41
Proposition
On suppose que E est de dimension finie.
Soient F et G deux sous-espaces vectoriels de E.
(a) On a : si E = F ⊕ G, alors dim E = dim F + dim G.
(b) Plus généralement : dim(F + G) + dim(F ∩ G) = dim F + dim G.
Démonstration
(a) Conséquence de la proposition précédente.
(b) • On se donne un sous-espace vectoriel F ′ de F tel que : F = F ′ ⊕ (F ∩ G) (existe par
(∗)
la remarque précédente). D’après (a), on a : dim F = dim(F ′ ) + dim(F ∩ G).
• On a : F + G = F ′ + (F ∩ G}) + G = F ′ + G
| {z et F ′ ∩ G ⊆ F ′ ∩ (F ∩ G) = {0}.
|{z}
⊆G ⊆F
(∗∗)
D’où : F + G = F′ ⊕ G. D’après (a), on a : dim(F + G) = dim(F ′ ) + dim G.
• On obtient le résultat en soustrayant (∗) à (∗∗).
Variante
On complète une base (u1 , ..., um ) de F ∩ G d’une part en une base (v1 , ..., vp ) de F et d’autre
part en une base (w1 , ..., wq ) de G, avec (u1 , ..., um ) = (v1 , ..., vm ) = (w1 , ..., wm ).
On constate que (u1 , ..., um , vm+1 , ..., vp , wm+1 , ..., wq ) est une base de F + G, car :
si α1 u1 + · · · + αm um + βm+1 vm+1 + · · · + βp vp + γm+1 wm+1 + · · · + γq ww = 0,
alors α1 u1 +...+αm um +βm+1 vm+1 +...+βpvp , α1 u1 +...+αm um +γm+1 wm+1 +...+γq ww ∈ F ∩G
puis α1 = ... = αm = βm+1 = ... = βp vp = γm+1 = ... = γq = 0.
Définition-Proposition
On suppose que E est de dimension finie, notée n.
On dit qu’un sous-espace vectoriel H de E est un hyperplan si dim H = n−1, ce qui équivaut
au fait que H a un supplémentaire dans E qui est une droite.
Démonstration
(⇒) La dernière remarque montre que H a au moins un supplémentaire D dans E. Vu le b)
de la proposition, ce supplémentaire D a pour dimension 1 et est donc une droite.
(⇐) Cela découle aussi du b) de la proposition.
Exemple
Soit (a1 , ..., an ) ∈ Rn \{0}. La partie F : a1 x1 + · · · + an xn = 0 de Rn est un hyperplan
vectoriel de Rn car on constate que la méthode de Gauss fournit une base (w1 , ..., wn−1 ) de F .
42
Ch. 4. Applications linéaires sur K = R ou C
Plan
I. Applications linéaires
II. Utilisation des matrices
I. Applications linéaires
Dans toute cette partie, on fixe trois K-espace vectoriel E, F et G.
1. Généralités
Définition
(a) On dit qu’une application f : E → F est linéaire si :
f (α v + β w) = α f (v) + β f (w) pour tous α, β ∈ K et v, w ∈ E.
Dans ce cas : f (0E ) = 0F en choisissant α = β = 0 et v = w = 0E ;
P p p
récurrence sur p P
f αk vk = αk f (vk ) pour α1 , ..., αp ∈ K et v1 , ..., vp ∈ E.
k=1 k=1
Exemples
(1) Soit A ∈ Mn,p (K). On considère f : Kp −→ Kn où Y := AX.
x1 y1
. .
X = .. 7−→ Y = ..
xp yn
L’application f est linéaire, car pour tous α, β ∈ K et V, W ∈ Kp on a :
f (αV + βW ) = A(αV + βW ) = αAV + βAW = αf (V ) + βf (W ).
(2) Soit θ ∈ R. L’application r : R2 → R2 avec x′ = (cos θ) x − (sin θ) y est |linéaire
{z }.
x x′ ′
y 7→ y ′
y = (sin θ) x + (cos θ) y cf. l’exemple
ci-dessus
(1)
r(v)
Géométriquement : θ v donc r est la rotation (vectorielle) d’angle θ.
|{z}
(0, 0) b
de la forme (r cos α, r sin α)
43
Proposition
(a) L’ensemble, noté L (E, F ), des applications linéaires de E dans F est un sous-espace
vectoriel de F E . On pose L (E) := L (E, E) et E ∗ := L (E, K).
(b) Soit f ∈ L (E, F ) bijective. On a : f −1 ∈ L (F, E).
(c) Soient f ∈ L (E, F ) et g ∈ L (F, G). On a : g ◦ f ∈ L (E, G).
(d) Soient α1 , α2 , β1 , β2 ∈ K, f1 , f2 ∈ L (E, F ) et g1 , g2 ∈ L (F, G).
On a : (β1 g1 + β2 g2 ) ◦ (α1 f1 + α2 f2 ) = β1 α1 (g1 ◦f1 ) + β1 α2 (g1 ◦f2 ) + β2 α1 (g2 ◦f1 ) + β2 α2 (g2 ◦f2 ).
Démonstration
Les points (a), (c), (d) sont « immédiats ».
(b) Soient α, β ∈ K et v, w ∈ F . On a, après avoir tenté un raisonnement par équivalences :
f −1 (α v + β w) = f −1 α f f −1 (v) + β f f −1 (w)
= f −1 f α f −1 (v) + β f −1 (w) (car f est linéaire)
−1 −1
= α f (v) + β f (w)
L’application f −1 est donc linéaire.
Proposition
(a) On suppose que E est de dimension finie, de base (v1 , ..., vn ).
Pour tous w1 , ..., wn ∈ F , il existe f ∈ L (E, F ) unique tel que :
f (v1 ) = w1 et ... et f (vn ) = wn .
Dans ce cas : f est bijective si et seulement si (f (v1 ), ..., f (vn )) est une base de F .
(b) On suppose que E ou F est de dimension finie.
Les espaces vectoriels E et F sont isomorphes si et seulement si E et F sont tous deux de
dimension finie et dim E = dim F .
Ainsi, pour chaque n ∈ N, les K-espaces vectoriels de dimension n sont isomorphes à Kn .
Démonstration
(a) Soient w1 , ..., wn ∈ F . La seule application qui puisse convenir est
f : E −→ F .
x1 v1 + · · · + xn vn 7−→ x1 w1 + · · · + xn wn
∈
K K
On constate facilement que cette application f est linéaire.
On vérifie maintenant que f est bijective si et seulement si (w1 , ..., wn ) est une base de F .
(⇒) On suppose f bijective.
Pour tous w ∈ F et y1 , ..., yn ∈ K, on a par linéarité de f −1 :
w = y1 w1 + ... + yn wn ⇔ f −1 (w) = y1 f −1 (w1 ) + ... + yn f −1 (wn ) ⇔ f −1 (w) = y1 v1 + ... + yn vn .
L’unicité des composantes de w suivant (w1 , ..., wn ) montre que (w1 , ..., wn ) est une base de F .
(⇐) On suppose que (w1 , ..., wn ) est une base de F .
On introduit l’unique g ∈ L (F, E) unique tel que : g(w1 ) = v1 et ... et g(wn ) = vn .
Donc au vu de la description de f donnée au début de la démontration :
g ◦ f : x1 v1 + · · · + xn vn 7→ x1 v1 + · · · + xn vn et f ◦ g : y1 w1 + · · · + yn wn 7→ y1 w1 + · · · + yn wn
∈
K K K K
puis g ◦ f = idE et f ◦ g = idF , et par conséquent f est bijective.
(b) (⇒) On suppose qu’il existe un isomorphisme f : E → F . On se place dans le cas où E est
de dimension finie (le cas où F est de dimension finie s’en déduira en utilisant f −1 et échangeant
les rôles de E et F ). Soit (v1 , ..., vn ) une base de E. D’après (a), la famille (f (v1 ), ..., f (vn )) est
une base de F . D’où : F est de dimension finie et dim F = n = dim E.
(⇐) On suppose que E et F sont tous deux de dimension finie avec une même dimension,
notée n. Soient (v1 , ..., vn ) une base de E et (w1 , ..., wn ) une base de F . D’après (a), l’unique
f : E → F linéaire tel que f (v1 ) = w1 et ... et f (vn ) = wn est un isomorphisme de E sur F .
La dernière phrase de l’énoncé découle de la dernière implication ci-dessus.
44
Remarque
On suppose que E est de dimension finie, de base B = (v1 , ..., vn ), et note (e1 , ..., en ) la base
canonique de Kn . D’après la proposition (a), l’unique f ∈ L (E, Kn ) tel que f (v1 ) = e1 et ... et
f (vn ) = en est un isomorphisme de E sur Kn . Par linéarité, f envoie v X sur X.
/B
2. Noyau et image
Lemme
Soit f ∈ L (E, F ).
(a) L’image réciproque f −1 (W ) := {v ∈ E | f (v) ∈ W } d’un sous-espace vectoriel W de F
par f , est un sous-espace vectoriel de E.
(b) L’image directe f (V ) := {f (v) ; v ∈ V } d’un sous-espace vectoriel V de E par f , est
| {z }
notation pour {w ∈ F | ∃v ∈ V w = f (v)}
un sous-espace vectoriel de F .
Démonstration
(a) Soit W un sous-espace vectoriel de F .
(i) On a : f (0E ) = 0F (car f est linéaire) avec 0F ∈ W , donc 0E ∈ f −1 (W ).
(ii) Soient α, α′ ∈ K et v, v ′ ∈ f −1 (W ). On a donc : f (v), f (v ′ ) ∈ W .
Par linéarité de f on a ensuite : f (αv + α′ v ′ ) = αf (v) + α′ f (v ′ ) avec αf (v) + α′ f (v ′ ) ∈ W .
D’où : αv + α′ v ′ ∈ f −1 (W ).
Ainsi f −1 (W ) est un sous-espace vectoriel de E.
(b) Soit V un sous-espace vectoriel de E.
(i) On a : 0F = f (0E ) avec 0E ∈ V , donc 0F ∈ f (V ).
(ii) Soient α, α′ ∈ K et w, w′ ∈ f (V ). Il existe v, v ′ ∈ V tels que w = f (v) et w′ = f (v ′ ).
Par linéarité de f on a : αw + α′ w′ = αf (v) + α′ f (v ′ ) = f (αv + α′ v ′ ) avec αv + α′ v ′ ∈ V .
D’où : αw + α′ w′ ∈ f (V ).
Par conséquent f (V ) est un sous-espace vectoriel de F .
Définition-Proposition
Soit f ∈ L (E, F ).
(a) Le noyau de f , noté Ker f , est le sous-espace vectoriel f −1 ({0}) de E :
Ker f := {v ∈ E | f (v) = 0}. ←−[équation cartésienne]
45
Démonstration
(a) D’après le lemme (a), Ker f est un sous-espace vectoriel de E.
(b) (⇒) On suppose que f est injective. Si v ∈ Ker f , alors f (v) = 0F = f (0E ) alors, par
injectivité de f , v = 0E . Ainsi Ker f ⊆ {0}. Comme {0} ⊆ Ker f d’après (a) : Ker f = {0}.
(⇐) On suppose que Ker f = {0}. Si v, v ′ ∈ E vérifient f (v) = f (v ′ ), alors f (v − v ′ ) =
f (v) − f (v ′ ) = 0, alors v − v ′ ∈ Ker f , alors vu l’hypothèse v = v ′ . Ainsi f est injective.
(c) D’après le lemme (b), Im f est un sous-espace vectoriel de F .
(d) Découle des définitions des notions de « surjectivité » et « image d’une application ».
(e) On suppose que v1 , ..., vp ∈ E vérifient : E = Vect(v1 , ..., vp ). On a :
f (E) = f {α1 v1 + · · · + αp vp ; α1 , ..., αp ∈ K} = {f α1 v1 + · · · + αp vp ; α1 , ..., αp ∈ K}
= α1 f (v1 ) + · · · + αp f (vp ) ; α1 , ..., αp ∈ K = Vect f (v1 ), ..., f (vp ) .
D’où le résultat.
Définition-Proposition
On suppose que E ou F est de dimension finie. Soit f ∈ L (E, F ).
(a) L’espace vectoriel Im f est ici de dimension finie.
On note : rg f := dim(Im f ) « rang de f ».
(b) Si E = Vect(v1 , ..., vp ) avec v1 , ..., vp ∈ E, alors rg f = rg f (v1 ), ..., f (vp ) .
Démonstration
(a) Si E est de dimension finie, on va voir dans la démonstration du (b) que Im f a une
famille génératrice finie dont on pourra extraire une base finie .
Si F est de dimension finie, l’espace vectoriel Im f qui en est un sous-espace vectoriel est
aussi de dimension finie.
(b) D’après le (e) de la définition-proposition qui précède : Im f = Vect(f (v1 ), ..., f (vp )).
D’où : rg f = dim(Im f ) = dim(Vect(f (v1 ), ..., f (vp ))) = rg (f (v1 ), ..., f (vp )).
46
x y z x y z
−4 12 −5 a −4 12 −5 a
!
1 −3 2 b −−−−−−−−−−−→ 0 0 3 a + 4b
L2 ← 4L2 + L1
2 −6 1 c L3 ← 2L3 + L1
0 0 −3 a + 2c
x z y x z y
−4 −5 12 a
! −4 −5 12 a
!
−−−−−−→ 0 3 0 a + 4b −−−−−−−−−−→ 0 3 0 a + 4b
C2 ↔ C3 L3 ← L3 + L2
0 −3 0 a + 2c 0 0 0 2a + 4b + 2c
donc : w ∈ Im f ⇐⇒ 2a + 4b + 2c = 0 ⇐⇒ a + 2b + c = 0.
Ainsi, dans les coordonnées habituelles : Im f a pour équation cartésienne x + 2y + z = 0.
En ne considérant que les colonnes sous x, y, z d’une part et sous x, z d’autre part, le calcul
précédent donne aussi : dim(Im f ) = rg (f (e1 ), f (e2 ), f (e3 )) = 2 et rg (f (e1 ), f (e3 )) = 2, donc
−4 −5
(f (e1 ), f (e3 )) engendre Im f qui est de dimension 2, puis : Im f a pour base 1 , 2 .
2 1
(b) Équation cartésienne de Ker f avec deux égalités (entre réels) et base de Ker f ?
x
Un vecteur v = yz ∈ R3 appartient à Ker f si et seulement si (⋆⋆) f (v) = 0.
La méthode de Gauss
pour résoudre (⋆⋆) est le calcul du (a) avec un second membre nul.
−4x − 5z + 12y = 0
Donc : Ker f : .
3z =0
Parremontée triangulaire, on obtient :
x = 3t 3 3
Ker f y = t , t ∈ R. Donc Ker f = Vect 1 puis Ker f a pour base 1 .
z =0 0
|{z} 0
vecteur non-nul
Proposition
Soit f ∈ L (E, F ). On suppose donné un supplémentaire S de Ker f dans E (on sait qu’il en
existe quand E est de dimension finie).
L’application f˜ : S → Im f est linéaire bijective.
x 7→ f (x)
Démonstration
Il est clair que f (x) ∈ Im f pour tout x ∈ S, et ensuite que f˜ est linéaire.
On a : Im f˜ = f˜(S) = f (S) = f (S + Ker f ) = f (E) = Im f
et Ker f˜ = {x ∈ S | f (x) = 0} = S ∩ Ker f = {0}. Donc f˜ est bijective.
Exemple
L’application linéaire f :R2 → R2 vérifie : Ker f = Im f = (Oy).
(x, y) 7→ (0, x)
2
On a bien : dim Ker f + dim Im f = |dim {zR} .
| {z } | {z }
1 1 2
Corollaire (important)
Soit f ∈ L (E). On suppose que E est de dimension finie.
Les propriétés suivantes sont équivalentes :
(i) f est injective ; (ii) f est surjective ; (iii) f est bijective.
47
Démonstration
On vient de voir que : dim Ker f + dim Im f = dim E.
Donc : (i) ⇐⇒ Ker f = {0} ⇐⇒ dim Ker f = 0
⇐⇒ dim Im f = dim E ⇐⇒ Im f = E
⇐⇒ (ii).
On en déduit que : (i) ⇐⇒ ((i) et (ii)) ⇐⇒ (iii).
Remarque
Le corollaire devient faux en enlevant l’hypothèse « E est de dimension finie ».
Par exemple, on peut montrer que la dérivation δ : K[X] → K[X] définie dans le paragraphe 1,
est surjective mais n’est pas injective.
Démonstration
Soit A ∈ Mn,p (K). L’application g : v X 7→ w AX est linéaire (facile).
/B /C ! !
1 0.
0. ..
Les vecteurs g(v1 ), ..., g(vp ) ont pour coordonnées A .. , ..., A 0
dans C .
0 1
Les colonnes de A sont donc g(v1 )/C , ..., g(vp )/C .
Si f = g, alors vu ce qui précède A = MatB,C f .
Si A = MatB,C f , alors f coïncide avec g en chacun des vecteurs v1 , ..., vp , puis f = g.
Exemples
1 .. 0
(1) On a, par la définition du (a) : MatB idE = . = Ip où p = dim E.
0 1
48
On a : fe(1) = −1, fe(X) = 1 et fe(X 2 ) = X 2 + 2X.
Par conséquent : Im fe = Vect(fe(1), fe(X), fe(X 2 )) ⊆ R2 [X].
Cela permet de définir l’application f : R2 [X] → R2 [X] qui est encore linéaire.
P 7→ (X + 1)P − P ′
e e
On a : Ker f = Ker f et Im f = Im f . On recherche des bases de Ker f et Im f en coordonnées.
−1 1 0
Par définition, la matrice Mat(1,X,X 2 ) f est : A := 0 0 2 .
0 0 1
On prend en compte l’autre caractérisation
donnée pour Mat(1,X,X 2 ) f :
a0 a0 0
Ker f = P ∈ R2 [X] | f (P ) = 0 = P a1 ∈ R2 [X] A a1 = 0 .
2 a a2 0
a0 0 /(1,X,X ) 2 a0
On résout l’équation A aa1 = 0 d’inconnue aa1 ∈ R3 par la méthode de Gauss :
2 0 2
a0 a1 a2 a0 a2 a1
! a0 a2 a1
!
−1 1 0 −1 0 1 −1 0 1
0 0 2 −−−−−−→ 0 2 0 −−−−−−−−−−−→ 0 2 0 .
C2 ↔ C3 L3 ← 2L3 − L2
0 0 1 0 1 0 0 0 0
a0 = t
Donc Ker f : a1 = t , t ∈ R, puis Ker f = {t(X + 1) ; t ∈ R} et Ker f a pour base (X + 1).
a2 = 0
Ce calcul par Gauss montre aussi que rg (f (1), f (X), f (X 2 )) = rg (f (1), f (X 2 )) = 2.
Il en résulte que Im f a pour base (f (1), f (X 2 )), c’est-à-dire (−1, X 2 + 2X).
Définition-Proposition
(a) L’application L (E, F ) −→ Mn,p (K) est un isomorphisme de K-espaces vectoriels.
f 7−→ MatB,C f
Donc L (E, F ) est de dimension finie et dim L (E, F ) = (dim E)(dim F ).
Le K-espace vectoriel E ∗ des formes linéaires sur E a d’ailleurs une base B ∗ = (v1∗ , ..., vp∗ ),
appelée base duale de B, qui est déterminée par : vi∗ (vi ) = 1 et vi∗ (vj ) = 0 quand j 6= i.
(b) Soient f ∈ L (E, F ) et g ∈L (F, G).
On a : MatB,D (g ◦ f ) = MatC ,D g MatB,C f .
(c) Soit f ∈ L (E, F ). On pose A := MatB,C f ∈ Mn,p (K).
L’application tf : F ∗ −→ E ∗ est linéaire. De plus : MatC ∗ ,B∗ (tf ) = t A.
ϕ 7−→ ϕ ◦ f
Démonstration
(a) Il est clair que l’application MatB,C : L (E, F ) −→ Mn,p (K) est linéaire.
f 7−→ MatB,C f
a11 ··· a1p a11 a1p
Soit A = ··· ∈ Mn,p (K). On note w fp ∈ F tels que w
f1 , ..., w f1 .. et ... et w
f .. .
an1 ··· anp
. 1 .
/C an1 /C anp
D’après une proposition du II 1, il existe f ∈ L (E, F ) unique tel que f (v1 ) = w f1 et ... et
fp , c’est-à-dire MatB,C f = A. Ainsi, l’application MatB,C est bijective.
f (vp ) = w
Dans le cas où F = K et C = (1), les images des vecteurs v1∗ , ..., vp∗ sont les vecteurs
E1,1 , ..., E1,p de M1,p (K). Cela prouve que B ∗ est une base de E ∗ .
(b) On pose A := MatB,C f et B := MatC ,D g.
f g
On obtient la décomposition g ◦ f : u X 7−→ v Y 7−→ w Z avec Z = BY et Y = AX.
/B /C /D
Donc Z = (BA)X, ce qui prouve que : MatB,D (g ◦ f ) = BA.
(c) Il est clair que ϕ ◦ f ∈ E ∗ pour tout ϕ ∈ F ∗ , et ensuite que tf est linéaire.
Le coefficient de MatC ∗ ,B∗ (tf ) sur la ie ligne et j e colonne est la ie coordonnée αi de tf (wj∗ ) =
p
P P
n
αi vi∗ suivant (v1∗ , ..., vp∗ ). Or : αi = tf (wj∗ ) (vi ) = wj∗ aki wk = aji .
i=1 k=1
D’où le résultat.
49
2. Utilisation du rang
Proposition
Soit f ∈ L (E, F ). On pose A := MatB,C f ∈ Mn,p (K).
(a) On a : rg (A) = rg (f ).
D’où : f est surjective si et seulement si rg (A) = n ;
f est injective si et seulement si rg (A) = p.
(b) L’application f est bijective si et seulement si : n = p et A est inversible.
Dans ce cas : MatC ,B (f −1 ) = A−1 .
(c) On a : rg (tf ) = rg (f ), donc rg (t A) = rg (A) (déjà vu).
Démonstration
((a) On sait calculer le rang d’une matrice et d’une famille de vecteurs par la méthode de
Gauss : rg A = r = rg (f (v1 ), ..., f (vp )) = rg f .
Pour le reste, on utilise : dim F = n et dim Ker f = p − rg f (théorème du rang).
b) D’après (a), f est bijective si et seulement si n = p et rg A = n, c’est à dire : n = p
et A est inversible. Dans ce cas, on sait que f −1 est linéaire. On a : f −1 ◦ f = idE donc
MatC ,B (f −1 ) A = In , ce qui donne le résultat en multipliant à droite par A−1 .
Variante (sans utiliser le rang)
Pour tout g ∈ L (F, E), on a :
f bijective et f −1 = g ⇐⇒ g ◦ f = idE et f ◦ g = idF
⇐⇒ n = p et MatB,B (g ◦ f ) = In et MatC ,C (f ◦ g) = In
| {z }
nécessaire pour que E et F soient isomorphes
⇐⇒ n = p et MatC ,B g A = In et A MatC ,B g = In
⇐⇒ A inversible et A−1 = MatC ,B g
Si f est bijective, on sait que f −1 est linéaire, et en appliquant ce qui précède à g := f −1 ,
on en déduit que A est inversible d’inverse MatC ,B (f −1 ).
Si A est inversible, on sait que son inverse est la matrice dans les bases C et B d’une
application linéaire g, et on déduit de ce qui précède que f est bijective.
(c) D’après le théorème du rang, on a : rg (tf ) = dim F − dim Ker(tf ).
Par ailleurs : Ker(tf ) = {ϕ ∈ F ∗ | ϕ Im f = 0}. Soit (u1 , ..., ur ) une base de Im f . On la
complète en une base (u1 , ..., un ) de F . On note (u∗1 , ..., u∗n ) sa base duale.
Pn
Pour tout ϕ = αi u∗i ∈ F ∗ , on a : ϕ Im f = 0 ⇐⇒ α1 = ... = αr = 0.
i=1
Ainsi Ker(tf ) a pour base (u∗r+1 , ..., u∗n ), ce qui donne l’égalité rg (tf ) = rg (f ).
Finalement : rg (t A) = rg (tf ) = rg (f ) = rg (A).
Remarque
Soit A ∈ M(n, K). On lui associe l’application linéaire f : Kn → Kn .
X 7→ AX
−1
Pour montrer que A est inversible et calculer A , il suffit de montrer que f est bijective et
calculer f −1 . Pour cela on peut tenter de résoudre à Y ∈ Kn fixé le système AX = Y d’inconnue
X ∈ Kn et de prouver qu’il a une unique solution qu’on écrira sous la forme X = BY avec
B ∈ M(n, K). Dans ce cas, on aura : A −1
{z } et A = |{z}
| est inversible B .
car f est bijective matrice de f −1 : Y 7→ BY
3. Changement de base
On se donne deux nouvelles bases, B ′ = (v1′ , ..., vp′ ) de E et C ′ = (w1′ , ..., wn′ ) de F .
50
v1 /B . . .
′ vp′ /B
Définition-Proposition
Démonstration
(b) Comme la matrice de passage de B à B ′ est égale à MatB′ ,B idE , il suffit d’appliquer le
résultat analogue du paragraphe 1.
(c) Puisque idE est bijective de réciproque idE , la matrice MatB′ ,B idE est inversible et son
inverse est égal à MatB,B′ idE . Compte tenu de l’égalité du début de cette démonstration, cela
signifie que P est inversible et d’inverse la matrice de passage de B ′ à B.
Si on dispose d’une expression explicite des vecteurs v1 , ..., vp comme combinaisons linéaires
de ve1 , ..., vep , alors : E = Vect(v1 , ..., vp ) ⊆ Vect(ve1 , ..., vep ) ce qui donne E = Vect(ve1 , ..., vep ), puis
(ve1 , ..., vep ) engendre E et rg Pe = p, enfin B e est une base de E et Pe est inversible.
v1 /B . . . vp /B
e e
51
52