- Chapitre 18
Matrices
de ce chapitre est de faire le lien entre le caleul matrici
el d'une part et les espaces
£ vectoriels et applications linéaires d’autre part. Ce lien sera assuré en particulier par le
théoréme 15.38, Les chapitres 12, 15, 10 et 11 sont A réviser. Notamment, dans le chapitre 11, le
paragraphe II.5, sur le produit matriciel, le paragraphe IL.9. sur les propriétés du produit matriciel
gles qui ne sont plus valables pour ce produit doiv
ot Je suivant sur les 1
wt tre connus, ainsi que
les méthodes sur le caleul de l’inverse d’une matric
e inversible par exemple.
De méme, les p:
‘agraphes IIL, IV. et VI. du chapitre 15 doivent étre parfaitement connus.
Dans tout ce qui suit, m et p sont deux entiers naturels non nuls, E et F deux espaces vectoriels
de dimensions respectives n et p et (KK, +,.) désigne un corps - pour nous K = R ou K = €.
I. Programme officiel
Matrices et déterminants
Cotte dernitre partie du programme d’algébre linéaire fait le lion entre la représentation géomé-
trique (espa
ces vectoriels et applications linéaires) et la rep:
sentation numérique (matrices)
fans
le cadre de la dimension finie. [...] Il est attendu des éléves qwils maitrisent les deux registres
(géométrique ot numérique), qu’ils sachent représenter numériquement un problime géométrique
A Vaide de b
daptées ot interpréter géométriquement un probléme numérique
CONTENU CAPACITES ET COMMENTAIRES
A - Matrices
a) Matrices
applications linéaires
Matrice d'une application linéaire dans un couple Isomorphisme entre L(E,F) et
de bases Myp(K)
Application au caleul de la dimension
de £L(E, F)
Calcul des coordonnées de l'image d'un vecteur par
une application lin
Matrice d'une
ire.
mpos
e dapplications linéaire
Lien entre matrices inversibl
et isomorphismes.
Matrice de passage d'une base & une autre
Effet dum changement de base sur la matrice d’un
vecteur, d’une application linéaire, d’un endomor-
phisme
’b) Noyau, image et rang Pune matrice
Applic peige A une
on linéaire canoniquement as
matrice
350CHAPITRE 18, MATRICES PCSI, 2019/2020
Image et noyau d'une matrice de Mn p(IK). Interprétation en termes de systémes li-
res.
Rang d’unc matrice A Le rang d'une matrice ost défini comme
le rang du systéme de ses vectours co-
lonnes, ou comme le rang de Lendomor-
a A, ow
phisme canoniquement assoc
comme le nombre de pivots de son éche-
lonnée réduite.
Théoréme du rang
Caractérisations des matrices inversibl
de noyau, d’image ot de rang
's en termes
Conservation du rang par multiplication par une Deux matrices équivalentes par ligne ou
matrice inversible. par colonne ont méme rang.
Rang de la transposée Le rang d'une matrice est égal au rang de
ses lignes, le rang d’un systéme linéaire
est égal au rang de sa matrice
IL. Rappels et compléments
IL1. Matrices diagonales
@ Definition 18.1 (Centre (hors-programme))
On appelle centre de M,(IK) l'ensemble des matrices M qui commutent avec toutes les
matrices de M,,(K)
@ Remarque
Le centre de M,(IK) est non vide puisqu’il contient la matrice identité
Théoréme 18.2
Le centre de M,(IK) est Vect(J,)
De 5
Démonstration hors programme
Soit M une matrice du centre de M,(K). Puisgu’elle commute avec toute les matrices de
M,(K), elle commute notamment avec les matrices élémentaires.
En écrivant cela pour les matrices de dilatation, on montre que M est une matrice diagonale
Puis en UVécrivant pour les matrices de transvection, on montre que tous les coefficients diago-
nau de M sont égaux, donc qu'il existe X€ K tel que M =X,
Réciproquement, une matrice de cette forme commute avec toute matrice donc appartient au
centre.
351CHAPITRE 18, MATRICES
, 2019/2020
@ Remarque
En particulier les matrices diagonales ne commutent pas avec toutes les ma-
trices de M,(K).
Sx. 18.1 Calculer AB et BA pour
e4-() 2 )ee-(4 i):
12 3-1
wa-(3?)aa-(4 2)
Propriété 18.3
Multiplier une matrice A € M,,p(IK) 4 gauche par une matrice diagonale D revient & multi-
plier chaque ligne de A par le coefficient diagonal de D de méme indice de ligne
Multiplier une matrice A € M,,»(K) 4 droite par une matrice diagonale D revient A multiplier
chaque colonne de A par le cocfficient diagonal de D de méme indice de colonne
11.2. Applications linéaires : rappels
Théoréme 15.38 : définition d’une application linéaire par les images des vecteurs
dune base
Soient B = (e:,€2,..-,€n) une base de Pespace vectoriel F (qui est done de dimension finie n) et
F = (v1, 02,..,Uy) une famille de n vecteurs de lespace vectoriel F, supposé ici de dimension
quelconque, finie ou infinie.
Alors il existe une unique application linéaire ¢: E > F telle que Vi € [J;n], (¢,) = uv.
Ex. 18.2 Soit f l'application linéaire de £(R*) ot RS est rapporté A sa base canonique (i; j;k)
vérifiant
(i) 2 33
FO) B+ 4k
F(R) Mj — 8k
Calculer Ker f et Im f.CHAPITRE 18, MATRICES PCSI, 2019/2020
{ Cor. 18.2 )
Soit w= xi + yj + 2k € RS
Cherchons (2, y, 2) € R® tels que f(u) = 0
fu) = 2vi—Barj + 3yi-+yj —Ayk+ L1zj—82k
(Qr-+3y)it(—3n-+y+112)j + (—4y—82)k
22-4 3y =0
04 -3r4y4llz = 0
dy — Be 0
Qe+dy = 0
4 lly+22z = 0 of *
-dy-82 = 0 y=
Done Ker f = Veet(3;-2;1)
2. Par ailleurs,
Le théordme 15.50 du rang permet d’affirmer que rg f = dimIm f = 3 —
‘F(i) #0 ot f(j) n'est pas colinéaire & f (i) done Im f = Vect( (3); f())
Théoréme 15.52 : caractérisation des isomorphismes en dimension finie
Soient £ et F des espaces vectoriels de méme dimension finie et @ € £(E, F)
Alors ¢ injective © ¢ surjective ¢ ¢ bijective.
II.3. Matrices et systemes linéaires : rappels
Soit S un systéme de n équations & p inconnues (11; 12...; zp) € K?.
Alors il existe deux matrices A € M,,9(IK) et B © M,,:(IK) telles que
a
x
(21; 22...; 2p) est solution de S si et seulement si X >
€ M,a(KK) vérilie AX = B
associée au systéme et (A|B) matrice augmentée associée au systéme
A est appelé
Pour résoudre ce systéme, l'une des méthodes possibles est dutiliser l'algorithme de Gauss sur la
matrice augmentée (A|B) de sorte & obtenir l'unique matrice (4’|B") réduite par lignes équivalente
par lignes & (AJB). On a alors
mat
© le systéme ne posséde aucune solution si et seulement si la matrice (4’|B’) posséde un pivot
dans sa derniére colonne;
# le systéme posside une unique solution si et seulement si (A'|2) posstde un pivot dans
chacune de ses colonnes A Vexception de la derniére, Généralement, ces systéme ont le
méme nombre de lignes ct d’inconnus, auquel cas A’ = J, ;
inconnues principales celles possédant un pivot dans leur colonne et ineonnues
s ou paramétres les autres
eon
On appelle rang du syst?me le nombre d’inconnues principales.
Si le systéme posside des solutions, les inconnues secondaires peuvent prendre toute
valeur dans K et les inconnues principales sont alors entitrement déterminées par la
donnée des valeurs des inconnues secondaires.
353CHAPITRE 18, MATRICES PCSI, 2019/2020
IL.4. Sous-espaces vectoriels et notion de dimension : synthése
Il faut connaitre tous les espaces vectoriels de référence dont un résumé se trouve dans le chapitre
15, section 113.
( Pour montrer que F est un sous-espace vectoriel de E
¢ On peut montrer que
*FCE
* Ope F
» F est stable par combinaisons linéaires, c’
VW(u;v) © F?,V(As 4) € K?, Aw + ww € F
= GOH ot G et H sont deux sous-espaces vectoriels connus
@ On peut montrer que
de E.
¢ On peut montrer que F = G+ H ot G et H sont deux sou:
de E.
‘¢ On peut montrer que F = Vect(F) o& F est une famille finie de vectours de E.
On peut montrer que F = Ker ot u € £(B, E’)
vectoriels connus
¢ On peut montrer que F = v(A) ot v € £(B", B) ot A est un sousespa
En
{ Notion de dimension
© On dit que E est un espace vectoriel de dimension finie sil existe une famille finie
génératrice de E.
Dans ce cas, le théor’me d’extraction de base garantit que l'on peut extraire de cetti
famille une sous-famille é la fois génératrice et libre : E pos
ade done une base.
‘« Le lemme fondamental permet alors de montrer que toutes les bases d’un méme
espace vectoriel ont méme nombre de vecteurs : ce nombre est caractéristique
de espace vectoriel et s‘appelle dimension de V'espace vectoriel.
« Si F est un sous-espace vectoriel de E et s'ils sont tous les deux de dimension finie alors
dim F < dim E
De plus, si dim F = dim F alors F =
« Formule de Grassmann : F ct G étant deux sous-espaces vectoriels de F (de di-
mension finie),
dim(F + G@) = dim F + dimG -dimF 0G
Soient FE et F deux espaces vectoriels de dimension finie et u € £(E, F)
+ Par définition, Im x ost un sous-espace veetoricl de F.
Done rgu = dim Imu < dim F
+ L’mage par u d’une famille génératrice de E est une famille génératrice de Im
Done rgu = dim Imu < dim E.
354CHAPITRE 18, MATRICES PCSI, 2019/2020
+ west surjective si et senlement si Imu =F.
Dans ce cas, on a done rg u = dim Imu = dim F < dim B,
*
Théoréme du rang : dimImu + dim Keru = dim E.
*
1 est injective si et soulement si Ker u = {0}
Dans ce cas, on a done gu dim £ < dim F.
Une application linéaire bijective est appelée isomorphisme lorsque Ef F, ou
automorphisme lorsque E = F.
Deux espaces vectoriels sont dits isomorphes s’il existe un isomorphisme
dim Imu
entre ces deur espaces vectoriels.
+ Si B ot F sont isomorphes, alors il existe une application linéaire bijective de E dans
F : Waprés ce qui précdde, on a done
dim E < dim F < dim B e’est-A-dire dim E = dim F.
+ west bijective si et seulement si l'image de toute base de # est une base de F.
Bx. 18.3 Soient n € N*, B= R,[X], 6: PE Bro P(X +1) €E.
1) Quelle est la dimension de Ry[X]?
2) Montrer que ¢ est linéaire,
3) Calculer Fimage par ¢ de la base canonique de E.
4) Montrer que ¢ est un automorphisme
5) Caleuler 6(Q) ot Q = >( L ) 1)-EX* En déduire des propridtés des coefficients
=
binomiaux,
{ Cor. 18.3 )
1) dimR,[X]
2) Soient P et Q deux polynémes de B, d, 4 deux réels.
GAP + HQ) = AP(X +1) + HQ(X +1) = AB(P) + H9(Q)
Done ¢ est linéaire,
3) Soit k € [0;nJ
a X® Je e k +
9(X*) = (X +1) >(‘)»
Notamment deg é(X*) = k.
n+l.
4) image par ¢ de la base canonique est la famille F = (1; X +1; (X +1)?;..3(X +1)")
qui est une famille de n + 1 polynémes de R,[X’] échelonnée en degrés. C'est done une
base de Rn[X].
Done ¢ est bijective (elle envoie une base sur une base), linéaire, de E dans E : c'est
un automorphisme de E.
5) Calculons 4(Q) ot Q >( i ) (-1)"-*x¢.
Remarquons que Q = (X — 1)".
Done #(Q) = (X +1-1)" =X".
On aurait aussi pu utiliser la linéarité de @
355CHAPITRE 18, MATRICES PCSI, 2019/2020
afin n k
(Q) = iy" *e(X*) = ayn kxt
“@) z(1): ) a ) SIC) ’
En utilisant ces deux expressions de #(@Q), on en déduit donc que
© vic [O;n— 1],
Z(:)(:Jor
© Pour isn xa(7)(*)¢ yk a
IL. Les diverses interprétations vectorielles des matrices
/
TII.1. Matrice d’un vecteur dans une base
@ Definition 18.4
Soient # un K-espace vectoriel de dimension n, B — (¢1,¢2,...,¢n) une base de E et u un
vecteur de E.
On appelle matrice de w dans B la matrice
(Hien ou
@ Notation
| On note Mats(u) la matri
ie u dans B.
Ex. 18.4 Dans R®, on note B la base canonique et w
Matg(u) =
( Cor. 18.4
Mats(u) =| 3
2
XL
Ex. 18.5 Dans Ry[X), on note € la base canonique et P = (X +1)"
=O Jecaan
Mate(P)CHAPITRE 18, MATRICES
, 2019/2020
{ Cor. 18.5
Mate(P) = =( ( oy Vas 1
X /
IIl.2. Matrice d’une famille de vecteurs
@ Definition 18.5
Soient E un K-espace vectoriel de dimension n, B = (e1,€2,...,€n) une base de E et S =
(wy, ta, .., Up) une famille de p € IN* vecteur(s) de E.
On appelle matrice de S dans B la matrice
(uisicn avec ¥j € [yp] uy = Dy uiszes
a
ep
Antrement dit, Matg(S) est la matrice (U;|U2|...|U,) des colonnes U; composées des coordon-
ni
des u; dans B.
Notation
On note Matg(S) la matrice de S dans B.
Lorsque la famille $ ne contient qu'un seul vecteur u, la matrice de la famille est celle du
vecteur,
Ex. 18.6 Dans R®, on note B la base canonique et S = ((1;0;3); (—1;-1;2))
Matg(S)
{ Cor. 18.6 )
1-1
Mats(S)=| 0 -1
32
Xu /
Bx. 18.7 Dans Ra[X), on note C la base canonique et F = (X*(1—X)"*),ctonp
M = Mate(F) = =-( Jecpinet
Je[inel]
Calculer x( i )x*a X)"-*, En déduire une propriété vérifiée par les colonnes de M.
=CHAPITRE 18, MATRICES
, 2019/2020
{ Cor. 18.7 )
1 0 00
—n 1
M =Mate(F) =
(ayn (-1)"-"(n-1) 1 0
(ay (aye 1.
1-
Done M=[(-s( "t1~4 en posant | ? )—0 pour k <0.
ay eft] k
jebin i
De phis > L )x0 = xy (x+1-Xx)"=1
aS
Done les colonnes C1, C2, .., Cui de M vérifient
1
a(sJou(
Important !
La matrice d'une famille S dépend de la base B dans laquelle on décompose les
vecteurs de S. Pour cette raison, il ne faut pas oublier de préciser dans quelle base s'effectue
la décomposition : Matg(S)
III.3. Matrice d’une application linéaire
@ Definition 18.6
Soient E et F deux IK-espaces vectoriels de dimensions finies avec p = dim E € Nv
dim F € IN*
Soient B = (e1, €2,.... €p) et BY = (fay fay ns fn) des bas es de E et F.
D’aprés le théoréme 15.38, il existe une unique application linéaire ¢ telle que
etna
es resp
Vi € Dipl. o(6) = Drak
On appelle matrice de ¢ relativement 4 B et B’ la matrice (aj,;):
(x+y; —2r + 3y) € R? relativement aux bases
canoniques B ct BY de RS ct R??
Matg.5(v)) =
Quelle est l'application linéaire y - R’ + RS associée & la matrice M = 1 0. | donnée
dans la base canonique de R?
xyz)
( Cor. 18.8 ‘
110
Matg,er(v) =
weni=(3,28)
x(a: y5 2) = (Te — y + 22; 3x + y; de + Sy — 62).
Ex. 18.9 On reprend application ¢ : P € R,[X] 9 P(X + 1) de Pexercice 18.3.
Donner la matrice de ¢ dans la base canonique de R,[X)].
{ Cor. 18.9 )
1 1
0 2
Matg(¢)=]| 9 0 1
00 0 1
III.4. Cas particul
@ Notation
Lorsque ¢ est un endomorphisme de E rapporté A une base B,
@:... +... on note plus simplement Mats(@) = Mats,s(¢)
-a-dize lorsque
359CHAPITRE 18, MATRICES
, 2019/2020
Important !
Il est cependant possible de rapporter un mér
Bet Bet d’
de départ et & B’ pour leurs images : Matg»($) pour ¢ € L(E). Nous verrons méme
pace vectoriel EA deux bases différentes
ne
crire la matrice d'un endomorphisme @ de E rapporté 4 B pour les v
plus loin que cette possibilité offre une excelente interprétation géométrique
aux matrices carrées inversibles !
© Définition 18.7
On appelle application linéaire canoniquement associée & une matrice A € My p(KK)
Vapplication ¢ € £(..,...) dont la matrice relativement aux bases canoniques Bde .. et BY de
est A
12
Ex. 18.10 Quelle est application linéaire canoniquement associée & A — | 3 4 |? Estelle
5 6
injective? Quel est son rang?
( Cor. 18.10 )
dalzi) = (2+ 2y;32 + 4y;52 + 6y) © RY
C'est une application injective car ¢4(x;y) = (0; 0; 0) = (x;y) = (0;0) (systéme immédiat)
Enfin, le théoréme du rang permet d'affirmer que rg 4 = dim R? — dim Ker = 2. J
IIL.5. Remarques
1) Si on change les bases des ensembles de départ ou d’arrivée d’une application linéaire, la
matrice associée & Vapplication linéaire est complétement modifiée !
2) La matrice de l'application nulle est la matrice nulle quelles que soient les bases des espaces
de départ et darrivée.
3) MAIS, la matrice de Vapplication identité E > F n’est la matrice identité que si E
est rapporté 4 la méme base au départ et 6 Varrivée!
Matg(Idy) = J, pour dim B = n.
. RX] + R,|X
Ex. 18.11 Soit ¢ {i oP
Bi = (X(X — 1), X(X + 1);(X — (X +1) de Ra[X]
Ecrire Mats(¢), Matg.s:(4) et Matpr(d).
et les bases B = (1; XX?) et
( Cor. 18.11
(1) =0 O(X)=1 o(X*) = 2x.
010
Done Matg(¢)=] 0 0 2
oo00
Pour obtenir Mates »/(d), il faut obtenir les coordonnées de #(X) = 1 ot 6(X?) = 2X dans BY
Soit 1 = aX(X — 1) +0X(X +1) +X —1(X +).
360CHAPITRE 18, MATRICES , 2019/2020
En évaluant en —1, 0 et 1, on obtient a= 1/2, b= 1/2ete=
De méme, on obtient X = 54X(X — 1) + 3X(X +1) +0 x (XK —1)(X +1)
01/2 -1
Done Matse(¢) =| 0 1/2 1
an)
Enfin, de la méme maniére, on obtient
24-
Mate(¢)=| $$ 1
1-1 0
X /
IlL.6. Théoréme d’isomorphisme
Théoréme 18.8 (Admis)
Soient £ et F deux K-espaces vectoriels de dimensions respectives p et n rapportés respecti-
vement aux bases B et B!
L(B,F) 4 Mnp(IK)
L’application ©
ppl ¢ + Q(¢) = Mats.5(d)
est un isomorphisme d'espaces vecto-
riels,
Corollaire 18.9
Pour B et F doux K-espaces vectoriels de dimensions respectives p et n, £(B, F) est de
dimension finie et dim £(B, F) = dim M,,)(IK) = n x p = dim E x dim F.
IL.7. Image d’un vecteur par une application linéaire
Proposition 18.10
Soient B et F deux K-espaces vectoriels de dimensions respectives p et n rapportés respecti-
vement aux bases B= (€}, €2,... €p) et BY = (fi, farm fa) & € L(
n
, F) associée a la matrice
2
M = Matg,s:(¢) € Mn.p(K) et u € E de coordonnées X = € M,,.(K) dans B
py
Alors les coordonnées de ¢(u) € F dans B’ sont les coefficients de MX.
{ Démonstration )
Soit u de coordonnées (1, 2, .., tp) dans B
Par lingarité, 6(u) = D7 256(c))
A
Or, par définition, (e;) =) mf
361CHAPITRE 18, MATRICES PC
Done 4(u) = >? (= my, is) fr a pour coordonnées (= min) dans B’
maa ja icin}
{_On reconnait la définition des coctficionts du produit MX, ce qu'il fallait démontver.
, 2019/2020
J
Ex. 18.12 Quelle est l'image du vecteur (—2; 1) par l'application linéaire canoniquement associée
12
aA 3.4 4?
56
( Cor. 18.12 )
| Done Vimage du vecteur (—2;1) est (0; ~2;~4),
IIL8. Deuxiéme interprétation du produit matriciel
Proposition 18.11
Soient E et F deux K-espaces vectoriels de dimensions respectives p ot n rapportés respecti-
vement aux bases B = (¢1, €2,....¢9) et BY = (fi, fry fa), @ € £(B, F) associée & la matrice
M = Matse(¢).
Soit par ailleurs S$ = (w1, ua, .., tq) une famille de q € IN
S = Mate(S)
Alors
ecteur(s) de E associée & la matrice
MS = Mats.5(¢)Mats(S) = Mater(¢ (111), ¢ (ta) , 1 (tg) = Mate(o(S))
Démonstration
En vertu du théoréme précédent, il s’agit simplement de la traduction du théoréme 11.9 affix
mant que pour si A € M,,p(K), B = (U,|U)]...|U,) © Mpo(K) on a
AB = (AU,|AU})...|AU;)
III.9. Troisi¢me interprétation du produit matriciel
Proposition 18.12
Soient E, F et G trois K-espaces vectoriels de dimensions respectives 9, p et n rapportés
respectivement aux bases B= (€1, €2, 9), BY = (fis fay fp) 0 BY = (91, 92; 1 In)
Soient 6 € £(E,F) et ¥ € L(F,G)
Alors
Matg,pr(¥ 0 ¢) = Maty,5”()Mats.»()
362CHAPITRE 18, MATRICES PCSI, 2019/2020
{ Démonstration )
[Link](¥ © ¢)
Matsr(¢ © ¢(B)) par définition
Mate:5”(¥)Mats(o(B)) d’aprés le théortme précédent
= Matey.(¥)Mate,s(¢) par définition
Bx. 18.13 On reprend application § : P € Ra[X] 4 P(X +1) de Vexercics
On définit de plus @ : P € R,[X] +> P(X ~ 1).
Que peut-on dire de dow? de yoo?
Donner la matrice A = Mate(¢), B = Mate(\) puis caleuler AB et BA
18.3.
{ Cor. 18.13
Gow = ide ct Yow = ide : ce sont deux bijections réciproques une de autre.
-1
A= Mate(#) = (( J L )) par définition et
agefintlp
(or
Enfin AB = Mate( 0) = Mate(id)
BA = Mate(¥ 0 4) = Mate(id) = Ins
B= Mate(
IIL.10. Cas particuliers
1) Sid et W sont des endomorphismes de # rapporté A B alors Mats(yod) = Mats (q)Mats()
ct Matg(¢ oY) = Matp(d)Matg(2}) : le produit matriciel n'est pas commutatif ear
2) Si dest une forme linéaire de E rapporté B alors Matg,a)(¢) = ( ) une
matrice-ligne s’interpréte naturellement comme
IV. Isomorphismes et changements de bases
IV.1. Caractérisation des isomorphismes par leur matrice
Théor’me 18.13
Soient H et F deux K-espaces vectoriels de méme dimension n rapportés respectivement aux
bases B= (€1, €2,...) €n) et BY = (fis far» fn).
@ € £(E,F) est bijective si et seulement si Mate,s(¢) € GLn (IK).
On a de plus dans ce cas,
Matgys(@*) = Mats,5(¢)
{ Démonstration
Sens direct : supposons @ € L(K,F) est bijective avec B et F de méme dimension n
rapportés aux bases données par I'énoneé.
Alors, d’aprés la proposition 18.12, on a
363CHAPITRE 18, MATRICES PCSI, 2019/2020
Matg,s(¢7! 0 ¢) = Matgy,s (¢-!) Mats.e/(¢) d’une part et
Matp,»($7' o ¢) = Mate.x(ide) = I, d’autre part.
De méme, en écrivant la matrice de @ o @~? dans B' on obtient
Mats,s-(¢)Mateys (@72) = In.
Done Mats, .(@) est inversible et
Mats.5(4)"! = Mate.5 (6°!)
Réciproquement : supposons que A = Matg.s(¢) € GL, (KK).
Soit B = A-? et y V'application linéaire de F dans E définie par Matgys() = B.
Alors en écrivant les produits AB = I, et BA = I, comme matrices des composées de ¢ et b
on montre que ¢ est bijective et que ¥ = $7)
que ¢ est bijective et que v J
IV.2. Caractérisation des matrices inversibles
Proposition 18.14
A€ M,(K) est inversible ¢ 3B € M,(K), AB = I, 3B € M,(K), BA = In.
{ Démonstration
On montre la premidre équivalence, la seconde se montrant de fagon similaire
eulement si 3B ¢ M,(IK), AB =
Le sens dizect est évident puisque A est inversible si
BA=I,
Réciproque : supposons que AB = I, et soient ¢ et y les applications linéaires canoniquement
associées aux matrices A et B.
Alors l'égalité AB = I, s’écrit Mate(y 0) = Matc(id) oi C est la base canonique de K"
Done $0 y = id ot ¢ est surjective, q injective
Done d’apris le théoréme 15.52, ¢ et ¥ sont bijectives et réciproques l'une de Vautre
On conclut en ¥
sant le théorbme précédent.
IV.3. Matrices de passage
© Definition 18.15
Soient E un K-espace vectoriel de dimension n et B = (¢1,€2,-.;&n) eb BY = (fy fay Sn)
deux bases de E.
On appelle matrice de passage de la base B 4 la base B' la matrice Mats (B’)
Autrement dit, la matrice de passage de B a B! est la matrice de la famille B’
exprimée dans la base B.
@ Notation
| On Ia note PS
364CHAPITRE 18, MATRICES
, 2019/2020
@ Remarque
On a aussi PE’ = Maty (B’) = Mates (Ide)
Notamment, toutes les matrices de passage sont.
En effet,
IV.4. Propriétés des matrices de passage
;é 18.16 (Inverse d’une matrice de passage)
Soit H un K-espace vectoriel de dimension n et B= (€3, €3,-.&n) et BY = (fi, faye fr) deux
bases de B. Alors
(PB) = PE
{ Démonstration
(PRY" = Mate (B* par définition
= Mates (Ide)!
Mates,p (Idj')
Mats (B)
= PE
x ® J
Propriété 18.17 (Produit de deux matrices de passage)
Soit un K-espace vectoriel de dimension n et B, BY et BY trois bases de E. Alors
Pe PE = Pe
( Démonstration
PE PE Mats (B’) Matg: (B”) par définition
Matg:s (Ide) Matgw,e (Ids)
= Matern (Ide)
Mats (B")
= Pe
XK
Ex. 18.14 @ Dans R?, on note B la base canonique et B’ = ((1; 1); (2;3))
ve-( )att-(_ Jo
Dans Ro(X}], avec B la base canonique, B! = (X(X +1); X(X +2);(X +1)(X +2) et BY =
1;.X;2X? — 1).
PE et PB” = car
Calculer les auitres matrices de passage entre les différentes bases données,CHAPITRE 18, MATRICES , 2019/2020
{ Cor. 18.14 ‘
. ve -(} j)ere-(2. 5 : 7) a = 3(1;1) —(2;3) et (0;1) = —2(1; 1) +(2;3)
002 10 -1
eo PP={ 12.3 fe PR =| 01 0 | car X(X+1)=0+1.X41.X7, X(X+2)=
1d 00 2
OF2X FLX? et (X+I(X 42) = 243.X 4+ 1.X2
Pour obtenir les autres matrices de passages, il faut obtenir de chaque base dans une autre
base.
Par exemple, 1 = aX(X +1) +bX(X +2) + lx + 1)(X +2). On cherehe (a;.; e) € R¥
Pour cela on évalue en X =0: 20=1>
En X =-1:6=-1. Eten X¥ =-2:a=}4,
On fait de méme pour X et X? et on obtient
12
1. -1
4 0 0
On a aussi PEP" = PE"
$ -1 2 10
Done Pg" = 11-1 o1o0 f= 11-1
1 0 oJ\oo 2 Bo 2
Pour les matrices P§, et PE,, on peut par exemple inverser les matrices PE" et PB”
1
BL
PE -
IV.5. Formules de changement de bases
Proposition 18.18 (Formule de changement de bases pour un vecteur)
Soient 2 un K-espace vectoriel de dimension n de bases B et BY
Yu € B, Mats:(u) = PEMatg(u) = Maty:(B)Mata(u)
( Démonstration
On reprend les notations de énoneé, Soit u € B. Alors
PEMats(u) = Mats.p (Ide) Mats(u)
Mate (Idg(u)) d’apris la proposition 18.10
= Mate: (u)
J
4 dans les trois bases
Bx. 18.15 (Cor.) _ Exprimer les coordonnées du polynéme P = 3X? +5X
de Fexemple précédent.
Proposition 18.19 (Formule de changement de bases pour une application linéaire)
Soient E de bases B et B’ et F de bases C et C’ deux K-espaces vectoriels de dimensions
respectives p et n.
366CHAPITRE 18, MATRICES PC
, 2019/2020
On note P = PE et Q = PE
Vo € £(E, F), Matwc(d) = P&Matac(¢)P8 = QMats.c(4)P
De 5
Démonstration
On reprend les notations de l’énoncé. Alors
PSMatge(¢)PE = Mate: (Idp (C)) Matg.e(¢)Mats (Idg (B"))
= Mate (Idp © 60 Idg (B’))
Matsc'(@)
Proposition 18.20 (Formule de changement de bases pour les formes linéaires)
Soit E un K-espace vectoriel de dimension n de bases B et B'
On note P = PE
¥¢ € £(B, K) , Mate($) = Mate(9) PS" = Mats(¢)P
Proposition 18.21 (Formule de changement de bases pour les endomorphismes)
Soit E un K-espace vectoriel de dimension n de bases B et B’.
On note P = PE’ et A= Mate(¢)
V¢ € £(E), Mate/(d) = P8Mats(¢)P8 = PAP
IV.6. Matrices inversibles : résumé
Soit A € M,,(K). Les propristés suivantes sont équivalentes
1) A cst inversible;
2) SB e M,(K), AB = I,
3) BBE M,(K), BA= I,
4) Vapplication linéaire ¢ - K” ++ IK” canoniquement associée A A est bijective;
5) A est une matrice de passage entre deux bases de K"
7)
AV = Ogg admet une unique solution Og» € K”
)
6) VW € Kk", AV = W admet une unique solution V € K";
)
Méthode
En pratique, pour déterminer linverse dune matrice A, on utilise 'avant-derniére propriété
qui revient 4 résoudre un sy
teme de n équations 4 n inconnues : ou bien (Al,) y (In|B) et
A est alors inversible et A~? = B, ou bien le systéme est de rang strictement inférieur A n et
A west pas inversible.
Une autre méthode fructucuse est Vinterprétation de la matrice A comme matrice d'une ap-
367CHAPITRE 18, MATRICES
, 2019/2020
|_ plication linéaire ou comme matrice de passage. )
{plication linéaire ou comme ice de passage.
r
A Méthode
Pour montrer qu'une famille de n vecteurs est une base d’un espace vectoriel de dimension
‘n, il suffit de montrer que la matrice des coordonne de cette famille dans une base
{ donnée est une matrice inversible
J)
be - by + 2a 5 1
Ex. 18.16 Résoudre lesyst?me 4 -2r + y — 2 = v etendéduire inverse de 1
dr y te =w 1
( Cor. 18.16 )
On obtient
3 1 9 4
21-1} =[0 2 1
4-12 2-17 7
XK )
V. Noyau, image et rang d’une matrice
V.1. Noyau et image d’une matrice
@ Définition 18.22
Soit A € M,, (IX) et ¢: K? + Ik” Papplication linéaire canoniquement associée & A.
On appelle noyau de la matrice A le noyau de ¢.
On appelle image de la matrice A Vimage de ¢.
@ Notation
| On note, comme pour les applications linéaires, Ker(A) le noyau de A et Im(A) l'image de A.
@ Remarque
Avec les notations de la définition, Ker(A) est un sous-espace vectoriel de KK? et Im(A) un
sous-espace vectoriel de IK”
V.2. Conservation de la dimension du noyau et de l'image par multi-
plication par des matrices inversibles
Proposition 18.23
Soient A € M,,p(IK) et M € GL,(K), N € GL,(IK) deux matrices inversibles. Alors
dim Ker(A) = dim Ker(MA) = dim Ker(A)
368CHAPITRE 18, MATRICES
, 2019/2020
et
dim Im(A) = dim Im(MA) = dim Im(AN)
Démonstration
Démontrons la pr
K" application canoniquement associée & A ety: K" + IK" Pautomorphisme canoni
associé AM.
On au € Ker(MA) v(¢(u)) = 04 o(u) = 04 w€ Ker(A) car ¥ est bijective.
Done dim Ker(A) = dim Ker( A)
XL
V.3. Rang d’une matrice : rappel
Nous avons défini au chapitre 11 section V.5. le rang dune matrice de la fagon suivante
@ Definition 18.24
| On appelle rang d'une matrice A le nombre de pivots de l'unique matrice échelonnée réduite
par lignes équivalente par lignes & A
Or le nombre de pivots d'une matrice échelonnée réduite par lignes est de fagon évidente égale 3 la
nsion de l'image de cette matrice. D'aprés la proposition précédente, c'est aussi la dimension de
nage de A puisque on passe de A a Punique matrice échelonnée réduite par lignes équivalente par
matrices élémentaires inversibles. Done une définition alternative
lignes & A on multipliant par
du rang d'une matrice est
@ Définition 18.25
| On appelle rang d'une matrice A la dimension de son image : xg(A) = dim Im(A)
@ Remarque
| Le rang de A € Myp(IK) est done aussi le rang de la famille de ses vecteurs colonnes dans
K”
V.4. Théoréme du rang : version matricielle
‘Théoréme 18.26 (Théoréme du rang)
Soit A € M,,(K). Ona
rg(A) + dim Ker(A) = p
V.5. Caractérisations des matrices inversibles
369CHAPITRE 18, MATRICES , 2019/2020
Théoréme 18.27
Soit A €.M,(IK). Les propriétés snivantes sont équivalentes
1) Ast inversible ;
2) ral) =n;
3) dim Ker(A) = 0.
( Démonstration
En remarquant que A € My(IX) et que les dimensions des espaces de départ et d’arrivée
sont égales pour Vapplication linéaire canoniquement associée & A, il s’agit d’une conséquence
directe du théoréme 15.52 énongant des équivalences similaires pour les applications linéaires. ]
V.6. Rang et transposition
Propriété 18.28
Quelle que soit A € M,,9(K)
ergA=rg'A;
1g A < min(n, p)
( Démonstration
rg(A) = dim Im(#R) = dim Im(R).
rg (‘A) = dim Im (‘R'E) = rg (‘R).
Or Palgorithme de Gauss appliqué A ‘R conduit & la matrice [, bordée de 0, done rg'R = rg R.
On a done bien rg A = 1g'A.
Concernant la deuxitme propriété, elle découle directement du fait que rg A Vous aimerez peut-être aussi