0% ont trouvé ce document utile (0 vote)
71 vues22 pages

PCSI Matrices

Transféré par

Moustakim
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
71 vues22 pages

PCSI Matrices

Transféré par

Moustakim
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF ou lisez en ligne sur Scribd
- Chapitre 18 Matrices de ce chapitre est de faire le lien entre le caleul matrici el d'une part et les espaces £ vectoriels et applications linéaires d’autre part. Ce lien sera assuré en particulier par le théoréme 15.38, Les chapitres 12, 15, 10 et 11 sont A réviser. Notamment, dans le chapitre 11, le paragraphe II.5, sur le produit matriciel, le paragraphe IL.9. sur les propriétés du produit matriciel gles qui ne sont plus valables pour ce produit doiv ot Je suivant sur les 1 wt tre connus, ainsi que les méthodes sur le caleul de l’inverse d’une matric e inversible par exemple. De méme, les p: ‘agraphes IIL, IV. et VI. du chapitre 15 doivent étre parfaitement connus. Dans tout ce qui suit, m et p sont deux entiers naturels non nuls, E et F deux espaces vectoriels de dimensions respectives n et p et (KK, +,.) désigne un corps - pour nous K = R ou K = €. I. Programme officiel Matrices et déterminants Cotte dernitre partie du programme d’algébre linéaire fait le lion entre la représentation géomé- trique (espa ces vectoriels et applications linéaires) et la rep: sentation numérique (matrices) fans le cadre de la dimension finie. [...] Il est attendu des éléves qwils maitrisent les deux registres (géométrique ot numérique), qu’ils sachent représenter numériquement un problime géométrique A Vaide de b daptées ot interpréter géométriquement un probléme numérique CONTENU CAPACITES ET COMMENTAIRES A - Matrices a) Matrices applications linéaires Matrice d'une application linéaire dans un couple Isomorphisme entre L(E,F) et de bases Myp(K) Application au caleul de la dimension de £L(E, F) Calcul des coordonnées de l'image d'un vecteur par une application lin Matrice d'une ire. mpos e dapplications linéaire Lien entre matrices inversibl et isomorphismes. Matrice de passage d'une base & une autre Effet dum changement de base sur la matrice d’un vecteur, d’une application linéaire, d’un endomor- phisme ’b) Noyau, image et rang Pune matrice Applic peige A une on linéaire canoniquement as matrice 350 CHAPITRE 18, MATRICES PCSI, 2019/2020 Image et noyau d'une matrice de Mn p(IK). Interprétation en termes de systémes li- res. Rang d’unc matrice A Le rang d'une matrice ost défini comme le rang du systéme de ses vectours co- lonnes, ou comme le rang de Lendomor- a A, ow phisme canoniquement assoc comme le nombre de pivots de son éche- lonnée réduite. Théoréme du rang Caractérisations des matrices inversibl de noyau, d’image ot de rang 's en termes Conservation du rang par multiplication par une Deux matrices équivalentes par ligne ou matrice inversible. par colonne ont méme rang. Rang de la transposée Le rang d'une matrice est égal au rang de ses lignes, le rang d’un systéme linéaire est égal au rang de sa matrice IL. Rappels et compléments IL1. Matrices diagonales @ Definition 18.1 (Centre (hors-programme)) On appelle centre de M,(IK) l'ensemble des matrices M qui commutent avec toutes les matrices de M,,(K) @ Remarque Le centre de M,(IK) est non vide puisqu’il contient la matrice identité Théoréme 18.2 Le centre de M,(IK) est Vect(J,) De 5 Démonstration hors programme Soit M une matrice du centre de M,(K). Puisgu’elle commute avec toute les matrices de M,(K), elle commute notamment avec les matrices élémentaires. En écrivant cela pour les matrices de dilatation, on montre que M est une matrice diagonale Puis en UVécrivant pour les matrices de transvection, on montre que tous les coefficients diago- nau de M sont égaux, donc qu'il existe X€ K tel que M =X, Réciproquement, une matrice de cette forme commute avec toute matrice donc appartient au centre. 351 CHAPITRE 18, MATRICES , 2019/2020 @ Remarque En particulier les matrices diagonales ne commutent pas avec toutes les ma- trices de M,(K). Sx. 18.1 Calculer AB et BA pour e4-() 2 )ee-(4 i): 12 3-1 wa-(3?)aa-(4 2) Propriété 18.3 Multiplier une matrice A € M,,p(IK) 4 gauche par une matrice diagonale D revient & multi- plier chaque ligne de A par le coefficient diagonal de D de méme indice de ligne Multiplier une matrice A € M,,»(K) 4 droite par une matrice diagonale D revient A multiplier chaque colonne de A par le cocfficient diagonal de D de méme indice de colonne 11.2. Applications linéaires : rappels Théoréme 15.38 : définition d’une application linéaire par les images des vecteurs dune base Soient B = (e:,€2,..-,€n) une base de Pespace vectoriel F (qui est done de dimension finie n) et F = (v1, 02,..,Uy) une famille de n vecteurs de lespace vectoriel F, supposé ici de dimension quelconque, finie ou infinie. Alors il existe une unique application linéaire ¢: E > F telle que Vi € [J;n], (¢,) = uv. Ex. 18.2 Soit f l'application linéaire de £(R*) ot RS est rapporté A sa base canonique (i; j;k) vérifiant (i) 2 33 FO) B+ 4k F(R) Mj — 8k Calculer Ker f et Im f. CHAPITRE 18, MATRICES PCSI, 2019/2020 { Cor. 18.2 ) Soit w= xi + yj + 2k € RS Cherchons (2, y, 2) € R® tels que f(u) = 0 fu) = 2vi—Barj + 3yi-+yj —Ayk+ L1zj—82k (Qr-+3y)it(—3n-+y+112)j + (—4y—82)k 22-4 3y =0 04 -3r4y4llz = 0 dy — Be 0 Qe+dy = 0 4 lly+22z = 0 of * -dy-82 = 0 y= Done Ker f = Veet(3;-2;1) 2. Par ailleurs, Le théordme 15.50 du rang permet d’affirmer que rg f = dimIm f = 3 — ‘F(i) #0 ot f(j) n'est pas colinéaire & f (i) done Im f = Vect( (3); f()) Théoréme 15.52 : caractérisation des isomorphismes en dimension finie Soient £ et F des espaces vectoriels de méme dimension finie et @ € £(E, F) Alors ¢ injective © ¢ surjective ¢ ¢ bijective. II.3. Matrices et systemes linéaires : rappels Soit S un systéme de n équations & p inconnues (11; 12...; zp) € K?. Alors il existe deux matrices A € M,,9(IK) et B © M,,:(IK) telles que a x (21; 22...; 2p) est solution de S si et seulement si X > € M,a(KK) vérilie AX = B associée au systéme et (A|B) matrice augmentée associée au systéme A est appelé Pour résoudre ce systéme, l'une des méthodes possibles est dutiliser l'algorithme de Gauss sur la matrice augmentée (A|B) de sorte & obtenir l'unique matrice (4’|B") réduite par lignes équivalente par lignes & (AJB). On a alors mat © le systéme ne posséde aucune solution si et seulement si la matrice (4’|B’) posséde un pivot dans sa derniére colonne; # le systéme posside une unique solution si et seulement si (A'|2) posstde un pivot dans chacune de ses colonnes A Vexception de la derniére, Généralement, ces systéme ont le méme nombre de lignes ct d’inconnus, auquel cas A’ = J, ; inconnues principales celles possédant un pivot dans leur colonne et ineonnues s ou paramétres les autres eon On appelle rang du syst?me le nombre d’inconnues principales. Si le systéme posside des solutions, les inconnues secondaires peuvent prendre toute valeur dans K et les inconnues principales sont alors entitrement déterminées par la donnée des valeurs des inconnues secondaires. 353 CHAPITRE 18, MATRICES PCSI, 2019/2020 IL.4. Sous-espaces vectoriels et notion de dimension : synthése Il faut connaitre tous les espaces vectoriels de référence dont un résumé se trouve dans le chapitre 15, section 113. ( Pour montrer que F est un sous-espace vectoriel de E ¢ On peut montrer que *FCE * Ope F » F est stable par combinaisons linéaires, c’ VW(u;v) © F?,V(As 4) € K?, Aw + ww € F = GOH ot G et H sont deux sous-espaces vectoriels connus @ On peut montrer que de E. ¢ On peut montrer que F = G+ H ot G et H sont deux sou: de E. ‘¢ On peut montrer que F = Vect(F) o& F est une famille finie de vectours de E. On peut montrer que F = Ker ot u € £(B, E’) vectoriels connus ¢ On peut montrer que F = v(A) ot v € £(B", B) ot A est un sousespa En { Notion de dimension © On dit que E est un espace vectoriel de dimension finie sil existe une famille finie génératrice de E. Dans ce cas, le théor’me d’extraction de base garantit que l'on peut extraire de cetti famille une sous-famille é la fois génératrice et libre : E pos ade done une base. ‘« Le lemme fondamental permet alors de montrer que toutes les bases d’un méme espace vectoriel ont méme nombre de vecteurs : ce nombre est caractéristique de espace vectoriel et s‘appelle dimension de V'espace vectoriel. « Si F est un sous-espace vectoriel de E et s'ils sont tous les deux de dimension finie alors dim F < dim E De plus, si dim F = dim F alors F = « Formule de Grassmann : F ct G étant deux sous-espaces vectoriels de F (de di- mension finie), dim(F + G@) = dim F + dimG -dimF 0G Soient FE et F deux espaces vectoriels de dimension finie et u € £(E, F) + Par définition, Im x ost un sous-espace veetoricl de F. Done rgu = dim Imu < dim F + L’mage par u d’une famille génératrice de E est une famille génératrice de Im Done rgu = dim Imu < dim E. 354 CHAPITRE 18, MATRICES PCSI, 2019/2020 + west surjective si et senlement si Imu =F. Dans ce cas, on a done rg u = dim Imu = dim F < dim B, * Théoréme du rang : dimImu + dim Keru = dim E. * 1 est injective si et soulement si Ker u = {0} Dans ce cas, on a done gu dim £ < dim F. Une application linéaire bijective est appelée isomorphisme lorsque Ef F, ou automorphisme lorsque E = F. Deux espaces vectoriels sont dits isomorphes s’il existe un isomorphisme dim Imu entre ces deur espaces vectoriels. + Si B ot F sont isomorphes, alors il existe une application linéaire bijective de E dans F : Waprés ce qui précdde, on a done dim E < dim F < dim B e’est-A-dire dim E = dim F. + west bijective si et seulement si l'image de toute base de # est une base de F. Bx. 18.3 Soient n € N*, B= R,[X], 6: PE Bro P(X +1) €E. 1) Quelle est la dimension de Ry[X]? 2) Montrer que ¢ est linéaire, 3) Calculer Fimage par ¢ de la base canonique de E. 4) Montrer que ¢ est un automorphisme 5) Caleuler 6(Q) ot Q = >( L ) 1)-EX* En déduire des propridtés des coefficients = binomiaux, { Cor. 18.3 ) 1) dimR,[X] 2) Soient P et Q deux polynémes de B, d, 4 deux réels. GAP + HQ) = AP(X +1) + HQ(X +1) = AB(P) + H9(Q) Done ¢ est linéaire, 3) Soit k € [0;nJ a X® Je e k + 9(X*) = (X +1) >(‘)» Notamment deg é(X*) = k. n+l. 4) image par ¢ de la base canonique est la famille F = (1; X +1; (X +1)?;..3(X +1)") qui est une famille de n + 1 polynémes de R,[X’] échelonnée en degrés. C'est done une base de Rn[X]. Done ¢ est bijective (elle envoie une base sur une base), linéaire, de E dans E : c'est un automorphisme de E. 5) Calculons 4(Q) ot Q >( i ) (-1)"-*x¢. Remarquons que Q = (X — 1)". Done #(Q) = (X +1-1)" =X". On aurait aussi pu utiliser la linéarité de @ 355 CHAPITRE 18, MATRICES PCSI, 2019/2020 afin n k (Q) = iy" *e(X*) = ayn kxt “@) z(1): ) a ) SIC) ’ En utilisant ces deux expressions de #(@Q), on en déduit donc que © vic [O;n— 1], Z(:)(:Jor © Pour isn xa(7)(*)¢ yk a IL. Les diverses interprétations vectorielles des matrices / TII.1. Matrice d’un vecteur dans une base @ Definition 18.4 Soient # un K-espace vectoriel de dimension n, B — (¢1,¢2,...,¢n) une base de E et u un vecteur de E. On appelle matrice de w dans B la matrice (Hien ou @ Notation | On note Mats(u) la matri ie u dans B. Ex. 18.4 Dans R®, on note B la base canonique et w Matg(u) = ( Cor. 18.4 Mats(u) =| 3 2 XL Ex. 18.5 Dans Ry[X), on note € la base canonique et P = (X +1)" =O Jecaan Mate(P) CHAPITRE 18, MATRICES , 2019/2020 { Cor. 18.5 Mate(P) = =( ( oy Vas 1 X / IIl.2. Matrice d’une famille de vecteurs @ Definition 18.5 Soient E un K-espace vectoriel de dimension n, B = (e1,€2,...,€n) une base de E et S = (wy, ta, .., Up) une famille de p € IN* vecteur(s) de E. On appelle matrice de S dans B la matrice (uisicn avec ¥j € [yp] uy = Dy uiszes a ep Antrement dit, Matg(S) est la matrice (U;|U2|...|U,) des colonnes U; composées des coordon- ni des u; dans B. Notation On note Matg(S) la matrice de S dans B. Lorsque la famille $ ne contient qu'un seul vecteur u, la matrice de la famille est celle du vecteur, Ex. 18.6 Dans R®, on note B la base canonique et S = ((1;0;3); (—1;-1;2)) Matg(S) { Cor. 18.6 ) 1-1 Mats(S)=| 0 -1 32 Xu / Bx. 18.7 Dans Ra[X), on note C la base canonique et F = (X*(1—X)"*),ctonp M = Mate(F) = =-( Jecpinet Je[inel] Calculer x( i )x*a X)"-*, En déduire une propriété vérifiée par les colonnes de M. = CHAPITRE 18, MATRICES , 2019/2020 { Cor. 18.7 ) 1 0 00 —n 1 M =Mate(F) = (ayn (-1)"-"(n-1) 1 0 (ay (aye 1. 1- Done M=[(-s( "t1~4 en posant | ? )—0 pour k <0. ay eft] k jebin i De phis > L )x0 = xy (x+1-Xx)"=1 aS Done les colonnes C1, C2, .., Cui de M vérifient 1 a(sJou( Important ! La matrice d'une famille S dépend de la base B dans laquelle on décompose les vecteurs de S. Pour cette raison, il ne faut pas oublier de préciser dans quelle base s'effectue la décomposition : Matg(S) III.3. Matrice d’une application linéaire @ Definition 18.6 Soient E et F deux IK-espaces vectoriels de dimensions finies avec p = dim E € Nv dim F € IN* Soient B = (e1, €2,.... €p) et BY = (fay fay ns fn) des bas es de E et F. D’aprés le théoréme 15.38, il existe une unique application linéaire ¢ telle que etna es resp Vi € Dipl. o(6) = Drak On appelle matrice de ¢ relativement 4 B et B’ la matrice (aj,;): (x+y; —2r + 3y) € R? relativement aux bases canoniques B ct BY de RS ct R?? Matg.5(v)) = Quelle est l'application linéaire y - R’ + RS associée & la matrice M = 1 0. | donnée dans la base canonique de R? xyz) ( Cor. 18.8 ‘ 110 Matg,er(v) = weni=(3,28) x(a: y5 2) = (Te — y + 22; 3x + y; de + Sy — 62). Ex. 18.9 On reprend application ¢ : P € R,[X] 9 P(X + 1) de Pexercice 18.3. Donner la matrice de ¢ dans la base canonique de R,[X)]. { Cor. 18.9 ) 1 1 0 2 Matg(¢)=]| 9 0 1 00 0 1 III.4. Cas particul @ Notation Lorsque ¢ est un endomorphisme de E rapporté A une base B, @:... +... on note plus simplement Mats(@) = Mats,s(¢) -a-dize lorsque 359 CHAPITRE 18, MATRICES , 2019/2020 Important ! Il est cependant possible de rapporter un mér Bet Bet d’ de départ et & B’ pour leurs images : Matg»($) pour ¢ € L(E). Nous verrons méme pace vectoriel EA deux bases différentes ne crire la matrice d'un endomorphisme @ de E rapporté 4 B pour les v plus loin que cette possibilité offre une excelente interprétation géométrique aux matrices carrées inversibles ! © Définition 18.7 On appelle application linéaire canoniquement associée & une matrice A € My p(KK) Vapplication ¢ € £(..,...) dont la matrice relativement aux bases canoniques Bde .. et BY de est A 12 Ex. 18.10 Quelle est application linéaire canoniquement associée & A — | 3 4 |? Estelle 5 6 injective? Quel est son rang? ( Cor. 18.10 ) dalzi) = (2+ 2y;32 + 4y;52 + 6y) © RY C'est une application injective car ¢4(x;y) = (0; 0; 0) = (x;y) = (0;0) (systéme immédiat) Enfin, le théoréme du rang permet d'affirmer que rg 4 = dim R? — dim Ker = 2. J IIL.5. Remarques 1) Si on change les bases des ensembles de départ ou d’arrivée d’une application linéaire, la matrice associée & Vapplication linéaire est complétement modifiée ! 2) La matrice de l'application nulle est la matrice nulle quelles que soient les bases des espaces de départ et darrivée. 3) MAIS, la matrice de Vapplication identité E > F n’est la matrice identité que si E est rapporté 4 la méme base au départ et 6 Varrivée! Matg(Idy) = J, pour dim B = n. . RX] + R,|X Ex. 18.11 Soit ¢ {i oP Bi = (X(X — 1), X(X + 1);(X — (X +1) de Ra[X] Ecrire Mats(¢), Matg.s:(4) et Matpr(d). et les bases B = (1; XX?) et ( Cor. 18.11 (1) =0 O(X)=1 o(X*) = 2x. 010 Done Matg(¢)=] 0 0 2 oo00 Pour obtenir Mates »/(d), il faut obtenir les coordonnées de #(X) = 1 ot 6(X?) = 2X dans BY Soit 1 = aX(X — 1) +0X(X +1) +X —1(X +). 360 CHAPITRE 18, MATRICES , 2019/2020 En évaluant en —1, 0 et 1, on obtient a= 1/2, b= 1/2ete= De méme, on obtient X = 54X(X — 1) + 3X(X +1) +0 x (XK —1)(X +1) 01/2 -1 Done Matse(¢) =| 0 1/2 1 an) Enfin, de la méme maniére, on obtient 24- Mate(¢)=| $$ 1 1-1 0 X / IlL.6. Théoréme d’isomorphisme Théoréme 18.8 (Admis) Soient £ et F deux K-espaces vectoriels de dimensions respectives p et n rapportés respecti- vement aux bases B et B! L(B,F) 4 Mnp(IK) L’application © ppl ¢ + Q(¢) = Mats.5(d) est un isomorphisme d'espaces vecto- riels, Corollaire 18.9 Pour B et F doux K-espaces vectoriels de dimensions respectives p et n, £(B, F) est de dimension finie et dim £(B, F) = dim M,,)(IK) = n x p = dim E x dim F. IL.7. Image d’un vecteur par une application linéaire Proposition 18.10 Soient B et F deux K-espaces vectoriels de dimensions respectives p et n rapportés respecti- vement aux bases B= (€}, €2,... €p) et BY = (fi, farm fa) & € L( n , F) associée a la matrice 2 M = Matg,s:(¢) € Mn.p(K) et u € E de coordonnées X = € M,,.(K) dans B py Alors les coordonnées de ¢(u) € F dans B’ sont les coefficients de MX. { Démonstration ) Soit u de coordonnées (1, 2, .., tp) dans B Par lingarité, 6(u) = D7 256(c)) A Or, par définition, (e;) =) mf 361 CHAPITRE 18, MATRICES PC Done 4(u) = >? (= my, is) fr a pour coordonnées (= min) dans B’ maa ja icin} {_On reconnait la définition des coctficionts du produit MX, ce qu'il fallait démontver. , 2019/2020 J Ex. 18.12 Quelle est l'image du vecteur (—2; 1) par l'application linéaire canoniquement associée 12 aA 3.4 4? 56 ( Cor. 18.12 ) | Done Vimage du vecteur (—2;1) est (0; ~2;~4), IIL8. Deuxiéme interprétation du produit matriciel Proposition 18.11 Soient E et F deux K-espaces vectoriels de dimensions respectives p ot n rapportés respecti- vement aux bases B = (¢1, €2,....¢9) et BY = (fi, fry fa), @ € £(B, F) associée & la matrice M = Matse(¢). Soit par ailleurs S$ = (w1, ua, .., tq) une famille de q € IN S = Mate(S) Alors ecteur(s) de E associée & la matrice MS = Mats.5(¢)Mats(S) = Mater(¢ (111), ¢ (ta) , 1 (tg) = Mate(o(S)) Démonstration En vertu du théoréme précédent, il s’agit simplement de la traduction du théoréme 11.9 affix mant que pour si A € M,,p(K), B = (U,|U)]...|U,) © Mpo(K) on a AB = (AU,|AU})...|AU;) III.9. Troisi¢me interprétation du produit matriciel Proposition 18.12 Soient E, F et G trois K-espaces vectoriels de dimensions respectives 9, p et n rapportés respectivement aux bases B= (€1, €2, 9), BY = (fis fay fp) 0 BY = (91, 92; 1 In) Soient 6 € £(E,F) et ¥ € L(F,G) Alors Matg,pr(¥ 0 ¢) = Maty,5”()Mats.»() 362 CHAPITRE 18, MATRICES PCSI, 2019/2020 { Démonstration ) [Link](¥ © ¢) Matsr(¢ © ¢(B)) par définition Mate:5”(¥)Mats(o(B)) d’aprés le théortme précédent = Matey.(¥)Mate,s(¢) par définition Bx. 18.13 On reprend application § : P € Ra[X] 4 P(X +1) de Vexercics On définit de plus @ : P € R,[X] +> P(X ~ 1). Que peut-on dire de dow? de yoo? Donner la matrice A = Mate(¢), B = Mate(\) puis caleuler AB et BA 18.3. { Cor. 18.13 Gow = ide ct Yow = ide : ce sont deux bijections réciproques une de autre. -1 A= Mate(#) = (( J L )) par définition et agefintlp (or Enfin AB = Mate( 0) = Mate(id) BA = Mate(¥ 0 4) = Mate(id) = Ins B= Mate( IIL.10. Cas particuliers 1) Sid et W sont des endomorphismes de # rapporté A B alors Mats(yod) = Mats (q)Mats() ct Matg(¢ oY) = Matp(d)Matg(2}) : le produit matriciel n'est pas commutatif ear 2) Si dest une forme linéaire de E rapporté B alors Matg,a)(¢) = ( ) une matrice-ligne s’interpréte naturellement comme IV. Isomorphismes et changements de bases IV.1. Caractérisation des isomorphismes par leur matrice Théor’me 18.13 Soient H et F deux K-espaces vectoriels de méme dimension n rapportés respectivement aux bases B= (€1, €2,...) €n) et BY = (fis far» fn). @ € £(E,F) est bijective si et seulement si Mate,s(¢) € GLn (IK). On a de plus dans ce cas, Matgys(@*) = Mats,5(¢) { Démonstration Sens direct : supposons @ € L(K,F) est bijective avec B et F de méme dimension n rapportés aux bases données par I'énoneé. Alors, d’aprés la proposition 18.12, on a 363 CHAPITRE 18, MATRICES PCSI, 2019/2020 Matg,s(¢7! 0 ¢) = Matgy,s (¢-!) Mats.e/(¢) d’une part et Matp,»($7' o ¢) = Mate.x(ide) = I, d’autre part. De méme, en écrivant la matrice de @ o @~? dans B' on obtient Mats,s-(¢)Mateys (@72) = In. Done Mats, .(@) est inversible et Mats.5(4)"! = Mate.5 (6°!) Réciproquement : supposons que A = Matg.s(¢) € GL, (KK). Soit B = A-? et y V'application linéaire de F dans E définie par Matgys() = B. Alors en écrivant les produits AB = I, et BA = I, comme matrices des composées de ¢ et b on montre que ¢ est bijective et que ¥ = $7) que ¢ est bijective et que v J IV.2. Caractérisation des matrices inversibles Proposition 18.14 A€ M,(K) est inversible ¢ 3B € M,(K), AB = I, 3B € M,(K), BA = In. { Démonstration On montre la premidre équivalence, la seconde se montrant de fagon similaire eulement si 3B ¢ M,(IK), AB = Le sens dizect est évident puisque A est inversible si BA=I, Réciproque : supposons que AB = I, et soient ¢ et y les applications linéaires canoniquement associées aux matrices A et B. Alors l'égalité AB = I, s’écrit Mate(y 0) = Matc(id) oi C est la base canonique de K" Done $0 y = id ot ¢ est surjective, q injective Done d’apris le théoréme 15.52, ¢ et ¥ sont bijectives et réciproques l'une de Vautre On conclut en ¥ sant le théorbme précédent. IV.3. Matrices de passage © Definition 18.15 Soient E un K-espace vectoriel de dimension n et B = (¢1,€2,-.;&n) eb BY = (fy fay Sn) deux bases de E. On appelle matrice de passage de la base B 4 la base B' la matrice Mats (B’) Autrement dit, la matrice de passage de B a B! est la matrice de la famille B’ exprimée dans la base B. @ Notation | On Ia note PS 364 CHAPITRE 18, MATRICES , 2019/2020 @ Remarque On a aussi PE’ = Maty (B’) = Mates (Ide) Notamment, toutes les matrices de passage sont. En effet, IV.4. Propriétés des matrices de passage ;é 18.16 (Inverse d’une matrice de passage) Soit H un K-espace vectoriel de dimension n et B= (€3, €3,-.&n) et BY = (fi, faye fr) deux bases de B. Alors (PB) = PE { Démonstration (PRY" = Mate (B* par définition = Mates (Ide)! Mates,p (Idj') Mats (B) = PE x ® J Propriété 18.17 (Produit de deux matrices de passage) Soit un K-espace vectoriel de dimension n et B, BY et BY trois bases de E. Alors Pe PE = Pe ( Démonstration PE PE Mats (B’) Matg: (B”) par définition Matg:s (Ide) Matgw,e (Ids) = Matern (Ide) Mats (B") = Pe XK Ex. 18.14 @ Dans R?, on note B la base canonique et B’ = ((1; 1); (2;3)) ve-( )att-(_ Jo Dans Ro(X}], avec B la base canonique, B! = (X(X +1); X(X +2);(X +1)(X +2) et BY = 1;.X;2X? — 1). PE et PB” = car Calculer les auitres matrices de passage entre les différentes bases données, CHAPITRE 18, MATRICES , 2019/2020 { Cor. 18.14 ‘ . ve -(} j)ere-(2. 5 : 7) a = 3(1;1) —(2;3) et (0;1) = —2(1; 1) +(2;3) 002 10 -1 eo PP={ 12.3 fe PR =| 01 0 | car X(X+1)=0+1.X41.X7, X(X+2)= 1d 00 2 OF2X FLX? et (X+I(X 42) = 243.X 4+ 1.X2 Pour obtenir les autres matrices de passages, il faut obtenir de chaque base dans une autre base. Par exemple, 1 = aX(X +1) +bX(X +2) + lx + 1)(X +2). On cherehe (a;.; e) € R¥ Pour cela on évalue en X =0: 20=1> En X =-1:6=-1. Eten X¥ =-2:a=}4, On fait de méme pour X et X? et on obtient 12 1. -1 4 0 0 On a aussi PEP" = PE" $ -1 2 10 Done Pg" = 11-1 o1o0 f= 11-1 1 0 oJ\oo 2 Bo 2 Pour les matrices P§, et PE,, on peut par exemple inverser les matrices PE" et PB” 1 BL PE - IV.5. Formules de changement de bases Proposition 18.18 (Formule de changement de bases pour un vecteur) Soient 2 un K-espace vectoriel de dimension n de bases B et BY Yu € B, Mats:(u) = PEMatg(u) = Maty:(B)Mata(u) ( Démonstration On reprend les notations de énoneé, Soit u € B. Alors PEMats(u) = Mats.p (Ide) Mats(u) Mate (Idg(u)) d’apris la proposition 18.10 = Mate: (u) J 4 dans les trois bases Bx. 18.15 (Cor.) _ Exprimer les coordonnées du polynéme P = 3X? +5X de Fexemple précédent. Proposition 18.19 (Formule de changement de bases pour une application linéaire) Soient E de bases B et B’ et F de bases C et C’ deux K-espaces vectoriels de dimensions respectives p et n. 366 CHAPITRE 18, MATRICES PC , 2019/2020 On note P = PE et Q = PE Vo € £(E, F), Matwc(d) = P&Matac(¢)P8 = QMats.c(4)P De 5 Démonstration On reprend les notations de l’énoncé. Alors PSMatge(¢)PE = Mate: (Idp (C)) Matg.e(¢)Mats (Idg (B")) = Mate (Idp © 60 Idg (B’)) Matsc'(@) Proposition 18.20 (Formule de changement de bases pour les formes linéaires) Soit E un K-espace vectoriel de dimension n de bases B et B' On note P = PE ¥¢ € £(B, K) , Mate($) = Mate(9) PS" = Mats(¢)P Proposition 18.21 (Formule de changement de bases pour les endomorphismes) Soit E un K-espace vectoriel de dimension n de bases B et B’. On note P = PE’ et A= Mate(¢) V¢ € £(E), Mate/(d) = P8Mats(¢)P8 = PAP IV.6. Matrices inversibles : résumé Soit A € M,,(K). Les propristés suivantes sont équivalentes 1) A cst inversible; 2) SB e M,(K), AB = I, 3) BBE M,(K), BA= I, 4) Vapplication linéaire ¢ - K” ++ IK” canoniquement associée A A est bijective; 5) A est une matrice de passage entre deux bases de K" 7) AV = Ogg admet une unique solution Og» € K” ) 6) VW € Kk", AV = W admet une unique solution V € K"; ) Méthode En pratique, pour déterminer linverse dune matrice A, on utilise 'avant-derniére propriété qui revient 4 résoudre un sy teme de n équations 4 n inconnues : ou bien (Al,) y (In|B) et A est alors inversible et A~? = B, ou bien le systéme est de rang strictement inférieur A n et A west pas inversible. Une autre méthode fructucuse est Vinterprétation de la matrice A comme matrice d'une ap- 367 CHAPITRE 18, MATRICES , 2019/2020 |_ plication linéaire ou comme matrice de passage. ) {plication linéaire ou comme ice de passage. r A Méthode Pour montrer qu'une famille de n vecteurs est une base d’un espace vectoriel de dimension ‘n, il suffit de montrer que la matrice des coordonne de cette famille dans une base { donnée est une matrice inversible J) be - by + 2a 5 1 Ex. 18.16 Résoudre lesyst?me 4 -2r + y — 2 = v etendéduire inverse de 1 dr y te =w 1 ( Cor. 18.16 ) On obtient 3 1 9 4 21-1} =[0 2 1 4-12 2-17 7 XK ) V. Noyau, image et rang d’une matrice V.1. Noyau et image d’une matrice @ Définition 18.22 Soit A € M,, (IX) et ¢: K? + Ik” Papplication linéaire canoniquement associée & A. On appelle noyau de la matrice A le noyau de ¢. On appelle image de la matrice A Vimage de ¢. @ Notation | On note, comme pour les applications linéaires, Ker(A) le noyau de A et Im(A) l'image de A. @ Remarque Avec les notations de la définition, Ker(A) est un sous-espace vectoriel de KK? et Im(A) un sous-espace vectoriel de IK” V.2. Conservation de la dimension du noyau et de l'image par multi- plication par des matrices inversibles Proposition 18.23 Soient A € M,,p(IK) et M € GL,(K), N € GL,(IK) deux matrices inversibles. Alors dim Ker(A) = dim Ker(MA) = dim Ker(A) 368 CHAPITRE 18, MATRICES , 2019/2020 et dim Im(A) = dim Im(MA) = dim Im(AN) Démonstration Démontrons la pr K" application canoniquement associée & A ety: K" + IK" Pautomorphisme canoni associé AM. On au € Ker(MA) v(¢(u)) = 04 o(u) = 04 w€ Ker(A) car ¥ est bijective. Done dim Ker(A) = dim Ker( A) XL V.3. Rang d’une matrice : rappel Nous avons défini au chapitre 11 section V.5. le rang dune matrice de la fagon suivante @ Definition 18.24 | On appelle rang d'une matrice A le nombre de pivots de l'unique matrice échelonnée réduite par lignes équivalente par lignes & A Or le nombre de pivots d'une matrice échelonnée réduite par lignes est de fagon évidente égale 3 la nsion de l'image de cette matrice. D'aprés la proposition précédente, c'est aussi la dimension de nage de A puisque on passe de A a Punique matrice échelonnée réduite par lignes équivalente par matrices élémentaires inversibles. Done une définition alternative lignes & A on multipliant par du rang d'une matrice est @ Définition 18.25 | On appelle rang d'une matrice A la dimension de son image : xg(A) = dim Im(A) @ Remarque | Le rang de A € Myp(IK) est done aussi le rang de la famille de ses vecteurs colonnes dans K” V.4. Théoréme du rang : version matricielle ‘Théoréme 18.26 (Théoréme du rang) Soit A € M,,(K). Ona rg(A) + dim Ker(A) = p V.5. Caractérisations des matrices inversibles 369 CHAPITRE 18, MATRICES , 2019/2020 Théoréme 18.27 Soit A €.M,(IK). Les propriétés snivantes sont équivalentes 1) Ast inversible ; 2) ral) =n; 3) dim Ker(A) = 0. ( Démonstration En remarquant que A € My(IX) et que les dimensions des espaces de départ et d’arrivée sont égales pour Vapplication linéaire canoniquement associée & A, il s’agit d’une conséquence directe du théoréme 15.52 énongant des équivalences similaires pour les applications linéaires. ] V.6. Rang et transposition Propriété 18.28 Quelle que soit A € M,,9(K) ergA=rg'A; 1g A < min(n, p) ( Démonstration rg(A) = dim Im(#R) = dim Im(R). rg (‘A) = dim Im (‘R'E) = rg (‘R). Or Palgorithme de Gauss appliqué A ‘R conduit & la matrice [, bordée de 0, done rg'R = rg R. On a done bien rg A = 1g'A. Concernant la deuxitme propriété, elle découle directement du fait que rg A

Vous aimerez peut-être aussi