0% ont trouvé ce document utile (0 vote)
217 vues15 pages

Matrices et Systèmes Linéaires

Ce document décrit les matrices et les opérations sur les matrices, comme l'addition matricielle, la multiplication par un scalaire et le produit matriciel. Il définit ce qu'est une matrice, ses coefficients, lignes et colonnes. Il présente également les matrices élémentaires.

Transféré par

eudesnaec
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
217 vues15 pages

Matrices et Systèmes Linéaires

Ce document décrit les matrices et les opérations sur les matrices, comme l'addition matricielle, la multiplication par un scalaire et le produit matriciel. Il définit ce qu'est une matrice, ses coefficients, lignes et colonnes. Il présente également les matrices élémentaires.

Transféré par

eudesnaec
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Christophe Bertault — Mathématiques en MPSI

MATRICES ET SYSTÈMES LINÉAIRES

Dans tout ce chapitre, K est l’un des ensembles R ou C et les lettres n, p, q. . . désignent des entiers naturels non nuls.

1 MATRICES ET OPÉRATIONS SUR LES MATRICES

1.1 MATRICES, ADDITION MATRICIELLE ET MULTIPLICATION PAR UN SCALAIRE

Dans le titre de ce paragraphe, le mot scalaire signifie « nombre réel ou complexe ». Nous l’utiliserons quotidiennement
dans quelques temps quand nous ferons de l’algèbre linéaire.

Définition (Matrice, coefficients, lignes, colonnes, matrice nulle)


• Matrice : On appelle matrice de taille n × p à coefficients dans K toute famille A de np éléments de K présentée
 
a11 a12 · · · a1p
a21 a22 · · · a2p 
comme un tableau  b

b
 noté aussi ai j 1¶i¶n , où ai j ∈ K pour tout (i, j) ∈ ¹1, nº × ¹1, pº.
b

b
b

b b
1¶ j¶pb

an1 an2 · · · anp !


a1 j
Pour tout (i, j) ∈ ¹1, nº × ¹1, pº, le scalaire ai j est appelé coefficient de A de position (i, j), la matrice est
b

an j
appelée la j ème colonne de A et la matrice (ai1 · · · aip ) est appelée sa i ème ligne.
• Formes particulières : L’ensemble des matrices de taille n × p à coefficients dans K est noté Mn,p (K).
— Pour n = p, on parle de matrices carrées de taille n et la notation simplifiée Mn (K) est alors préférée. La
famille (a11 , a22 , . . . , ann ) est alors appelée diagonale de A.
— Pour p = 1, on parle de matrices colonnes de taille n, et pour n = 1, de matrices lignes de taille p.
• Matrice nulle : La matrice de taille n × p dont tous les coefficients sont nuls est appelée la matrice nulle de
Mn,p (K) et notée 0 — parfois 0n,p quand on veut être précis.

À vrai dire, une matrice M de taille n × p à coefficients dans K n’est jamais qu’un élément de K¹1,nº×¹1,pº , i.e. une
famille (mi j )(i, j)∈¹1,nº×¹1,pº d’éléments de K indexée par ¹1, nº × ¹1, pº, c’est-à-dire encore une application (i, j) 7−→ mi j de
¹1, nº × ¹1, pº dans K. En résumé Mn,p (K) = K¹1,nº×¹1,pº .
L’usage veut qu’on utilise le plus possible la lettre i pour indice des lignes et la lettre j pour indice des colonnes. En outre,
par convention dans ce cours, si A (majuscule) est une matrice de taille n × p, nous noterons généralement ai j (minuscule)
le coefficient de A de position (i, j) — mais parfois aussi Ai j .
1 4
  
i 0
Exemple La matrice 2 5 est réelle de taille 3 × 2, la matrice 2 3+i
est carrée complexe de taille 2.
3 6

Définition (Addition matricielle et multiplication par un scalaire) Pour tous A, B ∈ Mn,p (K) et λ, µ ∈ K, on note
λA + µB la matrice : !
λa11 + µb11 ··· λa1p + µb1p
λA + µB = , appelée une combinaison linéaire de A et B.
b b

b b

b b

λan1 + µbn1 ··· λanp + µbnp

     
2 1 1 1 4 1
Exemple 3 0 4
− 2 −2 3
= 4 6
.

Définition (Matrices élémentaires) Pour tous i, j ∈ ¹1, nº × ¹1, pº, on note souvent Ei j la matrice de Mn,p (K)
dont tous les coefficients sont nuls à l’exception du coefficient de position (i, j), égal à 1. Ces matrices sont appelées les
matrices élémentaires (de Mn,p (K)).

1
Christophe Bertault — Mathématiques en MPSI

Les matrices élémentaires de M2,3 (R) sont :


           
1 0 0 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0
E11 = 0 0 0 , E21 = 1 0 0 , E12 = 0 0 0
, E22 = 0 1 0
, E13 = 0 0 0
et E23 = 0 0 1
.

Il est assez clair que toute matrice M ∈ M2,3 (R) est combinaison linéaires de matrices élémentaires :
        X
m m m 1 0 0 0 0 0 0 1 0
M = m11 m12 m13 = m11 0 0 0 + m21 1 0 0 + m12 0 0 0 + . . . = mi j E i j .
21 22 23
X 1¶i¶2
1¶ j¶3
Plus généralement, pour toute matrice M ∈ Mn,p (K) : M = mi j E i j .
1¶i¶n
1¶ j¶p

1.2 PRODUIT MATRICIEL

 
Définition (Produit matriciel) b11 ··· b1r

Pour tous A ∈ M p,q (K) et B ∈ Mq,r (K), on note A × B  


‚ q Œ  b

b
b

b

X Produit  b b


ou AB la matrice aik bk j de taille p × r. et somme bq1 ··· bqr
k=1 1¶i¶p
1¶ j¶r
 q q

  X X
a11 ··· a1q a1k bk1 ··· a1k bkr
 
   k=1 k=1 
 b b
  b b

 b

b
b

b
  b

b
b

b

 q
X q
X 
ap1 ··· apq apk bk1 ··· apk bkr
k=1 k=1

     
2 1 4 −1 5
1 0 1
Exemple 1 3 × 2 −1 3
= 7 −3 10 .
2 0 2 0 2

$ Attention !
• Le produit de deux matrices n’est pas défini en général s’il n’y a pas, comme on dit, compatibilité des formats :

Matrice de taille p × q Matrice de taille q × r Matrice de taille p × r

Cas particulier remarquable, le monde Mn (K) des matrices carrées de taille n est stable par produit :

Le produit de deux matrices carrées de taille n est encore une matrice carrée de taille n.

• Le produit matriciel n’est pas commutatif — même en cas de compatibilité des formats ! Par exemple :
         
1 1 0 0 1 0 0 0 0 0 1 1
0 1 1 0
= 1 0
6
= 1 1
= 1 0 0 1
.
    
0 1 1 1 0 0
• Un produit de matrices peut être nul sans qu’aucune d’entre elles le soit. Exemple : 0 0 0 0
= 0 0
.

Théorème (Produit matriciel et lignes/colonnes) Soient A ∈ Mn,p (K), i ∈ ¹1, nº et j ∈ ¹1, pº.
 
0
b

  b

A ×  1
  est la j
ème
colonne de A. (0 · · · 1 · · · 0) × A est la i ème ligne de A.
b

Position j Position i
b

0 p
X
Plus généralement, pour tout X ∈ M p,1 (K), en notant C1 , . . . , C p les colonnes de A : AX = x j Cj. E SSENTIEL !
j=1

Démonstration Simple calcul ! Il faut que ce petit résultat coule dans vos veines.

Par convention, quand une matrice contient beaucoup de zéros, on omet souvent de les noter par souci de lisibilité.

2
Christophe Bertault — Mathématiques en MPSI

Théorème (Propriétés du produit matriciel, matrice identité)


• Associativité : Pour tous A ∈ M p,q (K), B ∈ Mq,r (K), C ∈ M r,s (K) : (AB)C = A(BC).
• Bilinéarité : Pour tous A, B ∈ M p,q (K), C, D ∈ Mq,r (K) et λ, µ ∈ K :
(λA + µB) C = λAC + µBC et B (λC + µD) = λBC + µBD.  
1
• Élément neutre : On appelle matrice identité (de taille n) la matrice carrée de taille n : In = b

b .
1
Pour toute matrice A ∈ Mn,p (K) : I n A = AI p = A.

Démonstration Pour l’associativité, soit (i, j) ∈ ¹1, pº × ¹1, sº.


Xr X r X q  X q
r X q X
X r

(AB)C i j = (AB)il cl j = aik bkl cl j = aik bkl cl j = aik bkl cl j
l=1 l=1 k=1 l=1 k=1 k=1 l=1
q
X X
r  Xq

= aik bkl cl j = aik (BC)k j = A(BC) i j .
k=1 l=1 k=1

Exemple Soit A ∈ Mn (K). Si on note s la somme de tous les éléments de A et J la matrice carrée de taille n dont tous les
coefficients sont égaux à 1, un simple calcul montre que JAJ = sJ .

À présent, pour une simple raison de compatibilité des formats, une matrice ne peut être multipliée avec elle-même que
si elle est carrée. Pour une telle matrice A ∈ Mn (K), on peut ainsi parler des puissances de A :
Ak = A × A × . . . × A pour tout k ∈ N∗ et A0 = I n .
| {z }
k fois
‚1 · · · 1
Œ
Exemple Si on note J la matrice carrée de taille n, alors pour tout k ∈ N∗ : J k = nk−1 J .
b b

b b

b b

1 ··· 1
Démonstration Remarquer d’abord que J 2 = nJ , puis raisonner par récurrence.

Définition (Matrice nilpotente) Soit A ∈ Mn (K). On dit que A est nilpotente si Ap = 0 pour un certain p ∈ N∗ . Le
plus petit entier p pour laquelle cette identité est vraie est appelé l’indice de nilpotence de A.

   2    k  
0 1 0 1 0 0 0 1 0 0
Exemple La matrice 0 0
est nilpotente car 0 0
= 0 0
. A fortiori, pour tout k ¾ 2 : 0 0
= 0 0
.

Théorème (Formule du binôme et formule Ak − B k ) Soient A, B ∈ Mn (K). On suppose que A et B COMMUTENT, i.e.
que AB = BA.
Xk  ‹ X
k−1
k k i k−i
(A + B) = AB (formule du binôme) et Ak − B k = (A − B) Ai B k−i−1 .
i=0
i i=0

Démonstration Même preuve qu’en début d’année avec des nombres complexes.

$ Attention ! L’hypothèse selon laquelle A et B commutent est essentielle, c’est déjà très clair pour k = 2 :
AB = BA AB = BA
(A+ B)2 = (A+ B)(A+ B) = A2 + AB + BA+ B 2 = A2 + 2AB + B 2 et (A+ B)(A− B) = A2 − AB + BA− B 2 = A2 − B 2 .

   
1 1 2 1 k 2k
Exemple On pose A = 0 1 0 . Pour tout k ∈ N : Ak = 0 1 0 .
0 0 1 0 0 1
0 1 2

Démonstration Écrivons A = I3 + N avec N = 0 0 0 . Les matrices I 3 et N commutent car I3 commute avec
0 0 0
toute matrice carrée de taille 3. En outre, N est nilpotente car N 2 = 0, donc N i = 0 pour tout i ¾ 2. Finalement,
X k  ‹ 1 k 2k
k i k−i
pour tout k ∈ N : Ak = I3 N = I3 + kN = 0 1 0 .
i=0
i 0 0 1

3
Christophe Bertault — Mathématiques en MPSI

Théorème (Produit par blocs) Soient A, B, C, D, A′ , B ′ , C ′ , D′ des MATRICES à coefficients dans K de tailles indiquées
ci-dessous. q q′ r r′
   ′ ′  ′ 
p A C q A C AA + C B ′ AC ′ + C D′
× =
p′ B D q′ B ′ D′ BA′ + DB ′ BC ′ + DD′

En résumé, tout se passe avec les blocs comme si chacun d’entre eux était un scalaire.

1.3 TRANSPOSITION

Définition (Transposée) Soit A ∈ Mn,p (K). On appelle transposée de A la matrice (a ji )1¶i¶p de M p,n (K), notée A⊤
1¶ j¶n
ou t A.
 ⊤
 ⊤   λ1
3 5
3 0 1  ..  = (λ1 · · ·
Exemple 5 2 7
= 0 2 et pour tous λ1 , . . . , λn ∈ C : .
λn ).
1 7
λn

Théorème (Propriétés de la transposition)


• Linéarité : Pour tous A, B ∈ Mn,p (K) et λ, µ ∈ K : (λA + µB)⊤ = λA⊤ + µB ⊤ .
⊤
• Involutivité : Pour tous A ∈ Mn,p (K) : A⊤ = A.

• Effet sur un produit : Pour tous A ∈ M p,q (K) et B ∈ Mq,r (K) : (AB)⊤ = B ⊤ A⊤ .

Démonstration Seule l’assertion sur le produit mérite une preuve. Pour tout (i, j) ∈ ¹1, rº × ¹1, pº :
Xq q
X q
X
   
(AB)⊤ i j = (AB) ji = a jk bki = bki a jk = B ⊤ ik A⊤ k j = B ⊤ A⊤ i j .
k=1 k=1 k=1

Définition (Matrice symétrique/antisymétrique) Soit A ∈ Mn (K). On dit que A est symétrique si A⊤ = A et antisy-
métrique si A⊤ = −A.
L’ensemble des matrices symétriques (resp. antisymétriques) de Mn (K) est noté Sn (K) (resp. An (K)).

   
1 2 3 0 1 −5
Exemple 2 5 0 est symétrique et −1 0 2 est antisymétrique.
3 0 6 5 −2 0
Diagonale nulle
car tout coefficient diagonal est égal à son opposé.

1.4 MATRICES DIAGONALES ET TRIANGULAIRES

Définition (Matrice diagonale, matrice scalaire, matrice triangulaire)


• Matrice diagonale : Une matrice carrée est dite diagonale si tous ses coefficients non diagonaux sont nuls.
En particulier, les matrices λI n , λ décrivant K, sont appelées matrices scalaires.
• Matrice triangulaire : Une matrice carrée est dite triangulaire supérieure (resp. inférieure) si ses coefficients
situés strictement au-dessous (resp. strictement au-dessus) de la diagonale sont nuls.
   
a11 a12 ··· a1n a11
Matrice a22 ··· a2n a21 a22 Matrice
triangulaire  b
b
  b b
b
 triangulaire
b b b b b

supérieure inférieure
b b
b b b

ann an1 an2 ··· ann

Les matrices diagonales sont exactement les matrices à la fois triangulaires supérieures ET triangulaires inférieures.
 
α1
Pour tous α1 , . . . , αn ∈ K, on note souvent diag(α1 , . . . , αn ) la matrice b

b
b . Par exemple : I n = diag(1, . . . , 1).
αn
Avec cette notation, pour tous α1 , . . . , αn , β1 , . . . , βn , λ ∈ K :
λ diag(α1 , . . . , αn ) + diag(β1 , . . . , βn ) = diag(λα1 + β1 , . . . , λαn + βn )
et diag(α1 , . . . , αn ) × diag(β1 , . . . , βn ) = diag(α1 β1 , . . . , αn βn ).

4
Christophe Bertault — Mathématiques en MPSI

Ces identités se généralisent aux matrices triangulaires supérieures (resp. inférieures) de la façon suivante.

Théorème (Combinaisons linéaires et produit de matrices triangulaires) Soient donc A, B ∈ Mn (K) triangu-
laires supérieures (resp. inférieures) et λ, µ ∈ K. Les matrices λA + µB et AB sont alors triangulaires supérieures (resp.
inférieures). En outre, pour tout i ∈ ¹1, nº : (AB)ii = aii bii .

Démonstration Supposons A et B triangulaires supérieures — le cas inférieur s’en déduit par transposition. Les
matrices λA + µB et AB sont triangulaires supérieures car pour tous i, j ∈ ¹1, nº pour lesquels i > j :
Xn X
i−1 Xn
(λA + µB)i j = λ ai j + µ bi j = 0 et (AB)i j = aik bk j = aik bk j + aik bk j = 0.
|{z} |{z} k=1 k=1
|{z} k=i
|{z}
=0 =0 =0 =0
X
i−1 X
n
Enfin, pour tout i ∈ ¹1, nº, d’après le même calcul : (AB)ii = aik bki + aii bii + aik bki = aii bii .
k=1
|{z} k=i+1
|{z}
=0 =0

1.5 TRACE D’UNE MATRICE CARRÉE

La notion de trace vous paraîtra anecdotique pour le moment mais c’est en fait un outil intéressant, alors autant l’introduire
tout de suite.

Définition-théorème (Trace d’une matrice carrée) Soit A ∈ Mn (K). On appelle trace de A et on note tr(A) ou Tr(A)
la somme des éléments diagonaux de A.
(i) Linéarité : Pour tous A, B ∈ Mn (K) et λ, µ ∈ K : tr(λA + µB) = λtr(A) + µtr(B).
(ii) Effet sur un produit : Pour tous A ∈ Mn,p (K) et B ∈ M p,n (K) : tr(AB) = tr(BA).

Démonstration
X
n X
n X
n
(i) tr(λA + µB) = (λakk + µbkk ) = λ akk + µ bkk = λtr(A) + µtr(B).
k=1 k=1 k=1
(ii) La matrice AB est carrée de taille n alors que BA est carrée de taille p, mais ces matrices ont même trace
Xn X n X p p X
X n p
X
car : tr(AB) = (AB)kk = akl blk = blk akl = (BA)ll = tr(BA).
k=1 k=1 l=1 l=1 k=1 l=1

Exemple L’équation matricielle AB − BA = I n d’inconnue (A, B) ∈ Mn (K)2 n’a pas de solution car pour toutes matrices
A, B ∈ Mn (K) : tr(AB − BA) = tr(AB) − tr(BA) = 0 6= n = tr(I n ).

2 SYSTÈMES LINÉAIRES

2.1 INTERPRÉTATION GÉOMÉTRIQUE ET IMPORTANCE DE LA LINÉARITÉ

Tout système linéaire peut être écrit sous forme matricielle. Par exemple, pour tout (x, y, z) ∈ R3 :

 2x + y − 3z = 3 2 1 −3  x  3
5y + z = 2 ⇐⇒ 0 5 1 y = 2 .
 9x + 10 y + 2z = 1 9 10 2 z 1

Nous aurons désormais tendance à identifier toute famille de n éléments de K à une COLONNE, i.e. à considérer que
Kn = Mn,1 (K). Plus généralement, pour tous A ∈ Mn,p (K) et B ∈ Kn = Mn,1 (K), le système linéaire :

 a11 x 1 + a12 x 2 + · · · + a1p x p = b1

 a21 x 1 + a22 x 2 + · · · + a2p x p = b2
.. .. .. ..

 . . . .

an1 x 1 + an2 x 2 + · · · + anp x p = bn ,
d’inconnue X ∈ K p = M p,1 (K) peut être écrit matriciellement AX = B. On appelle alors A la matrice du système et B son
second membre, et on dit que le système est homogène si B = 0, i.e. si b1 = . . . = bn = 0.

5
Christophe Bertault — Mathématiques en MPSI

Pour toute matrice A ∈ Mn,p (K), l’application X 7−→ AX de K p = M p,1 (K) dans Kn = Mn,1 (K) est linéaire, ce qui signifie
que pour tous X , Y ∈ K p et λ, µ ∈ K : A(λX + µY ) = λ (AX ) + µ (AY ). De la linéarité découle le résultat suivant, à la fois
trivial et fondamental.

Théorème (Structure de l’ensemble des solutions d’un système linéaire) Soient A ∈ Mn,p (K) et B ∈ Kn . On
s’intéresse au système linéaire AX = B d’inconnue X ∈ K p . Deux situations peuvent se présenter :
— soit ce système n’a pas de solution, on dit qu’il est incompatible,
— soit il en a, on dit qu’il est compatible. Les solutions obéissent dans ce cas au principe suivant :

Solution quelconque Solution particulière Solution quelconque


du système complet du système complet du sytème HOMOGÈNE

Démonstration Dans le cas où le système étudié possède une solution X part , alors pour tout X ∈ K p :

AX = B ⇐⇒ AX = AX part ⇐⇒ A X − X part = 0 par linéarité
⇐⇒ X − X part est une solution du système HOMOGÈNE associé
⇐⇒ X est la somme de la solution particulière X part
et d’une solution du système HOMOGÈNE associé.
§
x + y = 1
Exemple Le système linéaire d’inconnue (x, y) ∈ R2 n’a pas de solution.
x + y = 0

Définition (Notation Vect) Soient X 1 , . . . , X r ∈ K¦n . L’ensemble des combinaisons linéaires © de X 1 , . . . , X n est noté
Vect(X 1 , . . . , X r ). Concrètement : Vect(X 1 , . . . , X r ) = λ1 X 1 + . . . + λ r X r | λ1 , . . . , λ r ∈ K .

€ Š ¦ © € Š ¦ ©
Exemple Dans R2 : Vect (2, 3) = (2x, 3x) | x∈R et Vect (1, 0), (0, 1) = x (1, 0) + y (0, 1) | x, y ∈ R
¦ ©
= (x, y) | x, y ∈ R = R2 .
€ Š ¦ © ¦ ©
Dans R3 : Vect (1, 2, 0), (1, 0, 1) = x (1, 2, 0) + y (1, 0, 1) | x, y ∈ R = (x + y, 2x, y) | x, y ∈ R .

Raisonnons maintenant dans l’autre sens. Dans R3 :


¦ © ¦ © € Š
(x+ y−z, 2x− y, x+3 y+z) | x, y, z ∈ R = x (1, 2, 1)+ y (1, −1, 3)+z(−1, 0, 1) | x, y, z ∈ R = Vect (1, 2, 1), (1, −1, 3), (−1, 0, 1) .
¦ © ¦ © € Š
Dans R2 : (2x + y + 2, y − x + 1) | x, y ∈ R = (2, 1) + x (2, −1) + y (1, 1) | x, y ∈ R = (2, 1) + Vect (2, −1), (1, 1) ,
¦ © ¦ © € Š
et enfin dans R3 : (x + 3, 3x + 7, 2x + 1) | x ∈ R = (3, 7, 1) + x (1, 3, 2) | x ∈ R = (3, 7, 1) + Vect (1, 3, 2) .

La notation Vect permet une expression agréable de l’ensemble des solutions d’un système linéaire. Désormais, c’est ainsi
et ainsi seulement que je veux vous voir conclure vos résolutions de systèmes linéaires — par la donnée d’un Vect.
§
x + 2y − z = 1
Exemple Les solutions du système linéaire d’inconnue (x, y, z) ∈ R3 sont tous les triplets
2x + 5y + z = 2
€ Š
(7λ + 1, −3λ, λ), λ décrivant R, dont l’ensemble gagne à être noté : (1, 0, 0) + Vect (7, −3, 1) .
| {z } | {z }
Solution Ensemble
particulière des solutions de
l’équation homogène
Démonstration Pour tout (x, y, z) ∈ R3 :
§ §
x + 2y − z = 1 x + 2y − z = 1
⇐⇒
2x + 5 y + z = 2 y + 3z = 0 L 2 ← L 2 − 2L 1
§
x = 1 + 7z
⇐⇒
y = −3z.

6
Christophe Bertault — Mathématiques en MPSI

Les Vect ont une interprétation géométrique très naturelle et deux exemples vaudront ici mieux qu’un long discours.

Ve
ct #
u”, #” 
#” v 
u #” #”
#”
u Vect v , w

b
#”
w
b
ct #” 
u

#”
Ve


Arrêtons-nous maintenant un instant sur les droites d’un plan quelconque muni d’un repère orthonormal O, #”
ı , #”
 .

Dans le plan, toute droite possède une équation de la forme a x + b y + c = 0 avec a, b, c ∈ R et (a, b) 6= (0, 0).

Le vecteur #”
n de coordonnées (a, b) est alors VECTEUR NORMAL d’une telle droite D. En effet, si nous notons A un point
de D de coordonnées (x A, yA), alors pour tout point M de coordonnées (x, y) :
ax A +b yA +c = 0
M ∈D ⇐⇒ ax + b y + c = 0 ⇐⇒ a (x − x A) + b ( y − yA) = 0
 ‹  ‹
a x − xA #” # ”
⇐⇒ · =0 ⇐⇒ n · AM = 0
b y − yA
a
⇐⇒ M appartient à la droite passant par A orthogonale à #”
n. #”

b
Rappelons maintenant ci-contre un petit principe important de géométrie analytique plane. D’après
ce principe, la droite D, ORTHOGONALE au vecteur #” n de coordonnées (a, b), est en revanche DIRIGÉE b

par le vecteur de coordonnées (−b, a). −b O ı a


#”
§
ax + b y = c
L’ensemble des solutions d’un système linéaire avec a, b, c, a′ , b′ , c ′ ∈ R
a ′ x + b′ y = c ′
et (a, b) 6= (0, 0) et (a′ , b′ ) 6= (0, 0) est géométriquement l’intersection de deux droites D et D ′ , i.e. :
— soit une droite si D = D ′ ,
— soit l’ensemble vide si D et D ′ sont parallèles sans être confondues,
— soit un point sinon, i.e. si D et D ′ sont sécantes.

#”
Le même travail peut être effectué avec les plans de l’espace, lequel est muni d’un repère orthonormal O, #”
ı , #”
,k .

Dans l’espace, tout plan possède une équation de la forme a x + b y + cz + d = 0 avec a, b, c, d ∈ R et (a, b, c) 6= (0, 0, 0).

Le vecteur de coordonnées (a, b, c) est VECTEUR NORMAL d’un tel plan pour une raison analogue à celle que nous avons
vue pour les droites dans le plan.
§
a x + b y + cz = d
L’ensemble des solutions d’un système linéaire avec a, b, c, d, a′ , b′ , c ′ , d ′ ∈ R et
a ′ x + b′ y + c ′ z = d ′
(a, b, c) 6= (0, 0, 0) et (a′ , b′ , c ′ ) 6= (0, 0, 0) est géométriquement l’intersection de deux plans P et P ′ , i.e. :
— soit un plan si P = P ′ ,
— soit l’ensemble vide si P et P ′ sont parallèles sans être confondus,
— soit une droite sinon, i.e. si P et P ′ sont sécants.
Si on ajoute une troisième équation a′′ x + b′′ y + c ′′ z = d ′′ au système, une nouvelle possibilité apparaît, celle d’un point
— intersection de trois plans en position générale.
§
x + 2y + 5 z =
Exemple Les solutions du système linéaire d’inconnue (x, y, z) ∈ R3 sont tous les triplets
3x + y − 0 2z =
€ Š
(−1+λ, 3−λ, λ), λ décrivant R, dont l’ensemble gagne à être noté de la façon suivante : (−1, 3, 0) + Vect (1, −1, 1) .
| {z } | {z }
Géométriquement, cet ensemble est la droite de l’espace passant par le point de Solution Ensemble
coordonnées (−1, 3, 0) et dirigée par le vecteur de coordonnées (1, −1, 1). particulière des solutions de
l’équation homogène

7
Christophe Bertault — Mathématiques en MPSI

Démonstration Pour tout (x, y, z) ∈ R3 :


§ §
x + 2y + z = 5 x + 2y + z = 5
⇐⇒
3x + y − 2z = 0 5y + 5z = 15 L 2 ← 3L 1 − L 2
§
x + 2y + z = 5
⇐⇒ 1
y + z = 3 L2 ← 5 L2
§
x = −1 + z
⇐⇒
y = 3 − z.
Géométriquement, les solutions cherchées sont ainsi les points de λ=0 λ=1 λ=2
l’espace de coordonnées (λ − 1, −λ + 3,€ λ), λ décrivant
Š R. Ces points λ=−
3
λ=−
1
2 2
décrivent l’ensemble (−1, 3, 0) + Vect (1, −1, 1) , i.e. la droite pas-
sant par A dirigée par #”u si nous notons A le point de coordonnées b

#”
A u
(−1, 3, 0) et #”
u le vecteur de coordonnées (1, −1, 1). On illustre ci-
contre la signification géométrique du paramètre λ.

2.2 OPÉRATIONS ÉLÉMENTAIRES ET ALGORITHME DU PIVOT

Définition-théorème (Opérations élémentaires sur les lignes) Soient i, j ∈ N∗ et λ ∈ K. On appelle opération


élémentaire (sur les lignes d’un système linéaire) les opérations suivantes :
— permutation des i ème et j ème lignes, notée : Li ↔ L j ,
— multiplication de la i ème ligne par λ 6= 0, notée : L i ← λL i ,
ème ème
— addition de la j ligne multipliée par λ à la i ligne (avec i 6= j), notée : L i ← L i + λL j .
Remarque fondamentale : Transformer un système linéaire donné par des opérations élémentaires SUR LES LIGNES
ne modifie pas l’ensemble de ses solutions.

Les opérations élémentaires préservent les équivalences, donc ne modifient pas l’ensemble des solutions d’un système
linéaire, car on peut toujours les défaire. L’opération L1 ↔ L2 se défait elle-même par exemple, l’opération L1 ← 2L1 est
1
défaite par l’opération L1 ← L1 et l’opération L2 ← L2 + L1 par l’opération L2 ← L2 − L1 .
2

$ Attention ! Pour résoudre un système linéaire, C ’EST FINI LES SUBSTITUTIONS ! Plus jamais !

Nous résoudrons désormais tous nos systèmes linéaires au moyen d’un algorithme appelé l’algorithme du pivot. Vous
ne l’aimerez peut-être pas trop au début — conservateurs que vous êtes — mais vous comprendrez vite à l’usage que les
substitutions sont une mauvaise méthode de résolution. 
 • • • • • = •
Je présenterai l’algorithme sous forme figurée en partant d’un système quelconque : • • • • • = •
 • • • • • = •

Le nombre d’équations et le nombre d’inconnues n’ont pas d’importance, c’est le principe de l’algorithme qu’il faut com-
prendre et retenir. Chaque point « • » représente un coefficient du système, éventuellement 0. Nous allons faire disparaître
progressivement ces coefficients en les annulant et obtenir finalement une nouvelle forme dite échelonnée du système étudié.
• Étape 1 : On choisit dans le système un coefficient non nul Ø appelé pivot — bien sûr, si tous les coefficients sont
nuls, le système est résolu ! S’il n’y est pas déjà, on peut toujours placer ce pivot en position (1, 1) en permutant deux
équations et/ou deux inconnues. Le système initial :
  Le pivot
 • • • • • = •  Ø • • • • = •
• • • • • = • devient : • • • • • = •
 • Ø • • • = •  • • • • • = •

après une éventuelle opération L i ↔ L j et un éventuel échange d’inconnues. Dans la mesure du possible, privilégiez
un coefficient de pivot de valeur 1, vos calculs ultérieurs s’en trouveront simplifiés.

• Étape 2 : Grâce au pivot, on annule par des opérations L i ← L i + λi L1 tous les  Ø • • • • = •
coefficients de la première colonne sous le pivot. Si une ligne nulle apparaît à cette • • • • = •
 • • • • = •
étape, on la supprime sans ménagement. Résultat :

8
Christophe Bertault — Mathématiques en MPSI

• Reprise des étapes 1 et 2 : On reprend les étapes 1 et 2 avec le sous-système obtenu par oubli de la ligne 1. Le
système :
  Le nouveau pivot 
 Ø • • • • = •  Ø • • • • = •  Ø • • • • = •
• • • • = • devient donc : Ø • • • = • puis : Ø • • • = •
 • • • Ø = •  • • • • = •  • • • = •

 Ø • • • • = •
et on recommence. Le résultat final est appelé une forme échelonnée du système : Ø • • • = •
 Ø • • = •

• Remontée : On annule à présent tous les coefficients situés au-dessus des symboles Ø. La méthode est la même que
précédemment, on utilise les pivots et des opérations L i ← L i + λi L j . Le système échelonné :
  
 Ø • • • • = •  Ø • • • = •  Ø • • = •
Ø • • • = • devient : Ø • • = • puis : Ø • • = •
 Ø • • = •  Ø • • = •  Ø • • = •
Et c’est fini ! Sur l’exemple choisi, on peut exprimer les inconnues 1, 2 et 3 en fonction des inconnues 4 et 5, ce qui
achève la résolution du système.

 x − y + 2
z + t =
Exemple Les solutions du système linéaire 2x − y + 3 d’inconnue (x, y, z, t) ∈ R4 sont tous
3z + t =
 x − 2y + 3z
0 − t =
€ Š
les quadruplets (3 − 2λ, 0, −1 + λ, λ), λ décrivant R, dont l’ensemble est (3, 0, −1, 0) + Vect (−2, 0, 1, 1) .

Démonstration Pour tout (x, y, z, t) ∈ R4 :


 
 x − y + z + t = 2  x − y + z + t = 2
2x − y + 3z + t = 3 ⇐⇒ y + z − t = −1 L 2 ← L 2 − 2L 1
 x − 2 y + 3z − t = 0  − y + 2z − 2t = −2 L3 ← L3 − L1
 
 x − y + z + t = 2  x − y + 2t = 3 L1 ← L1 − L3
⇐⇒ y + z − t = −1 ⇐⇒ y = 0 L2 ← L2 − L3
 z − t = −1 L3 ← 1
L3 + 1
L2
 z − t = −1
3 3

 x = 3 − 2t
⇐⇒ y = 0
 z = −1 + t.


 x + 2 y + z + 3t = 1

x + z + t = 3
Exemple Les solutions du système d’inconnue (x, y, z, t) ∈ R4 sont tous les qua-
 y + t = −1

x + y + z + 2t = 2 € Š
druplets (3 − λ − µ, −1 − µ, λ, µ), λ et µ décrivant R, dont l’ensemble est (3, −1, 0, 0) + Vect (−1, 0, 1, 0), (−1, −1, 0, 1) .

Démonstration Pour tout (x, y, z, t) ∈ R4 :


 
 x + 2 y + z + 3t = 1  x + 2y + z + 3t = 1
  1 1
x + z + t = 3 y + t = −1 L2 ← 2 L1 − 2 L2
⇐⇒
 y + t = −1  y + t = −1
 
x + y + z + 2t = 2 y + t = −1 L4 ← L1 − L4
§
x + 2y + z + 3t = 1
⇐⇒
y + t = −1
§
x + z + t = 3 L 1 ← L 1 − 2L 2
⇐⇒
y + t = −1
§
x = 3 − z − t
⇐⇒
y = −1 − t.

9
Christophe Bertault — Mathématiques en MPSI

3 MATRICES INVERSIBLES

3.1 MOTIVATION PAR LES SYSTÈMES LINÉAIRES  § ª


b

 si a 6= 0
¦ ©  a
Pour tous a, b ∈ R, vous savez depuis le collège que : x ∈R| ax = b = R si a = b = 0



∅ si a = 0 mais b 6= 0.
Et au fond, la question principale est simple — peut-on diviser par a ou pas ? La même question se pose à nous dans
ce chapitre car nous pouvons écrire tout système linéaire sous forme matricielle AX = B. Une division matricielle est-elle
1 1 1
possible dans ce cadre ? Dans R, tout réel x AUTRE QUE 0 possède un inverse défini par les relations x × = × x = 1.
x x x
Nous allons voir que le monde des matrices offre plus de diversité que le monde des réels, mais que ces mondes sont tout de
même ressemblants.

Définition-théorème (Matrice inversible, inverse, groupe linéaire) Soit A ∈ Mn (K). On dit que A est inversible s’il
existe une matrice B ∈ Mn (K) pour laquelle AB = BA = I n .
SI ELLE EXISTE, une telle matrice B est unique, notée A−1 et appelée l’inverse de A.
L’ensemble des matrices inversibles de Mn (K) est noté GLn (K) et appelé le groupe linéaire de degré n sur K.

Démonstration Si B et B ′ sont deux inverses de A : B = BI n = B(AB ′ ) = (BA)B ′ = I n B ′ = B ′ .

Une remarque en passant. Pourquoi oblige-t-on par définition les matrices inversibles à être carrées ? Qu’est-ce qui em-
pêche une matrice A ∈ Mn,p (K) avec n 6= p de posséder un inverse, i.e. une matrice B ∈ M p,n (K) pour laquelle AB = I n et
BA = I p ? Nous y reviendrons longuement dans les prochains mois, mais une première réponse simple peut être donnée tout
de suite : n = tr(I n ) = tr(AB) = tr(BA) = tr(I p ) = p.

Définition-théorème (Système de Cramer) Un système linéaire est dit de Cramer si sa matrice est inversible — donc
CARRÉE , en particulier.
Pour tous A ∈ GLn (K) et B ∈ Kn , le système de Cramer AX = B d’inconnue X ∈ Kn possède une et une seule solution, à
savoir A−1 B.

Démonstration Pour tout X ∈ Kn : AX = B ⇐⇒ X = A−1 B — on a simplement multiplié par A−1 à


gauche pour passer de gauche à droite, et par A à gauche pour passer de droite à gauche.

L’analogie des équations a x = b et AX = B est confortée, mais deux questions se posent naturellement :
— qui sont concrètement les matrices inversibles ?
— comment calcule-t-on l’inverse d’une matrice inversible ?
1 1 3
 −1 −1 3

Exemple La matrice 1 −1 0 est inversible d’inverse −1 −2 3 comme on le vérifie aisément. S’il existe une
1 0 1 1 1 −2
formule générale de calcul de l’inverse, on ne peut pas dire qu’elle saute aux yeux. . .

Théorème (Une condition suffisante de non-inversibilité) Soit A ∈ Mn (K). Si l’une des colonnes (resp. lignes) de
A est combinaison linéaire de ses autres colonnes (resp. lignes), alors A N’est PAS inversible.

En réalité, la condition proposée est à la fois nécessaire et suffisante, mais son caractère nécessaire demande plus de
travail et nous l’établirons bien plus tard.

Démonstration Notons L1 , . . . , L n les lignes de A et faisons par exemple l’hypothèse, pour y voir plus clair, que
L1 est combinaison linéaire des lignes L2 , . . . , L n : L1 = λ2 L2 + . . . + λn L n . Dans ces conditions :
(1 −λ1 · · · −λn ) A = L1 − λ2 L2 − . . . − λn L n = 0 = (0 · · · 0) .
Or si A est inversible, on peut multiplier cette égalité par A−1 à droite : (1 −λ1 · · · −λn ) = (0 · · · 0), mais
il en découle que 1 = 0. Conclusion : A n’est pas inversible.

10
Christophe Bertault — Mathématiques en MPSI

1 1

0
0 1 1

Exemple La matrice 2 1 0 possède une colonne nulle, donc n’est pas inversible. La matrice 1 4 3 n’est pas
3 2 0 1 3 2
inversible car sa deuxième ligne est égale à la somme des deux autres.

$quiAttention ! Dans R et C, 0 est le seul objet par lequel la division est impossible. Dans M (K) au contraire, l’exemple
précède montre qu’une matrice non nulle peut ne pas être inversible.
n

Exemple Que dire de l’inversibilité d’une matrice diagonale ? Soient α1 , . . . , αn ∈ K.


diag(α1 , . . . , αn ) est inversible si et seulement si αk 6= 0 pour tout k ∈ ¹1, nº,

et dans ce cas : diag(α1 , . . . , αn )−1 = diag α−1
1
, . . . , α−1
n
.

Démonstration Si α1 , . . . , αn sont tous non nuls : diag(α1 , . . . , αn ) × diag α−1 , . . . , α−1 = diag(1, . . . , 1) = I n
 1 n 
et diag(α1 , . . . , αn )×diag α1 , . . . , αn = I n , donc diag(α1 , . . . , αn ) est inversible d’inverse diag α−1
−1 −1
1
, . . . , α−1
n
.
Réciproquement, si l’un des nombres α1 , . . . , αn est nul, la matrice diag(α1 , . . . , αn ) n’est pas inversible car l’une
de ses colonnes est nulle.

Théorème (Caractérisation des matrices inversibles en termes de systèmes linéaires) Soit A ∈ Mn (K). La matrice
A est inversible si et seulement si pour tout second membre Y ∈ Kn , le système linéaire Y = AX d’inconnue X ∈ Kn
possède une et une seule solution.

Démonstration
• Si A est inversible, le système Y = AX d’inconnue X ∈ Kn est un système de Cramer pour tout Y ∈ Kn , donc
possède une et une seule solution.
• Réciproquement, faisons l’hypothèse que le système linéaire Y = AX d’inconnue X ∈ Kn possède une et une
seule solution pour tout Y ∈ Kn .
— Notons Y1 , . . . , Yn les colonnes de la matrice I n . Par hypothèse, pour tout i ∈ ¹1, nº, le système Yi = AX
d’inconnue X ∈ Kn possède une solution Bi . Si nous notons B la matrice carrée de colonnes B1 , . . . , Bn ,
il est alors immédiat que AB = I n .
— A-t-on pour autant aussi BA = I n ? En tout cas : A(BA− I n ) = (AB)A− A = I n A− A = 0, donc en lisant
cette égalité colonne par colonne, on voit que les colonnes de BA − I n sont toutes solutions du système
homogène AX = 0 d’inconnue X ∈ Kn . Comme 0 en est évidemment une autre et comme ce système
ne possède qu’une solution par hypothèse, les colonnes de BA − I n sont finalement toutes nulles, donc
BA − I n = 0, i.e. BA = I n . Comme voulu, A est inversible.

Le théorème précédent va nous permettre à la fois de savoir si oui ou non une matrice est inversible et, le cas échéant,
de calculer son inverse. Le mot d’ordre est simple — résoudre un système linéaire !
2 3 1
 −1 −2 5

Exemple La matrice 1 1 2 est inversible d’inverse 1 1 −3 .
1 1 1 0 1 −1
Démonstration Pour tous (x, y, z), (a, b, c) ∈ R3 :
 
 2x + 3 y + z = a  x + y + 2z = b
x + y + 2z = b ⇐⇒ 2x + 3y + z = a L2 ↔ L1 (choix d’un pivot
 x + y + z = c  x + y + z = c simple de valeur 1)

 x + y + 2z = b
⇐⇒ y − 3z = a − 2b L 2 ← L 2 − 2L 1
 z = b − c L3 ← L1 − L3

 x + y = − b + 2c L 1 ← L 1 − 2L 3
⇐⇒ y = a + b − 3c L 2 ← L 2 + 3L 3
 z = b − c

 x = − a − 2b + 5c L1 ← L1 − L2
⇐⇒ y = a + b − 3c
 z = b − c.
Nous avons ainsi réussi à résoudre le système linéaire initial POUR TOUT SECOND MEMBRE (a, b, c). Cela prouve
   
2 3 1 −1 −2 5
que la matrice 1 1 2 est inversible et son inverse 1 1 −3 apparaît naturellement en fin de résolution.
1 1 1 0 1 −1

11
Christophe Bertault — Mathématiques en MPSI

1 0 −1

Exemple La matrice 1 2 1 n’est pas inversible.
−1 4 5

Démonstration Pour tous (x, y, z), (a, b, c) ∈ R3 :


 
 x − z = a  x − z = a
x + 2y + z = b ⇐⇒ 2y + 2z = −a + b L2 ← L2 − L1
 −x + 4 y + 5z = c  4y + 4z = a+c L3 ← L1 + L3

 x − z = a
⇐⇒ 2y + 2z = −a + b
 0 = 3a − 2b + c L 3 ← L 3 − 2L 2 .

Pour a = 1 et b = c = 0, le système obtenu n’a pas de solution à cause de sa troisième ligne, donc la matrice
étudiée n’est pas inversible.

3.2 MATRICES INVERSIBLES DE TAILLE 2

Pour les matrices carrées de taille 2, il est facile de trouver une condition nécessaire et suffisante simple d’inversibilité
ainsi qu’une formule pour le calcul de l’inverse le cas échéant. Nous verrons plus tard dans l’année qu’une généralisation de
ces résultats est possible pour les matrices de taille quelconque, mais au prix d’un travail important.

Définition-théorème (Déterminant,
    et inverse d’une matrice carrée de taille 2) Soient a, b, c, d ∈ K.
inversibilité
a c a c a c
On appelle déterminant de b d , noté det b d ou b d , le scalaire ad − bc.
   −1 1  
a c a c a c d −c
La matrice b d est inversible si et seulement si b d 6= 0. Dans ce cas : = .
b d ad − bc −b a

     
a c d −c d −c a c
Démonstration Par un simple calcul : b d −b a
= −b a b d
= (ad − bc) I2 .
   
a c 1 d −c
• Si ad − bc 6= 0, b d est inversible par définition de l’inversibilité, d’inverse .
ad − bc −b a
 
a c
• Pour la réciproque, supposons par l’absurde que ad − bc = 0 ET que b d est inversible. Alors :
     −1     −1  
d −c d −c a c a c d −c a c 0 0
−b a
= I2 × −b a = b d b d −b a
= b d × (ad − bc) I2 = 0 0 ,
| {z }
    =0
a c 0 0
donc a = b = c = d = 0. La matrice b d = 0 0 est ainsi NON inversible — contradiction.

Pour les systèmes linéaires de deux équations à deux inconnues, les formules de Cramer suivantes sont bien pratiques.

a b
Théorème (Formules de Cramer pour les systèmes 2 × 2) Soient a, b, c, a′ , b′ , c ′ ∈ C. Si a′ b′
6= 0, la solution
c b a c
§
ax + by = c c′ b′ a′ c′
(x, y) du système de Cramer est donnée par : x= et y= .
a′ x + b′ y = c′ a b a b
a′ b′ a′ b′

a b
Au dénominateur, qu’il s’agisse de x ou de y, c’est toujours le déterminant a′ b′ qu’on trouve. Au numérateur de la
PREMIÈRE inconnue x, on trouve aussi ce déterminant, mais dans lequel on a remplacé la PREMIÈRE colonne par le second
 
c
membre c ′ . Pour la DEUXIÈME inconnue y, même principe sauf qu’on remplace la DEUXIÈME colonne.

 
a b a b
Démonstration Si a′ b′
6= 0, la matrice a′ b′ est inversible, donc le système étudié est de Cramer et son
   −1   1  ′   1  ′ 
x a b c b −b c c b − bc ′
unique solution vaut : = ′ ′ ′ = ′ ′ = ′ ′ .
y a b c a b′ − ba′ −a a c a b′ − ba′ ac − ca

12
Christophe Bertault — Mathématiques en MPSI

3.3 OPÉRATIONS SUR LES MATRICES INVERSIBLES ET OPÉRATIONS ÉLÉMENTAIRES

Théorème (Opérations sur les matrices inversibles) Soient A, B ∈ GLn (K) — donc INVERSIBLES.
−1
(i) Inversibilité de l’inverse : A−1 est inversible et : A−1 = A.
(ii) Inversibilité d’un produit : AB est inversible et : (AB)−1 = B −1 A−1 .
−1 k
(iii) Inversibilité d’une puissance : Pour tout k ∈ Z, Ak est inversible et : Ak = A−1 .
−1 ⊤
(iv) Inversibilité de la transposée : A⊤ est inversible et : A⊤ = A−1 .

$du Attention ! Dans l’assertion (ii), si A et B ne commutent pas, il est faux que (AB)
trésor du chapitre « Injections, surjections, bijections » !
−1
= A−1 B −1 . Rappelez-vous l’histoire

Démonstration
(i) A × A−1 = A−1 × A = I n , donc par définition de l’inversibilité, A−1 est inversible d’inverse A.
(ii) AB × B −1 A−1 = A× BB −1×A−1 = A× I n ×A−1 = AA−1 = I n et B −1 A−1×AB = I n , donc AB est inversible
d’inverse B −1 A−1 .
(iii) Par récurrence à partir de l’assertion (ii).
⊤ ⊤ ⊤ ⊤
(iv) A⊤ A−1 = A−1 A = I n⊤ = I n et A−1 A⊤ = I n , donc A⊤ est inversible d’inverse A−1 .

Les opérations élémentaires sur les lignes que nous avons définies pour les systèmes linéaires sont définies de la même
manière pour les matrices et notées aussi : L i ↔ L j , L i ← λL i et L i ← L i + λL j , mais des opérations sur les
COLONNES sont utilisées également, notées : Ci ↔ C j , C j ← λC j et C j ← C j + λCi .
 
1
Exemple Soit A ∈ Mn,p (K) et i, j ∈ ¹1, nº. Notons P la grosse matrice ci-contre obte- 
b

b

nue par application de l’opération élémentaire L i ↔ L j à la matrice I n . Cette matrice  1 
i  0 1 
est inversible car d’inverse elle-même comme on le vérifie aisément.  1 
 
 
b

Un simple calcul montre ensuite que le produit PA n’est autre que la matrice A à laquelle  1 
j  1 0

on a fait subir l’opération élémentaire L i ↔ L j .  
 1 
À présent, si on choisit i et j dans ¹1, pº et non dans ¹1, nº et si on note P la grosse
b
b

1
b

matrice ci-contre obtenue par application de l’opération élémentaire Ci ↔ C j à la


matrice I p , un simple calcul montre cette fois que le produit AP n’est autre que la matrice A à laquelle on a fait subir
l’opération élémentaire Ci ↔ C j .
 
1
Exemple Soit A ∈ Mn,p (K), i ∈ ¹1, nº et λ ∈ K∗ . Notons P la matrice ci-contre obtenue par 
b


application de l’opération élémentaire L i ← λL i à la matrice I n . Cette matrice est inversible car  1 
i  λ 
diagonale à coefficients diagonaux non nuls.  
 1 
 b

b 
Un simple calcul montre ensuite que le produit PA n’est autre que la matrice A à laquelle on a fait
b

1
subir l’opération élémentaire L i ← λL i .
À présent, si on choisit i dans ¹1, pº et non dans ¹1, nº et si on note P la matrice ci-contre obtenue par application de
l’opération élémentaire Ci ← λCi à la matrice I p , un simple calcul montre cette fois que le produit AP n’est autre que la
matrice A à laquelle on a fait subir l’opération élémentaire Ci ← λCi .
j
Exemple Soit A ∈ Mn,p (K), i, j ∈ ¹1, nº avec i 6= j et λ ∈ K. Notons P la matrice ci-contre  
obtenue par application de l’opération élémentaire L i ← L i + λL j à la matrice I n . Cette matrice 1 b

est inversible d’inverse la « même » matrice dans laquelle on a remplacé λ par −λ.  
b
b

 1 
 b

b

Un simple calcul montre ensuite que le produit PA n’est autre que la matrice A à laquelle on a fait  
b

i  λ 1 
subir l’opération élémentaire L i ← L i + λL j . b

1
À présent, si on choisit i et j dans ¹1, pº et non dans ¹1, nº et si on note P la matrice ci-contre
obtenue par application de l’opération élémentaire C j ← C j + λCi à la matrice I p , un simple calcul montre cette fois que le
produit AP n’est autre que la matrice A à laquelle on a fait subir l’opération élémentaire C j ← C j + λCi .

13
Christophe Bertault — Mathématiques en MPSI

Que faut-il finalement retenir de ces trois exemples ? Essentiellement ceci :

Opération élémentaire sur les LIGNES = Multiplication à GAUCHE par une matrice inversible
Opération élémentaire sur les COLONNES = Multiplication à DROITE par une matrice inversible

Les résultats accumulés dans ce paragraphe nous permettent d’envisager une alternative à la résolution d’un système
linéaire pour savoir si une matrice est inversible ou non et calculer son inverse le cas échéant. Fondamentalement, on va
faire la même chose, mais présentée autrement. Fixons A ∈ Mn (K) une matrice dont nous voulons savoir si elle est inversible
ou non et, le cas échéant, calculer son inverse.
— Effectuer des opérations élémentaires sur A, on l’a vu, revient à la multiplier par des matrices inversibles, et si A est
elle-même inversible, le résultat de ces multiplications sera toujours une matrice inversible. Si donc à un moment on
obtient une matrice NON inversible en cours de calcul, c’est le signe certain que A N’était PAS inversible.
— À présent, faisons l’hypothèse que nous avons réussi à transformer A en I n par des opérations élémentaires P1 , . . . , Pr
sur les LIGNES, dans cet ordre. Matriciellement, cela revient à dire que Pr . . . P1 A = I n — multiplications à GAUCHE.
Or les matrices P1 , . . . , Pr sont inversibles, donc A = P1−1 . . . Pr−1 , et ainsi A est inversible. Que vaut son inverse ? Tout
simplement : A−1 = Pr . . . P1 = Pr . . . P1 I n . Conclusion inattendue : les mêmes opérations qui ont transformé A en
I n permettent de transformer I n en A−1 .
— Ci-dessus, on a travaillé SEULEMENT SUR LES LIGNES de A, mais on aurait pu travailler SEULEMENT SUR SES COLONNES.
Choisissez ce que vous préférez, mais gardez le cap.
Pour toutes matrices A, B ∈ Mn,p (K), on notera finalement A ∼ B la proposition « On peut passer de A à B par des
L
opérations sur les lignes seulement », A ∼ B la proposition analogue sur les colonnes seulement, et A ∼ B la proposition « On
C
peut passer de A à B par des opérations faites indifféremment sur les lignes et les colonnes ».
   
1 3 1 −2 −1 4
Exemple La matrice A = 1 2 2 est inversible d’inverse 1 0 −1 .
1 2 1 0 1 −1

Démonstration Dans cet exemple, on va tâcher de comprendre en quoi notre nouvelle méthode d’inversibi-
lité n’est qu’une reformulation de la précédente en termes de systèmes linéaires. Sur une copie, concrètement,
choisissez la méthode que vous préférez. Pour tous (x, y, z), (a, b, c) ∈ R3 :
A I3
z }| {  z }| {
   x + 3y + z = a  
1 3 1 1 0 0
1 2 2 x + 2y + 2z = b 0 1 0
1 2 1  x + 2y + z = c 0 0 1

1 3 1
  x + 3y + z = a 1 0 0

0 1 −1 ⇐⇒ y − z = a − b L2 ← L1 − L2 1 −1 0
0 1 0  y = a − c L3 ← L1 − L3 1 0 −1

1 3 1
  x + 3y + z = a 1 0 0

0 1 −1 ⇐⇒ y − z = a − b 1 −1 0
0 0 1  z = b − c L3 ← L3 − L2 0 1 −1

   x + 3y = a − b + c L1 ← L1 − L3  
1 3 0 1 −1 1
0 1 0 ⇐⇒ y = a − c L2 ← L2 + L3 1 0 −1
0 0 1  z = b − c 0 1 −1

   x = −2a − b + 4c L 1 ← L 1 − 3L 2  
1 0 0 −2 −1 4
0 1 0 ⇐⇒ y = a − c 1 0 −1
0 0 1  z = b − c. 0 1 −1
| {z } | {z }
I3 A−1

Transformation de A en I 3 Transformation de I 3 en A−1


par des opérations élémentaires par report des mêmes opérations élémentaires
SUR LES LIGNES . qui ont changé A en I 3 .

Sur une copie, on rédige ainsi la première partie du calcul de A vers I3 :


       
1 3 1 1 3 1 1 3 1 1 3 0
L2 ← L1 − L2 L1 ← L1 − L3
A= 1 2 2 ∼ 0 1 −1 ∼ 0 1 −1 L3 ← L3 − L2 ∼ 0 1 0
1 2 1 L 0 1 0 L3 ← L1 − L3 L 0 0 1 L 0 0 1 L2 ← L2 + L3
1 0 0

∼ 0 1 0 = I3 L 1 ← L 1 − 3L 2 ,
L 0 0 1

14
Christophe Bertault — Mathématiques en MPSI

puis on reporte les opérations effectuées sur I3 , dans le même ordre, pour obtenir A−1 :
1 0 0 1 0 0
 1 0 0
 1 −1 1  −2 −1 4

I3 = 0 1 0 ∼ 1 −1 0 ∼ 1 −1 0 ∼ 1 0 −1 ∼ 1 0 −1 = A−1 .
0 0 1 L 1 0 −1 L 0 1 −1 L 0 1 −1 L 0 1 −1

 
1 0 2
Exemple La matrice B = −1 −3 1 n’est pas inversible car : Non inversible
z }| {
0 1 −1 1 0 2
 1 0 2

B∼ 0 −3 3 L2 ← L1 + L2 ∼ 0 −3 3 L 3 ← L 2 + 3L 3 .
L 0 1 −1 L 0 0 0
Tout produit de matrices inversibles est une matrice inversible, donc si on obtient une matrice NON inversible après avoir
multiplié B par des matrices inversibles, c’est que B N’est PAS inversible.

3.4 MATRICES TRIANGULAIRES INVERSIBLES

L’inversibilité des matrices diagonales était facile à étudier. Qu’en est-il plus généralement des matrices triangulaires ?

Théorème (Inversibilité et inverse d’une matrice triangulaire) Une matrice triangulaire A est inversible si et
seulement si ses coefficients diagonaux sont tous non nuls. Dans ce cas, A−1 est elle aussi triangulaire de même type et
ses coefficients diagonaux sont exactement les inverses des coefficients diagonaux de A.

‚a ··· a1n
Œ
11
Démonstration Soit A = ∈ Mn (K) triangulaire supérieure.
b
b
b b

b
b

ann
Nous allons tâcher de transformer A en I n grâce à des opérations élémentaires sur les colonnes, que nous repor-
terons au fur et à mesure sur I n pour la voir devenir peu à peu A−1 lorsque A est inversible.
• Si a11 est nul, la première colonne de A est nulle, donc A n’est pas inversible. Dans le cas contraire, l’opération
1
C1 ← C1 transforme le coefficient a11 en 1 et on peut annuler ensuite tous les coefficients de A situés à
a11
droite de ce 1 grâce à des opérations élémentaires sur les colonnes en l’utilisant comme pivot. Les matrices
A et I n deviennent :    1 
1 0 ··· 0 × ··· ×
a11
a22 ··· a2n  
A′ =  b

b
b

b
 et I n′ =  1
.
b
b
b

ann
1
′ ′
• On continue. Si a22 est nul, la deuxième colonne de A est nulle, donc A n’est pas inversible, donc A ne l’est
1
pas non plus. Dans le cas contraire, l’opération C2 ← C2 transforme le coefficient a22 en 1 et on peut
a22
annuler ensuite tous les coefficients de A′ situés à droite de ce 1 grâce à des opérations élémentaires sur les
colonnes en l’utilisant comme pivot. Les matrices A′ et I n′ deviennent :
 1 
  × × ··· ×
1 0 0 ··· 0 a
 11 1 
 1 0 ··· 0   × · · · ×
 a33 · · · a3n  et  a22 .
   1 
 
b
b

b b

b
b

ann b

1
• Et ainsi de suite. Finalement, si l’un des coefficients diagonaux de A est nul, la démarche algorithmique
qui précède montre que A n’est pas inversible, et si au contraire tous sont non nuls, A est inversible et son
inverse A−1 est une matrice triangulaire supérieure de coefficients diagonaux les inverses de ceux de A.
• Et si A est triangulaire inférieure ? Dans ce cas, A⊤ est triangulaire supérieure, donc inversible si et seulement
si ses coefficients diagonaux sont tous non nuls. Or A et A⊤ ont les mêmes coefficients diagonaux, et A est
inversible si et seulement si A⊤ l’est, donc A est inversible si et seulement si ses coefficients diagonaux sont
⊤ −1 € −1 Š⊤
tous non nuls. Le cas échéant : A−1 = A⊤ , donc A−1 = A⊤ , or nous venons de voir que

⊤ −1 −1
A est triangulaire supérieure, donc sa transposée A est triangulaire inférieure.

Un système linéaire est dit triangulaire si sa matrice l’est. Le théorème qui suit découle directement du précédent.

Théorème (Système triangulaire à coefficients diagonaux non nuls) Tout système triangulaire à coefficients
diagonaux non nuls possède une et une seule solution.

15

Vous aimerez peut-être aussi