0% ont trouvé ce document utile (0 vote)
45 vues13 pages

Introduction au calcul matriciel

Ce document définit les notions de base du calcul matriciel, notamment les définitions de matrice, d'opérations élémentaires comme l'addition et la multiplication de matrices, ainsi que les propriétés liées comme l'associativité et la bilinearié du produit matriciel.

Transféré par

AYIVOR Timothée
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
45 vues13 pages

Introduction au calcul matriciel

Ce document définit les notions de base du calcul matriciel, notamment les définitions de matrice, d'opérations élémentaires comme l'addition et la multiplication de matrices, ainsi que les propriétés liées comme l'associativité et la bilinearié du produit matriciel.

Transféré par

AYIVOR Timothée
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

IX Calcul matriciel

15 novembre 2022
IX - CALCUL MATRICIEL

n, m, p, q et r désignent des entiers naturels


non nuls, et K désigne R ou C. — On appelle matrice carrée d’ordre n toute
matrice de taille n × n. L’ensemble des ma-
trices carrées d’ordre n est noté Mn (K).
1 Définitions élémentaires — On appelle matrice nulle d’ordre n la ma-
trice carrée d’ordre n dont tous les coeffi-
cients sont nuls. On la note simplement 0n ,
Définition 1.0.1.
ou 0 sans référence à sa taille s’il n’y a pas
On appelle matrice de taille n × p (ou à n lignes
d’ambiguïté.
et p colonnes), à valeurs (ou coefficients) dans K,
— On appelle matrice identité d’ordre n la
toute famille de np éléments de K, ces éléments
matrice
étant notés (aij )16i6n,16j6p , et présentés sous la
 
forme d’un tableau de la manière suivante : 10 ... 0
0 . . .
 .. .. 
a1,1

... a1,p
 . . 
In = (δi,j )16i,j6n = . . .
 
 ..
A= . ..  . . .. ..
.  . . 0 

an,1 . . . an,p 0 ... 0 1

On note A = (aij )16i6n,16j6p , les (ai,j ) étant les — On appelle matrice diagonale toute matrice
coefficients de la matrice A, ai,j étant le coefficient carrée (aij )16i,j6n telle que pour tous i, j ∈
de la ie ligne et de la j e colonne. J1, nK, i 6= j ⇒ ai,j = 0.
La matrice (ai,j )16j6p est la ie ligne de A, par- — On appelle matrice triangulaire supérieure
fois notée ai,∗ . (resp. inférieure) toute matrice carrée
La matrice (ai,j )16i6n est la j e colonne de A, (aij )16i,j6n telle que pour tous i, j ∈ J1, nK
parfois notée a∗,j . tells que i > j (resp. i < j), aij = 0.

Remarque 1.0.6. 1. On note généralement les


Remarque 1.0.2.
matrices par des lettres majuscules, et la
Le premier indice indique toujours la ligne et
famille des coefficients par la lettre minuscule
le second indice indique toujours la colonne. En
correspondante.
général (mais attention quand même), on les note
respectivement i et j. 2. On identifie les matrices colonnes de Mn,1 (K)
avec les éléments de Kn .
Exemple 1.0.3.
3. On se gardera d’identifier les matrices lignes
Donner la matrice (i × j)16i63,16j65 .
avec les éléments de Kn car on préfère les
identifier avec d’autres objets mathématiques
Définition 1.0.4 (symbole de Kronecker). (on verra cela plus tard).
Si i, j sont deux objets, on note
( 1.1 Opérations sur les matrices
1 si i=j
δi,j = .
0 si i 6= j Définition 1.1.1.
Soient A = (aij )16i6n,16j6p et B =
(bij )16i6n,16j6p deux matrices de même
taille, et λ ∈ K un scalaire.
Définition 1.0.5. — L’ensemble des matrices Addition On appelle somme de A et B la matrice
de taille n × p est noté Mn,p (K). (aij + bij )16i6n,16j6p , notée A + B.

2
IX - CALCUL MATRICIEL

Et même pire, AB peut exister mais pas BA.


Produit par un scalaire On note λA la matrice
(λaij )16i6n,16j6p . Remarque 1.1.6.
Le produit de deux matrices non nulles peut valoir
la matrice nulle.
Par exemple, avec
Attention aux tailles des matrices : on
ne peut additionner n’importe quoi avec n’importe ! !
0 1 1 0
quoi. A= et B = ,
0 0 0 0
Exemple
! 1.1.2. ! !
0 1 2 0 4 1 alors AA = 0, AB = 0 et BA 6= 0.
+2 = .
−1 2 1 3 1 8 Ainsi, on ne peut pas « simplifier » dans un
produit. Ici : A × A = A × B mais A 6= B.
Définition 1.1.3 (Produit matriciel).
Soient A ∈ Mn,p (K) et B ∈ Mp,q (K). On ap-
pelle produit de A par B noté AB !
la matrice de
p
Mn,q (K) de coefficients
X
aik bkj . Proposition 1.1.7.
k=1 Le produit matriciel est :
Associatif : si A ∈ Mn,p (K), B ∈ Mp,q (K), C ∈
Mq,r (K), alors (AB)C et A(BC) sont dans
Gare aux dimensions, on ne peut pas Mn,r (K) et sont égales, notées ABC.
multiplier n’importe quelle matrices. Bilinéaire : si A, B, C, D sont des matrices de
taille convenable, et si λ ∈ K, alors (A +
Exemple 1.1.4. — On tâchera d’organiser les λB)C = AC + λBC et A(C + λD) = AC +
produits comme suit : λAD.
B Les matrices nulles et identité jouent un rôle bien
particulier. Si A ∈ Mn,p (K) et q ∈ N∗ , alors
z }| !{
1 0 2
Dim. OK Neutre à gauche : In A = A
−1 3 2
   
2 1 1 3 6 Neutre à droite : AIp = A
1 0  1 0 2 
   
Mult. par 0 à gauche : 0q,n A = 0q,p
4 2 2 6 12
| {z } | {z } Mult. par 0 à droite : A0p,q = 0n,q
A =AB
— Le produit impossible :
! ! Démonstration.
1 3 0 2 3 Bien qu’un peu technique, nous donnons ici la démonstra-
× .
2 1 1 1 1 tion ; nous en verrons plus tard une autre.
1. A = (aij ), B = (bij ), C = (cij ). Ainsi,

Ce produit comporte plein de pièges. q


X
!
BC = bik ckj
Remarque 1.1.5. k=1 16i6p,16j6r
Le produit matriciel n’est pas commutatif, par
exemple : et
! ! ! ! p q
!!
1 1 1 0 1 0 1 1 A(BC) =
X
ai` ×
X
b`k ckj .
× 6= × .
0 1 0 2 0 2 0 1 `=1 k=1 16i6n,16j6r

3
IX - CALCUL MATRICIEL

Or, si 1 6 i 6 n et 1 6 j 6 r, Soit M ∈ Mn,p (K) et


p q
! p q
x1
X X X X  
ai` × b`k ckj = ai` × b`k ckj
 .. 
`=1 k=1 `=1 k=1 X =  . .
p q

=
X X
ai` b`k ckj xp
`=1 k=1
q
XX p Alors, en notant C1 ,. . . ,Cp les colonnes de M ,
= ai` b`k ckj on a
p
k=1 `=1 X
q
X X p
! MX = x k Ck .
= ai` b`k × ckj , k=1
k=1 `=1
En particulier, la matrice M X est une combinai-
qui est le coefficient i, j de (AB)C. D’où l’égalité son linéaire de la famille (C1 , . . . , Cn ).
voulue.
Remarque 1.1.10.
2. idem
n
! En reprenant les notations de la remarque précé-
dente, si l’on note Ei la matrice colonne élémen-
X
3. In A = δik akj = (δii aij ) = (aij ) = A.
k=1 taire de dimension p (tous ses coefficients sont
4. Direct. nuls, sauf le ie qui vaut 1), c’est-à-dire

0
 
Remarque 1.1.8.  .. 
.
Par associativité, il y a 5 manières de calculer  
0
ABCD qui conduisent toutes au même résul-  
Ei = 1 = (δi,k )16k6p ,
 
tat : ((AB)C)D = (A(BC))D = A((BC)D) =  
0
A(B(CD)) = (AB)(CD). Mais le temps de calcul  .. 
 
est-il le même dans les 5 cas ? C’est le problème .
de la multiplication matricielle enchaînée (Matrix 0
chain multiplication ou Matrix Chain Ordering
Problem (MCOP) en anglais). Plus généralement, le 1 se trouvant en ie position.
le problème est de savoir dans quel ordre effec- On a alors
tuer les produits pour calculer le plus efficacement δ1i
 
p
possible un produit de matrices M1 .M2 . · · · .Mn .  ..  X
Ce problème peut se résoudre par programmation M Ei = M  .  = δki Ck = Ci .
δpi k=1
dynamique, ce qui est au programme en option
informatique, mais même si ce n’est pas toujours
la solution optimale, il vaut mieux commencer 1.2 Matrices carrées
par les produits qui font apparaître des « petites »
Remarque 1.2.1.
matrices.
Si A et B sont deux matrices carrées d’ordre n,
Précisément, le produit d’une matrice n × p par
alors AB et BA sont définies et également de
une matrice p × q nécessite de l’ordre de n × p × q
taille n. On dit que le produit matriciel est une
opérations. Ainsi, si A ∈ M10,100 (K), B ∈ M100,5
loi de composition interne de Mn (K).
et C ∈ M5,50 , le calcul de (AB)C demande de
De plus, In .A = [Link] = A. On dit que In est le
l’ordre de (10 × 100 × 5) + 10 × 5 × 50 = 7 500
neutre de Mn (K) pour le produit matriciel.
opérations, alors que celui de A(BC) en demande
Enfin, la propriété de bilinéarité montrée précé-
de l’ordre de 100 × 5 × 50 + 10 × 100 × 50 = 75 000.
demment montre que (Mn (K), +, ×) a une struc-
Remarque 1.1.9. ture d’anneau, non commutatif.

4
IX - CALCUL MATRICIEL

Remarque 1.2.2. Démonstration.


Soit a1 , . . . , an et b1 , . . . , bn des nombres com- On fixe q = 1 et on montre par récurrence que, pour tout
p ∈ N, Ap B = BAp .
plexes. Alors,
On fixe alors p ∈ N et on utilise ce que l’on vient de

a1 0

b1 0
 
a1 b1 0
 montrer avec Ap à la place de B et B à la place de A.
 ..  .. =
  ..  Démonstration (Formule du binôme de Newton).
 .  . . 
Reprendre la démonstration du binôme de Newton pour
0 an 0 bn 0 an bn des complexes, en repérant bien à quel endroit le fait que
les deux matrices commutent intervient, on utilise alors le
lemme 1.2.6.
Définition 1.2.3 (Puissances d’une matrice car-
rée). Exemple 1.2.7.
On les définit par récurrence : si M ∈ Mn (K), Calculer A2 avec
alors, M 0 = In , M 1 = M , et pour tout k ∈ N,  
1 1 1
M k+1 = M × M k (on a donc, pour tout k ∈ N∗ ,
A = 2 0 0
 
Mk = M × M{z. . . × M}. Ainsi pour tout k ∈ N,
| 1 0 0
k fois
on a M n ∈ Mn (K).
   
1 0 1 0 1 0
= 2 −1 0 + 0 1 0
   

Remarque 1.2.4. 0 −2 0 1 2 0
On remarque que les puissances d’une même ma- = B + C.
trice commutent entre elles :
Calculer A3 avec
k j
M ×M =M × M{z. . . × M} × M × M{z. . . × M}  
| | 3 0 0
k fois j fois
A = 0 1 −2
 
= |M × M{z. . . × M} 0 4 6
(k+j) fois    
1 0 0 2 0 0
= |M × M{z. . . × M} × M
|
× M{z. . . × M} = 0 1 −1 + 0 0 −1
   
j fois k fois 0 1 2 0 3 4
j k
=M ×M . = B + C.

Théorème 1.2.5 (Formule du binôme de New- 1.3 Matrices inversibles


ton).
Elle est valable pour les matrices carrées qui com-
Définition 1.3.1.
mutent.
Soit A ∈ Mn (K). On dit que A est inversible s’il
Soit n ∈ N∗ et p ∈ N, soit A, B ∈ Mn (K)
existe une matrice B ∈ Mn (K) telle que AB =
vérifiant AB = BA. Alors,
BA = In .
p
X
!
p k p−k Dans ce cas B est unique, est appelée l’inverse
p
(A + B) = A B . de A et est notée A−1 .
k=0
k
On note GLn (K) l’ensemble des matrices car-
rées d’ordre n à coefficients dans K inversibles.

Démonstration (Unicité).
Lemme 1.2.6. Soit B, C ∈ Mn (K) deux « inverses » de A. Alors,
Soit A, B ∈ Mn (K) vérifiant AB = BA. Alors,
B = BIn = B(AC) = (BA)C = In C = C.
pour tout p, q ∈ N, Ap B q = B q Ap .

5
IX - CALCUL MATRICIEL

Remarque 1.3.2. Démonstration.


 
Une matrice inversible commute toujours avec son a b
Soit A = , on a toujours (le vérifier par le calcul)
c d
inverse.
A2 − (a + d)A + (ad − bc)I2 = 0.
Exercice 1.3.3. !
0 1 1
Montrer que la matrice A = étudiée pré- 6 0, avec B =
Alors, si det A = ((a + d)I2 − A), on a
det A
0 0 AB = BA = I2 donc A est inversible, d’inverse B.
cédemment n’est pas inversible. Réciproquement, si det A = 0, alors A(A−(a+d)I2 ) = 0.
Si A est inversible, en multipliant par cet inverse on obtient
que A est diagonale, puis que a = 0 ou que d = 0 ... Dans
les deux cas, A2 = 0 donc A ne peut être inversible (à vous
Définition 1.3.4 (Puissances négatives d’une de réfléchir pourquoi !).
matrice inversible.).
Soit A ∈ GLn (K), soit p ∈ Z. On définit : 1.4 Matrices et opérations élémentaires
Dans toute cette partie, on considère des ma-
A−p = (A−1 )p
trices carrées de dimension n. Nous allons définir
pour les matrices des opérations sur les lignes
similaires à celles déjà vues pour les systèmes
linéaires. En ce qui concerne les matrices, nous
Proposition 1.3.5. pourrons aussi définir des opératinos analogues
Soit A ∈ GLn (K). Alors, pour tout p ∈ N, Ap est sur les colonnes. Nous verrons à la fin de ce cha-
inversible et pitre en quoi ces opérations sont importantes pour
(Ap )−1 = A−p . la résolution des systèmes linéaires.

Démonstration.
Définition 1.4.1 (matrice élémentaire).
Soit p ∈ N. Comme A et A−1 commutent, Ap (A−1 )p = Si 1 6 i, j 6 n, on définit la matrice
(AA−1 )p = Inp = In , de même de l’autre côté.  
0 ... ... 0
Enfin, le cas particulier des matrices carrées .
 .. .. 
d’ordre 2 est à connaître sur le bout des doigts. 1 .
Ei,j = . = (δi,k δj,` )16k,`6n ,
 
. .. 
. .

0 ... ... 0
Définition 1.3.6.
le 1 se trouvant sur la ie ligne et la j e colonne de
Le déterminant d’une matrice carrée d’ordre 2
! M.
a b
A= est det A = ad − bc.
c d
Remarque 1.4.2.
Si M = (mi,j ) ∈ Mn (K), alors
X
Proposition 1.3.7. M= mi,j Ei,j .
!
16i,j6n
a b
Une matrice, carrée d’ordre 2, notée A =
c d Remarque 1.4.3.
est det A = ad − bc est inversible si et seulement On pourrait très bien considérer des matrices élé-
si son déterminant est non
! nul. Le cas échéant, mentaires qui ne soient pas carrées. Les résultats
1 d −b suivants sont alors valides, sous réserve de com-
A−1 = .
ad − bc −c a patibilité des dimensions lors des produits, mais
les notations deviennent alors plus lourdes.

6
IX - CALCUL MATRICIEL

Commençons par voir qu’une telle matrice élé-


mentaire peut simplement s’écrire comme le pro- Proposition 1.4.6 (produit de deux matrices
duit d’une colonne élémentaire par une ligne élé- élémentaires).
mentaire. On a
(
Ei,` si j=k
Ei,j Ek,` = δj,k Ei,` = .
0 si j 6= k

Lemme 1.4.4.
Si 1 6 i, j 6 n, notons Γi la matrice colonne de
dimension n dont tous les coefficients sont nuls, Nous pouvons donner trois démonstrations (ou
sauf le ie qui vaut 1, et Λj la matrice ligne de plutôt, trois versions d’une même démonstration)
dimension n dont tous les coefficients sont nuls, de ce résultat. Le plus important est toutefois
sauf le j e qui vaut 1 : de savoir tracer le dessin du produit de ces deux
matrices : le produit s’y lit immédiatement.
0
 
 ..  Tout d’abord, utilisons la remarque 1.1.10.
.
 
0 Démonstration.
  Soit α ∈ [[1, n]]. La αe colonne de Eij ×Ek,` est Eij Cα où Cα
Γi = 1 = (δi,k )16k6n ,
 
  est la αe colonne de Ek,` (c’est une colonne élémentaire).
0 6 `, Cα = 0n1 , donc toutes les colonnes de Ei,j ×
Si α =
 .. 
 
Ek,` sont nulles sauf peut-être la `e.
.
Cette `e colonne de Ek,` est égale à Γk (colonne élé-
0 mentaire introduite dans le lemme 1.4.4). Par la re-
marque 1.1.10, Eij Γk est la ke colonne de Eij . Celle-ci
le 1 se trouvant en ie position, et 6 k. Sinon, il s’agit de la colonne élémentaire
est nulle si j =
  Γi .
Λj = 0 · · · 0 1 0 ··· 0 = (δj,` )16`6n , On en déduit le résultat.

On peut également adopter une démonstration


le 1 se trouvant en j e position.
purement calculatoire.
Alors, Ei,j = Γi Λj .
Démonstration.
Notons (mab )(a,b)∈[[1,n]]×∈[[1,q]] les coefficients du produit
Eij Ekh . Alors, soit (a, b) ∈ [[1, n]] × [[1, q]]. On a
Remarque 1.4.5.
Cela signifie que la ie ligne de Ei,j est Λj , la j e p
X
colonne de Ei,j est Γi , les autres lignes et colonnes mab = (δai δcj )(δck δbh )
c=1
étant nulles.
= (δai δjj )(δjk δbh )
Démonstration. = δjk (δai δbh )
Cela peut s’observer en dessinant le produit Γi Λj .
On peut aussi l’observer sur la formule définissant Ei,j . mab est donc le coefficient de la ligne a, colonne b de
Comme Γi = (δi,k )16k6n et comme Λj = (δj,` )16`6n , δjk Eih .
alors par la formule du produit matricielle on a Γi Λj =
(δi,k δj,` )16k,`6n = Ei,j . Utilisons maintenant le résultat du lemme 1.4.4
pour obtenir une forme différente de cette démons-
Donnons maintenant deux résultats techniques,
tration.
dont la maîtrise se révélera être importante : vous
devrez savoir les retrouver efficacement. Démonstration.
Reprenons les notations du lemme 1.4.4. On a

Ei,j Ek,` = Ci Lj Ck L` = (Lj Ck )Ci L` = (Lj Ck )Ei,` .


| {z }
∈K

7
IX - CALCUL MATRICIEL

Il suffit alors de considérer le produit


n
Ces opérations sont notées respectivement :
X
Lj Ck = δj,a δa,k . 1. Li ↔ Lj et Ci ↔ Cj ;
a=1
2. Li ← λLi avec λ =
6 0 (idem avec des co-
Remarquons que si a 6= j ou si a 6= k, on a δj,a δa,k = 0. lonnes) ;
Si j 6= k, on ne peut jamais avoir simultanément a = j
et a = k, donc on a toujours δj,a δa,k = 0, donc Lk Ck = 0. 3. Li ← Li + λLj , avec i 6= j (idem avec des
Si j = k, on a Lj Ck = δj,j δk,k = 1. colonnes).
En résumé, on a Lj Ck = δj,k , donc Ei,j Ek,` = δj,k Ei,` .

Définition 1.4.9 (matrices d’opérations élémen-


Lemme 1.4.7 (produit matrice - matrice élémen- taires).
taire). Soit 1 6 i 6= j 6 n, soit λ ∈ K.
Soit M ∈ Mn (K), dont on note les colonnes
C1 , . . . , Cn et dont on note les lignes L1 , . . . , Ln . 1. On appelle matrice d’échange de coefficients
Soit 1 6 i, j 6 n. i, j la matrice εij = In − Eii − Ejj + Eij + Eji
(la dessiner).
1. M Ei,j est la matrice dont toutes les colonnes
sont nulles, sauf la j e qui vaut Ci . 2. On appelle matrice de dilatation de coeffi-
cient i et de rapport λ la matrice Di (λ) =
2. Ei,j M est la matrice dont toutes les lignes In + (λ − 1)Eii (la dessiner).
sont nulles, sauf la ie qui vaut Lj .
3. On appelle matrice de transvection de co-
efficients i, j et de rapport λ la matrice
Démonstration. Tij (λ) = In + λEij (la dessiner).
Le plus efficace est de réaliser le dessin du produit matri-
ciel. On peut aussi voir cela comme une traduction de la
remarque (fondamentale) 1.1.10.
On peut aussi effectuer un calcul : Théorème 1.4.10.
X Soit A ∈ Mn (K), et i, j ∈ J1, nK.
M Ei,j = mk,` Ek,` Ei,j
16k,`6n 1. L’opération Li ↔ Lj est équivalente à la
=
X
mk,` δ`,i Ek,j
multiplication de la matrice A à sa gauche
16k,`6n
par la matrice εij .
n
X 2. L’opération Li ← λLi est équivalente à la
= mk,i Ek,j ,
multiplication de la matrice A à sa gauche
k=1
par la matrice Di (λ).
ce qui est exactement le résultat annoncé.
On procède de même pour l’autre produit. 3. L’opération Li ← Li + λLj est équivalente à
la multiplication de la matrice A à sa gauche
par la matrice Tij (λ).
Définition 1.4.8.
4. L’opération Ci ↔ Cj est équivalente à la
Il existe trois types d’opérations élémentaires sur
multiplication de la matrice A à sa droite par
les lignes et colonnes d’une matrice :
la matrice εij .
1. l’échange de deux lignes ou deux colonnes ; 5. L’opération Ci ← λCi est équivalente à la
2. la multiplication d’une ligne/colonne par un multiplication de la matrice A à sa droite par
scalaire non nul ; la matrice Di (λ).
3. l’addition à une ligne/colonne d’une autre 6. L’opération Cj ← Cj + λCi est équivalente à
ligne/colonne multipliée par un scalaire. la multiplication de la matrice A à sa droite

8
IX - CALCUL MATRICIEL

Remarque 1.4.13.
par la matrice Tij (λ) (attention aux coeffi- Si par opérations élémentaires sur les lignes ou les
cients !). colonnes d’une matrice on arrive à In , on obtient
donc rapidement l’inverse de cette matrice.
Démonstration. Exercice 1.4.14. !
On appelle L1 , . . . , Ln les lignes de A et C1 , . . . , Cp ses 1 3
colonnes. Avec A = , montrer que A est inver-
−2 2
Tout est fondé sur le lemme 1.4.7.
Ei,j A est la matrice nulle, sauf pour sa ie ligne qui vaut sible et calculer A−1 en procédant par opérations
Lj . On a alors immédiatement les effets demandés. élémentaires sur les lignes et/ou les colonnes de
A.
Exemple 1.4.11.
Calculer
     1.5 Transposition et matrices symétriques
1 0 0 1 2 3 1 0 0 1 0 0
0 2 0 4 5 6 0 0 1 2 1 0
    
Définition 1.5.1.
0 0 1 7 8 9 0 1 0 0 0 1
Soit A ∈ Mn,p (K), A = (aij ). On appelle transpo-
  sée de A la matrice de dimension p × n notée A>
7 3 2
et définie par
On trouve 32 12 10.
 
25 9 8 ∀i ∈ J1, pK, ∀j ∈ J1, nK, (t A)i,j = aj,i .

Théorème 1.4.12 (inversion des matrices d’opé-


rations élémentaires). Remarque 1.5.2.
Soit 1 6 i 6= j 6 n, soit λ ∈ K. Alors, les trois On trouvera parfois aussi la notation t A.
matrices d’opérations élémentaires introduites ci-
Exemple 1.5.3.
dessus sont inversibles et ! !> !
 > 4 1 0 1 2
4 2 = et = .
ε−1
ij = εij , 2 2 3 0 3
>
Di (λ)−1 = Di (λ−1 ), On a aussi In = In .
Tij (λ)−1 = Tij (−λ).
Proposition 1.5.4.
Soient A, B ∈ Mn,p (K), λ ∈ K.
Démonstration.
1. (A + λB)> = A> + λ B > , i.e. A 7→ A> est
Il suffit d’utiliser le résultat précédent. Par exemple, effec-
tuer le calcul linéaire.
ε2ij = εij εij = In 2. Si C ∈ Mp,q (K), (AC)> = C > A> .
revient à échanger deux fois les lignes i et j de In . On
3. (A> )> = A.
revient donc à la configuration de départ, et donc ε2ij = In .
On procède de même pour les deux autres. 4. Si A est inversible, alors A> est inversible et
On peut aussi calculer directement, par exemple, comme (A−1 )> = (A> )−1 .
In et λEij commutent :

Tij (λ)Tij (−λ) = (In + λEij )(In − λEij )


Démonstration. 1. Élémentaire.
= In2 − λ2 Eij
2

2. A = (aij ), C = (cij ), A> = (αij ), C > = (γij ), avec


= In .
αij = aji , γij = cji , et on conclut par calcul direct.
2
En effet, comme i 6= j, alors Eij = δij Eij = 0. 3. Élémentaire.

9
IX - CALCUL MATRICIEL

4. On a AA−1 = In , donc en transposant (A−1 )> × 1.6 Inversion de matrices triangulaires.


A> = In> = In .

Lemme 1.6.1.
Remarque 1.5.5. Le produit de deux matrices triangulaires de
La transposition permet de transformer des résul- même type est aussi une matrice triangulaire,
tats sur les colonnes en résultats sur les lignes, et de même type.
inversement. Par exemple, une matrice est inver-
sible si et seulement si ses lignes sont linéairement Démonstration.
indépendantes. On réalisera bien entendu un dessin.
On le démontre pour deux matrices triangulaires supé-
rieures, on obtient par transposition le résultat désiré sur
les matrices triangulaires inférieures.
Soit A, B ∈ Mn (R) deux matrices triangulaires supé-
Définition 1.5.6. rieures, soit 1 6 j < i 6 n. Le coefficient d’indice (i, j) de
AB est
A ∈ Mn (K) est dite symétrique (resp. antisymé- n
X
trique) si A = A> (resp. A = −A> ). ai,k bk,j
On note souvent Sn (K) l’ensemble des matrices k=1
Considérons k ∈ [[1, n]]. Si k > j, on a bk,j = 0, car B est
symétriques de dimension n à coefficients dans K, trianglaire supérieure. Sinon, on a k 6 j, donc k < i, donc
et An (K) celui des matrices antisymétriques. on a ai,k = 0, car A est trianglaire supérieure.
n
X
Ainsi, ai,k bk,j = 0, donc AB est triangulaire supé-
k=1
Remarque 1.5.7. rieure.
Une matrice symétrique ou antisymétrique est
toujours carrée. Théorème 1.6.2.
Exemple Une matrice triangulaire est inversible si et seule-
! 1.5.8. !
0 2 1 0 ment si aucun de ses coefficients diagonaux n’est
est symétrique, pas . nul.
2 1 2 1
Le cas échéant, l’inverse d’une matrice triangu-
Exemple
! 1.5.9. ! laire est triangulaire, de même type.
0 −2 1 0
est anti-symétrique, pas .
2 0 0 1 On donne ici une preuve élémentaire de ce ré-
sultat, nous en donnerons une plus abstraite (et
plus efficace) au second semestre.
Proposition 1.5.10. Démonstration.
Quitte à transposer, il suffit de considérer une matrice
Les coefficients diagonaux d’une matrice antisy- T = (ti,j ) triangulaire supérieure.
métrique sont nuls. Supposons que pour tout 1 6 j 6 n, tj,j 6= 0. On effectue
pour tout j allant de n à 1 et pour chaque 1 6 i 6 j − 1
l’opération
Démonstration. ti,j
Li ← Li − Lj ,
Soit i ∈ [[1, n]], on a aii = −aii donc aii = 0. tj,j
puis l’opération
Exercice 1.5.11. 1
Lj ← Lj ,
tj,j
Soit M ∈ Mn (R). Montrer qu’il existe un unique
on obtient la matrice identité. Or, toutes les matrices
couple (A, S) tel que d’opérations élémentaires utilisées sont triangulaires supé-
— M =A+S ; rieures. Il existe donc des matrices triangulaires supérieures
— A ∈ An (R) ; T1 . . . Tp telles que
— S ∈ Sn (R). T1 . . . Tp T = In .

10
IX - CALCUL MATRICIEL

Ainsi, avec T 0 = T1 . . . Tp , on a Dans la suite nous noterons S le premier


0
T T = In . système et SH son système homogène associé,
et nous noterons Sol et SolH leurs ensembles de
Il suffit d’observer qu’avec les mêmes opérations sur les
colonnes, dans l’ordre inverse, on obtient solutions respectifs.
T T 0 = In .
Comme produit de matrices triangulaires supérieures, T 0 Remarque 2.1.2.
est triangulaire supérieure. Ainsi, T est inversible et T 0 = Le système S peut aussi s’écrire sous forme ma-
T −1 est triangulaire supérieure. tricielle AX = B, avec A = (aij )16i6n, 16j6p ,
Réciproquement, supposons qu’il existe 1 6 i 6 n tel x1
 
b1
 
que ti,i = 0. Notons k le plus grand tel indice i. Alors,  ..   .. 
en effectuant les mêmes opérations que précédemment, il X =  .  et B =  . .
existe une matrice T 0 inversible telle que xp bn
SH s’écrit alors AX = 0.
 
∗ ... ∗ ∗
 .. .. .. 
. . . 
∗ ∗ ∗
 
... 
T 0T =  0 , Définition 2.1.3.
 

 1 
 Cette matrice A est appelée matrice du système
 .. 
 .  S.
1
les coefficients non inscrits étant nuls. Or, une matrice
possédant une ligne nulle ou une colonne nulle n’est pas Théorème 2.1.4. 1. SolH contient toujours
inversible : si une matrice A a sa ie ligne nulle, alors pour
toute matrice B la ie ligne de AB sera nulle, donc AB 6= In .
l’élément (0, . . . , 0) et est stable par com-
Ainsi, T 0 T n’est pas inversible, donc T 0 étant inversible, binaison linéaire.
T ne l’est pas. 2. L’ensemble Sol est :
• soit vide ;
2 Systèmes linéaires • soit non vide, et dans ce cas, si X0 =
(x1 , . . . , xp ) est un élément de Sol, alors
2.1 Généralités Sol= {X0 + XH , XH ∈ SolH }, ce que l’on
note SolH + (x1 , . . . , xp ).
Rappel 2.1.1.
Par conséquent, Sol contient 0, 1 ou une infi-
On appelle système linéaire à n équations et p
nité d’éléments.
inconnues tout système de la forme :


 a11 x1 + . . . + a1p xp = b1 Démonstration.

 . . . On utilise les notations matricielles, le système S s’écrivant
 . . . S : AX = B, avec A ∈ Mn,p (K) et B ∈ Mn,1 (K). Le
système homogène associé à S est SH : AX = 0. Soit



an1 x1 + . . . + anp xp = bn
X, Y ∈ Mp,1 (K) et λ, µ ∈ K. On a bien
où les aij et les bi sont dans K, et les xi sont les    
0 0
inconnues.  ..   .. 
A × . = . ,
On dit que le système est compatible s’il admet
0 0
une solution.
Le système homogène associé est le système : donc le vecteur nul est solution du système homogène. De
 plus, si X et Y sont solutions de SH , alors

 a11 x1 + . . . + a1p xp = 0  
0

 . . .
. . . A(λX + µY ) = λAX + µAY =  ...  .
 




an1 x1 + . . . + anp xp = 0 0

11
IX - CALCUL MATRICIEL

Notamment, si X est une solution de SH , tous les vecteurs 2.2 Systèmes et matrices inversibles
colinéaires à X seront aussi solution de SH , donc SH est
infini. L’inversibilité des matrices d’opérations élémen-
Ensuite, soit X0 ∈ Mn,1 (K) solution de S. On a taires est la raison pour laquelle le pivot de Gauss
est bien une méthode de résolution des systèmes
X ∈ Sol ⇔ AX = B
linéaires.
⇔ AX = AX0
On a en effet le résultat élémentaire suivant.
⇔ A(X − X0 ) = 0
⇔ X − X0 ∈ SolH ,

ce qui montre bien que Sol = { X0 + XH | XH ∈ SolH }. Lemme 2.2.1.


Soit A ∈ Mn,p (K), soit X ∈ Mp,1 (K), soit B ∈
Remarque 2.1.5. Mn,1 (K). Considérons une matrice M ∈ GLn (K).
Si SolH 6= {(0, . . . , 0)}, alors SolH est infini. Alors,

Exemple 2.1.6. AX = B ⇔ (M A)X = M B.


On considère le système
(
x + 3y = 2 Démonstration.
2y + z = 1 Il suffit de multiplier par M ou par M −1 , dans un sens ou
dans l’autre.
Le système homogène associé est
(
x + 3y = 0 Proposition 2.2.2.
2y + z = 0 Effectuer une opération élémentaire sur les lignes
d’un système linéaire donne un système équi-
Si (x, y, z) ∈ R3 , on a valent.

   
( x −3 Démonstration.
x + 3y = 0 Effectuer une opération élémentaire sur les lignes d’un
⇔ y  = y  1  .
   
2y + z = 0 système linéaire revient à multiplier à gauche la matrice
z −2 de ce système ainsi que le membre de droite par une ma-
trice d’opération élémentaire, qui est inversible. Par le
Ainsi, l’ensemble des solutions homogènes est une lemme 2.2.1, les deux systèmes sont équivalents.
droite vectorielle dirigée par le vecteur de coor-
Le cas particulier où la matrice du système
données (−3, 1, −2).
est carrée et inversible (on parle de système de
De même, si (x, y, z) ∈ R3 , on a
Cramer) est simple.
(
x + 3y = 2
2y + z = 1 Proposition 2.2.3.
x
 
2
 
−3
 
Soit A ∈ GLn (K), soit X, B ∈ Mn,1 (K). Alors,
⇔ y  = 0 + y  1  .
     
AX = B ⇔ X = A−1 B.
z 1 −2

Ainsi, l’ensemble des solutions du système est


Démonstration.
une droite passant par le point de coordonnées Il suffit de multiplier par A ou par A−1 , dans un sens ou
(2, 0, 1) et dirigée par le vecteur de coordonnées dans l’autre. On peut aussi voir cela comme une consé-
(−3, 1, −2). quence du lemme 2.2.1.

12
IX - CALCUL MATRICIEL

Ce point est toutefois le départ de la méthode Ainsi, A est inversible, et on lit


efficace d’inversion de matrices. Anticipons un peu
un résultat que nous étudierons ultérieurement.

!
Théorème 2.2.4. −1 −3 −2
A = .
Soit A ∈ Mn (K). La matrice A est inversible si et 2 1
seulement si pour tout B ∈ Mn,1 (K), le système
AX = B admet une unique solution.

Démonstration.
Cela sera démontré au second semestre.
Exercice 2.2.7.
Remarque 2.2.5. Pour chacune des matrices suivantes, déterminer
Le cas échéant, on utilise la proposition 2.2.3 pour si elle est inversible et, le cas échéant, donner son
lire l’expression de A−1 . inverse.
Exemple 2.2.6. !
1 2
Considérons la matrice A = . Soit !
−2 −3 1 4
! ! 1. A =
x a 2 3
x, y, a, b ∈ R, notons X = et B = .
y b
On résout le système suivant. !
4 −2
2. B =
(
x + 2y = a −2 1
AX = B ⇔
−2x − 3y = b  
( 4 2 3
x + 2y = a 3. C =  2 2 1
 

L2 ←L2 +2L1 y = 2a + b −1 −1 0
(
x = −3a − 2b

L1 ←L1 −2L2 y = 2a + b  
! −4 −3 −5
−3 −2 4. D =  4

2 −2

⇔X = B
2 1 4 3 5

13

Vous aimerez peut-être aussi