Matrices et Systèmes Linéaires : Concepts Clés
Matrices et Systèmes Linéaires : Concepts Clés
Une matrice sur K de taille (1, p) est dit matrice ligne, on note M1,p (K) l’ensemble des matrices de taille
(1, p) à coefficients dans K.
Chapitre 15 : Matrices et systèmes linéaires Une matrice sur K de taille (n, 1) est dit matrice colonne, on note Mn,1 (K) l’ensemble des matrices de taille (n, 1) à
coefficients dans K.
Une matrice sur K de taille (n, n) est dit matrice carrée de taille (ou d’ordre) n, on note Mn (K) au lieu de Mn,n (K)
l’ensemble des matrices de taille (n, n) à coefficients dans K. Dans ce cas le terme ai,i d’une matrice carrée est appelé
Dans ce chapitre, K désigne le corps R ou C terme diagonal.
Une matrice D de Mn (K) est dite diagonale si ∀i ̸= j, di, j = 0. On note Dn (K) l’ensemble des matrices diagonales de
1 Matrices : généralités Mn (K).
On appelle matrice triangulaire supérieure une matrice A de Mn (K) telle que
∀i et j ∈ [[1, n]], i > j ⇒ ai, j = 0.
Définition 1.1. Soient n et p deux éléments de N∗ . On appelle matrice à n lignes et p colonnes d’éléments de K tout De même, on appelle matrice triangulaire inférieure une matrice B de Mn (K) telle que
tableau de la forme : ∀i et j ∈ [[1, n]], i < j ⇒ bi, j = 0.
L’ensemble des matrices triangulaires supérieures (resp. inférieures) de Mn (K) est noté TnS (K) (resp. TnI (K)).
a1,1 . . . a1, j . . . a1,p
.. .. .. Ces matrices ont donc l’allure suivante :
. . .
ai,1 . . . ai, j ... ai,p
.. ..
d1,1 0 . . . 0 a1,1 . . . . . . a1,n a1,1 0 . . . 0
. . ... . . .. .
0 . .
.. .. ..
0 . .. .. . . .
.. .. ..
an,1 . . . an, j . . . an,p D= A= B=
.. . . . . .. . . . . .. .. . .
. . . 0 . . . . . . 0
également notée A = (ai, j )(i, j)∈[[1,n]]×[[1,p]] . ai, j est le terme de la i-ème ligne et j-ème colonne de A. On l’appelle aussi terme
0 . . . 0 dn,n 0 . . . 0 an,n an,1 . . . . . . an,n
général de la matrice A. Les ai, j sont appelés les coefficients de la matrice. Matrice diagonale Matrice triangulaire supérieure Matrice triangulaire inférieure
On dit que A est une matrice de taille (ou de format) (n, p) ou matrice (n, p). On note Mn,p (K) l’ensemble des matrices à
n lignes et p colonnes à coefficients dans K.
Deux matrices A et B sont égales si elles ont même taille (n, p) et des coefficients égaux aux mêmes positions : ∀(i, j) ∈ 2 Combinaisons linéaires de matrices
[[1, n]] × [[1, p]], ai, j = bi, j .
Définition 2.1. Soit A = (ai, j ) et B = (bi, j ) deux matrices de Mn,p (K).
Exemple 1.2. 1. A ∈
M2,3 (R) vérifie ∀(i, j) ∈ [[1, 2]] × [[1, 3]], ai, j = i − j. Ecrire A.
— On appelle somme de A et B la matrice de Mn,p (K) notée A + B de terme général ai, j + bi, j .
0 −1 −2
A= — On appelle produit de A par le scalaire λ ∈ K, la matrice de Mn,p (K) notée λ.A de terme général λ × ai, j .
1 0 −1
2. A ∈ M3,3 (R) vérifie ∀i ∈ [[1, 3]], ai,i = −2 et ∀(i, j) ∈ [[1, 3]] × [[1, 3]] tels que i ̸= j, ai, j = 5. Ecrire A.
Propriétés de la somme
5 −2 −2 Proposition 2.2. La matrice dont tous les coefficients sont nuls est appelée la matrice nulle et est notée 0(n,p) (ou s’il n’y
A = −2 5 −2
a pas d’ambiguité, 0).
−2 −2 5 ∀A, B,C ∈ Mn,p (K), ∀λ, µ ∈ K, on a :
A + B = B + A, A + (B +C) = (A + B) +C, A + 0 = A, λ(A + B) = λA + λB,
λ(µA) = (λµ)A, (λ + µ)A = λA + µA, 1.A = A, A + (−1)A = A + (−A) = 0.
Ce sont des propriétés évidentes, qui n’impliquent pas de produit de matrices. Avec l’opération produit matriciel, il y a
des surprises, comme nous le verrons dans les paragraphes suivants.
Démonstration. Montrons au hasard que A + (B +C) = (A + B) +C. Soit A = (ai, j )i, j , B = (bi, j )i, j et C = (ci, j )i, j 3 matrices
de même format (n, p).
Pour tout (i, j) ∈ [[1, n]]×[[1, p]], (A+(B+C))i, j = ai, j +(B+C)i, j = ai, j +bi, j +ci, j = (A+B)i, j +ci, j = ((A+B)+C)i, j .
Combinaisons linéaires
Définition 2.3. Soit k ∈ N∗ et A1 , A2 , ... ,Ak des matrices (n, p) à coefficients dans K. On dit que M ∈ Mn,p (K) est
combinaison linéaire des matrices A1 , A2 , ... ,Ak lorsqu’il existe λ1 , λ2 , ... ,λk éléments de K tels que M = λ1 A1 + λ2 A2 +
· · · + λk Ak .
1 2
−1 2
2 0 4
Exemple 4.2. A = 1 4 , B = et C = 1 0 −1 .
1 3 −1
La matrice (0, 0, 0) est combinaison linéaire de (1, 2, 3) et de (4, 5, 6) car (0, 0, 0) = 0(1, 2, 3) + 0(4, 5, 6) 2 3
Calculer
si possibleles produits possibles entre ces matrices :
La matrice (x, y, z) est combinaison linéaire de (1, 2, 3) et de (4, 5, 6) si et seulement si il existe a, b ∈ K, tels que 0 6 −6
6 16
x = a + 4b A × B = 6 12 0 et B × A = , et C × A = −3 −1
0 11
(x, y, z) = a(1, 2, 3) + b(4, 5, 6) c’est à dire qu’il existe a, b ∈ K, y = 2a + 5b c’est à dire qu’il existe a, b ∈ K, 7 9 5
z = 3a + 6b Les autres produits sont impossibles.
x = a + 4b x = a + 4b Propriétés du produit
1
y − 2x = −3b c’est à dire qu’il existe a, b ∈ K, 3 (2x − y) = b
1
z − 3x = −6b 6 (3x − z) = b Proposition 4.3. 1. NON COMMUTATIVITE : même si les formats des matrices A et B permettent d’effectuer les
Ainsi, La matrice (x, y, z) est combinaison linéaire de (1, 2, 3) et de (4, 5, 6) si et seulement si 13 (2x − y) = 16 (3x − z) (car si deux produits AB et BA, on n’a en général pas égalité.
non le système n’a pas de solution mais si oui, il existe forcément a et b solutions du système) c’est à dire 4x − 2y = 3x − z 2. Pour toutes matrices A, B et C telles que les opérations utilisées aient un sens, et pour tout λ ∈ K :
c’est à dire x − 2y + z = 0. A(BC) = (AB)C
Ainsi on a bien le résultat.
A(B +C) = AB + AC et (A + B)C = AC + BC
(λA)B = λ(AB) = A(λB)
3 Matrices élémentaires
Définition 3.1. Dans Mn,p (K), on note pour tout (i, j) ∈ [[1, n]] × [[1, p]], on note Ei, j la matrice de taille n × p dont tous Démonstration. Montrons par exemple le premier point :
Soit A = (ai, j )i, j , B = (bk,l )k,l et C = (cr,s )r,s 3 matrices de format (n, p) , (p, m) , (m,t) avec n, m, p,t ∈ N.
nuls, sauf celui en position (i, j) qui vaut 1.
les coefficients sont
Alors pour tout (i, s) ∈ [[1, n]] × [[1,t]],
1 si i = j
Si on note δi, j = , alors on a pour tout (k, l) ∈ [[1, n]] × [[1, p]], (Ei, j )k,l = δi,k δl, j et donc Ei, j = (δi,k δl, j )k,l .
0 si i ̸= j p p m p m m p m
(A(BC))i,s = ∑ ai,k (BC)k,s = ∑ ai,k ∑ bk,l cl,s == ∑ ∑ ai,k bk,l cl,s = ∑ cl,s ∑ ai,k bk,l = ∑ (AB)i,l cl,s = ((AB)C)i,s
k=1 k=1 l=1 k=1 l=1 l=1 k=1 l=1
Proposition 3.2. Soit n, p ∈ N, toute matrice A = (ai, j )i, j ∈ Mn,p est combinaison linéaire des matrices élémentaires :
n p
A = ∑ ∑ ai, j Ei, j .
i=1 j=1
Exemple 4.4. Dans les deux expressions suivantes, E et F sont des matrices de format tel que ça ait du sens. Simplifier ces
n p n p
expressions.
Démonstration. C’est très simple, car pour tout (k, l) ∈ [[1, n]] × [[1, p]], ( ∑ ∑ ai, j Ei, j )k,l = ∑ ∑ ai, j (Ei, j )k,l = ak,l (−E)(3F) = −3EF (2F)2 = 4F 2 (2FE)(−4F) = −8FEF
i=1 j=1 i=1 j=1
4 Produit matriciel
0 si i ̸= l
Proposition 4.5. Soit n, p, m ∈ N, alors pour tout i ∈ [[1, n]] et j, k ∈ [[1, p]] et l ∈ [[1, m]], Ei, j × Ek,l =
E j,k si i = l
Définition du produit matriciel
Définition 4.1. Soit n, p, r trois entiers naturels non nuls. Soit A ∈ Mn,p (K) et B ∈ M p,r (K). Démonstration. En reprenant les notations, pour tout (r, s) ∈ [[1, n]] × [[1, m]] alors
Le produit AB est la matrice de Mn,r (K) dont les coefficients ci, j sont :
p Proposition 4.6. Soit n ∈ N∗ et A ∈ Mn (K) alors pour tout i, j ∈ [[1, n]], A × Ei, j la matrice ne contenant que des colonnes
∀i ∈ [[1, n]] et j ∈ [[1, r]] , ci, j = ∑ ai,k bk, j nulles, sauf la colonne j qui est la colonne i de A : ce que l’on note (0|0|....0|Ci |0|...|0) où Ci est à l’indice j.
k=1
Attention : le produit AB n’est défini que si le nombre de colonnes de A est égal au nombre de lignes de B. Démonstration. RAS
Schéma de calcul :
L1
− x1
Proposition 4.7. Soit A = (C1 |....|Cp ) =
... ∈ Mn,p (K), et X = ... ∈ M p,1 (K) et Y = (y1 ....yn ) ∈ M1,n (K) alors :
− xp
Ln
p n
AX = ∑ xkCk et YA = ∑ yk Lk
k=1 k=1
Démonstration. RAS
3 4
5 Transposition 5.1 Matrices symétriques et antisymétriques
Définition 5.1. Soit A ∈Mn,p (K). On appelle matrice transposée de A la matrice notée AT de M p,n (K) définie par : si Définition 5.4. Soit A ∈ Mn (K).
— A est dite symétrique lorsque t A = A.
a1,1 . . . a1,p a1,1 . . . an,1
— A est dite antisymétrique lorsque t A = −A.
A = ... .. = (a ) t .. .. = (a′ ) ′
i, j 1≤i≤n, 1≤ j≤p , alors A = i, j 1≤i≤p, 1≤ j≤n avec ai, j = a j,i .
. . . On note Sn (K) l’ensemble des matrices symétriques de Mn (K) et An (K) l’ensemble des matrices antisymétriques.
an,1 . . . an,p a1,p . . . an,p
Remarque 5.5. Sn (K) et An (K) sont stables par combinaisons linéaires :
Soit A, B ∈ Sn (K) et λ, β ∈ K, t (λA + βB) =t (λA) +t (βB) = λt A + βt B = λA + βB.
−1 2
Exemple 5.2. 1. Transposer A = 1 4.
Ainsi λA + βB ∈ Sn (K).
2 3
Soit A, B ∈ An (K) et λ, β ∈ K, t (λA + βB) =t (λA) +t (βB) = λt A + βt B = −λA − βB = −(λA + βB).
t A = −1 1 2
2 4 3 Ainsi λA + βB ∈ An (K).
′
a a
2. On pose X = b et X = b′ . Calculer t XX ′ . Sans parenthèses, il faut comprendre (t X)X ′ et non pas t (XX ′ ) (qui
′
6 Produits de matrices carrés
c c′
ici n’a pas de sens puisque le produit XX ′ ne peut pas se faire). 6.1 Matrice identitée
t XX ′ L’identité
= aa′ + bb′ + cc′ ! ! Ainsi X X = a2 + b2 + c2 et donc X = 03,1 ssi t XX = 0
1 0 ... 0
Propriétés de la transposée .. .. ..
0 . . .
Définition 6.1. la matrice "identité" de Mn (K) est notée In (ou I) et In =
.. .. ..
Proposition 5.3. — Soit A ∈ Mn,p (K) alors (AT )T = A .
. . . 0
— Soit A et B ∈ Mn,p (K), λ et µ ∈ K alors (λA + µB)T = λAT + µBT 0 ... 0 1
n n
On a cr,s = ∑ ar,k bk,s donc c′i, j = c j,i = ∑ a j,k bk,i 6.3 Puissance d’une matrice carrée
k=1 k=1
Définition 6.5. Les puissances de A ∈ Mn (K) sont définies par : A0 = In et ∀k ∈ N , Ak+1 = Ak A = AAk .
On remarque que BT = (b j,i )i, j et AT = (a j,i )i, j et donc :
n n
On a enfin, di, j = ∑ b′i,k a′k, j = ∑ bk,i a j,k = c′i, j Savoir calculer les puissances d’une matrice est utile lorsque celle-ci s’interprète comme un opérateur et que l’on itère n
k=1 k=1 fois l’opération.
Comme le format des deux matrices (AB)T et BT AT est le même, et que pour tout (i, j) ∈ [[1, m]] × [[1, p]], ci, j = di, j . Puissances d’une matrice diagonale :
p
d1 0 . . . 0 d1 0 ... 0
. . .
. . . . ..
.. .. ..
0
une matrice diagonale, alors pour tout p ∈ N, on a D p = 0
. . .
Soit D =
.. . . . . .. . . ..
.
. . . 0 . . . 0
p
0 . . . 0 dn 0 ... 0 dn
Remarque 6.6. Attention, cela ne fonctionne pas en général dans le cas d’une matrice qui n’est pas diagonale.
5 6
p
1 6.5 Polynômes matriciels
Exemple 6.7. Simplifier dans Mn (K) l’expression I où p ∈ N.
p 2
1 1 m
I = pI Définition 6.10. Soit P ∈ K[X] tel que P = ∑ ai X i et A ∈ Mn (K).
2 2 i=0
On définit la matrice P(A) par :
Lorsque la matrice n’est pas diagonale, on va parfois procéder par conjecture puis récurrence, parfois aussi se servir de m
la formule du binôme. Nous allons voir un exemple pour illustrer ces techniques. P(A) = ∑ ai Ai = a0 In + a1 A + a2 A2 + ... + an An
i=0
Une autre méthode existe, plus générale, c’est la "diagonalisation" des matrices, mais c’est au programme de seconde
année. On dit que P est annulateur de A si P(A) = 0n .
1 2
Exemple 6.8. Soit A = . Calculons, pour n ∈ N, An par conjecture-récurrence (première méthode).
0 1 1 −1 1 0
Exemple 6.11. La matrice A = est annulé par le polynôme X 2 − 1 car A2 = .
1 4
1 6
0 1 0 1
On calcule A2 = et A3 =
0 1 0 1
1 2×n
7 Matrices inversibles
Montrons par récurrence que An = :
0 1 1 1 1
0
I : n = 0 trivial car A = I L’inverse de 3 est car 3 × = 1 et on note = 3−1 . Par analogie, on a :
3 3 3
H : Soit n ∈ N, supposonsquela propriété
est vraie au rang n :
1 2×n 1 2 1 2 × (n + 1) Inversibilité
A n+1 =A A=n × =
0 1 0 1 0 1 Définition 7.1. On dit qu’une matrice A ∈ Mn (K) (donc CARREE) est inversible lorsqu’il existe une matrice B ∈ Mn (K)
Conclusion : classique. telle que AB = BA = I . La matrice B (on montre que si elle existe, elle est unique) est appelée inverse de A et est notée
B = A−1 .
0 2
Seconde méthode : utilisation de la formule du binôme en écrivant A = I + B où B = . Voyons d’abord cette
0 0 On note GLn (K) l’ensemble des matrices inversibles de Mn (K).
formule :
Formule du binôme 1
Remarque 7.2. Attention, une matrice n’est pas toujours inversible. De plus, on n’écrit jamais . De plus, on a surtout pas
A
Proposition 6.9. Soit A et B deux matrices de Mn (K) qui commutent (c’est-à-dire telles que AB = BA) alors que l’inverse d’une matrice est la matrice des inverses des coefficients.
n
n n−k k n
n n−k k 1 2 1 −2/3
Exemple 7.3. 1. Vérifier que A = est inversible d’inverse
∀n ∈ N, (A + B)n = ∑ A B =∑ B A 0 3 0 1/3
k=0 k k=0 k
1 −2/3 1 −2/3
Il suffit de constater que A × = I2 = × A.
0 1/3 0 1/3
Retour sur l’exemple :
On remarque que A = I + B et que IB = B = BI : 2. La matrice I est inversible : En effet, I × I = I × I = I et donc I −1 = I
De plus, B2 = 02 donc Bk = 02 pour tout k ⩾ 2. −1 0 −1 0 −1 0
3. La matrice A = est inversible : En effet, A × = × A = I2 .
n n 2 0 4 0 1/4 0 1/4
Par la formule du binôme, An = (I + B)n = ∑ nk Bk I n−k = ∑ nk Bk = ∑ nk Bk si n ⩾ 2 ! !
−1 0
k=0 k=0 k=0 Ainsi A est inversible et A−1 =
0 1/4
1 2n
Ainsi, pour tout n ⩾ 2, An = I + nB = . On vérifie que cela marche aussi pour n = 0 et n = 1 par le calcul !
0 1
1 1 1
4. La matrice A = 1 1 1 n’est pas inversible :
6.4 Une fausse règle 1 1 1
3 3 3
La fameuse règle AB = 0 ⇒ A = 0 ou B = 0 est en général FAUSSE lorsque A et B sont deux matrices carrées de taille n.
En effet, A × A = 3 3 3 = 3A et donc A2 − 3A = 0.
Nous verrons de nombreux contre-exemples à l’occasion. Pour en fabriquer un, le plus simple est de travailler avec des 3 3 3
matrices diagonales. Trouver deux matrices diagonales de format 3 × 3 constituant un contre-exemple à cette implication. Supposons par l’absurde que A soit inversible, alors A−1 (A2 − 3A) = A−1 0 = 0 et donc A − 3I = 0 donc A = 3I ce qui
est absurde. Ainsi A n’est pas inversible.
Propriétés de l’inverse
Proposition 7.4. Soit A et B deux matrices inversibles de Mn (K), alors :
— A−1 est inversible et (A−1 )−1 = A .
— t A est inversible et (AT )−1 = ((AT )−1 ) .
On dit que A (ou B) est un diviseur de 0n .
— Le produit AB est inversible et (AB)−1 = B−1 A−1 .
— Pour tout entier naturel p, A p est inversible et (A p )−1 = (A−1 ) p .
7 8
Démonstration. 1. On remarque que A−1 × A = A × A−1 = I, ainsi par définition, A−1 est inversible et A est l’inverse de Proposition 7.8. Soit A une matrice carrée dont l’une des colonnes de A est combinaison linéaire des autres alors A est
A−1 , c’est à dire (A−1 )−1 = A non inversible.
2. On remarque que AT (A−1 )T = (A−1 × A)T = I T = I et que (A−1 )T AT = (A × A−1 )T = I T = I, ainsi par définition, t A En particulier, si deux colonnes sont égales ou si un colonne est nulle alors A est non inversible.
est inversible et (A−1 )T est l’inverse de AT , c’est à dire (AT )−1 = (A−1 )T . Il en est de même sur les lignes.
3. On constate que B−1 A−1 AB = B−1 IB = I et que ABB−1 A−1 = I, ainsi par définition, AB est inversible et (AB)−1 =
A−1 B−1 Démonstration. En effet, supposons une telle matrice A inversible.
Alors il existe i ∈ [[1, n]], disons pour simplifier que i = 1.
4. Par récurrence : Alors il existe , ..., λn tel que C1 = λ2C2 + ... + λnCn .
I : p = 0, A0 = I est inversible et (A0 )−1 = I −1 = I = (A−1 )0 λ2
1
Soit p ∈ N, supposons que P(p) soit vraie et montrons P(p + 1) : −λ2
A p+1 = A p A et A p et A sont inversibles donc par le point précédent, A p+1 est inversible et : Ainsi A × ... = 0n,1
−λn
(A p+1 )−1 = (A p A)−1 = A−1 (A p )−1 = A−1 (A−1 ) p = (A−1 ) p+1
1
Conclusion : classique. −λ2
Ainsi c’est absurde car par multiplication par A−1 ,
... = 0n,1 .
−λn
Cas particulier des matrices de M2 (K) :
a b
8 Matrices nilpotentes
Proposition 7.5. La matrice A = est inversible ⇔ ad − bc ̸= 0.
c d
1
d −b
Définition 8.1. On dit qu’une matrice A ∈ Mn (R) est nilpotente s’il existe p ∈ N tel que A p = 0n . On appelle indice de
Dans ce cas, on a A−1 = nilpotence l’entier p tel que A p = 0n et A p−1 ̸= 0n
ad − bc −c a
Démonstration. Le sens réciproque se montre par simple calculs des produits. Démonstration. 1) Soit A, B ∈ Mn (K), soit λ, β ∈ K. On voit facilement que (λA + βB)i, j = λai, j + βbi, j et donc :
Pour le sens direct, supposons qu’il existe i0 ∈ [[1, n]] tel que di0 = 0 alors alors D a une ligne nulle. Mais alors pour tout n n n n
B ∈ Mn (K) , DB a la ligne d’indice i0 nulle et donc DB ̸= In et donc D ne peut pas être inversible. tr(λA + βB) = ∑ (λA + βB)k,k = ∑ λak,k + βbk,k = λ ∑ ak,k + β ∑ bk,k = λtr(A) + βtr(B)
k=1 k=1 k=1 k=1
n n
Proposition 7.7. Soient A une matrice inversible de Mn (K) et B,C ∈ Mn,p (K). Si AB = AC alors B = C. 2) Soit A, B ∈ Mn (K), (AB)r,s = ∑ ar,t bt,s et (BA)l,m = ∑ bl, j a j,m . Ainsi :
Soient A une matrice inversible de M p (K) et B,C ∈ Mn,p (K). Si BA = CA alors B = C. t=1 j=1
Si A, B,C ∈ Mn (K) et si A est inversible alors AB = AC ⇔ B = C ⇔ BA = CA. n n n n n n n n
tr(AB) = ∑ ∑ ak,t bt,k = ∑ ∑ ak,t bt,k = ∑ ∑ ai, j b j,i = ∑ ∑ b j,i ai, j = tr(BA)
Démonstration. Le premier point uniquement : Soient A une matrice inversible de Mn (K) et B,C ∈ Mn,p (K). Si AB = AC, k=1 t=1 t=1 k=1 j=1 i=1 j=1 i=1
9 10
Exemple 9.3. On remarque que tr(In ) = n, tr(0n ) = 0.
De plus, pour tout P ∈ GLn (K), tr(PAP−1 ) = tr(P−1 PA) = tr(A). Proposition 10.6. On appelle système triangulaire tout système dont la matrice associée est triangulaire.
Un système triangulaire ayant n équations et n inconnues est de Cramer si et seulement si ses coefficients diagonaux sont
n n n
Calculons tr(AT A) : comme (AT A)i,i = ∑ a2i,k alors tr(AT A) = ∑ ∑ a2i,k (la somme des carrés de tous les coefficients non nuls.
k=1 i=1 k=1
de la matrice). Démonstration. On procède par récurrence sur n ∈ N∗ .
Ainsi tr(AT A) = 0 si et seulement si A est nul (une somme de positifs (ou nuls) est nul si et seulement tous les termes de la I : C’est trivial dans le cas n = 1 car alors le système s’écrit ax = b et est de Cramer ssi a ̸= 0.
somme sont nuls). H : soit n ∈ N∗ . Supposons que la propriété est vraie au rang n. Considèrons un système triangulaire de n + 1 équations et
Exemple 9.4. On remarque que l’équation AB − BA = In d’inconnues A, B ∈ Mn (K) n’admet pas de solution si n > 0. En n + 1 inconnues x1 , .., xn+1 .
effet si AB − BA = In alors tr(AB − BA) = tr(In ) et donc tr(AB) − tr(BA) = n et donc 0 = n ce qui est absurde.
— Si pour tout k ∈ [[1, n + 1]], le coefficient ligne k colonne k est non nul. Alors le système formé par les lignes 2 à n est
triangulaire et donc il admet une unique solution , on trouve alors la variable x1 à l’aide de la première ligne.
10 Matrices et systèmes linéaires — Si le coefficient ligne 1 colonne 1 est nul, alors toute solution engendre une infinité de solutions en variant la variable
x1 .
10.1 Systèmes linéaires, lien avec les matrices — Si un autre coefficient diagonal est nul alors par hypothèse récurrence le système formé par les lignes 2 à n n’est pas
de Cramer et donc le système complet non plus.
Définition 10.1. On appelle système linéaire (S) de n équations à p incoonues un système d’équations de la forme : ...
a1,1 x1 + a1,2 x2 + ... + a1,p x p = b1 Définition 10.7. On appelle opération élémentaire sur les lignes d’un système les opérations suivantes :
(S) ....... = ... — La multiplication d’une ligne Li par un coefficient non nul λ. On note ceci Li ← λLi .
an,1 x1 + an,2 x2 + ... + an,p x p = bn
— L’ajout de βL j à Li pour i ̸= j. On note cela, Li ← Li + βL j .
où les ai, j sont des nombres réels (ou complexes) fixés appelés coefficients du système et les b j sont des réels (ou com- — L’échange des lignes Li et L j , ce que l’on note Li ↔ L j .
plexes) fixés qui constituent le second membre du système, les x1 , ..., x p sont les p inconnues du système.
Par commidité, chaque équation est repérée par un nom : Li pour la ième ligne. Remarque 10.8. Rappel de l’algorithme du pivot de Gauss :
Une solution du système est un p-upplet (x1 , ..., x p ) pour lesquels toutes les équations sont vérifiées. 1. On choisit dans la première ligne un coefficient non nul ai, j que l’on met en première place (ou on échange des lignes
Résoudre le système (S) c’est trouver l’ensemble des solutions de ce système. pour avoir un coefficient non nul en première place). Celui-ci sera le pivot de cet étape.
Deux systèmes sont dits équivalents lorsqu’ils ont le même ensemble de solutions. ak, j
2. On simplifie dans toutes les lignes suivantes la variable x j par l’opération : Lk ← Lk − Li pour tout k > i.
ai, j
Définition 10.2. On dit qu’un système est : 3. On recommence sur le système constitué des lignes inférieurs (qui contient donc une ligne et une variable de moins).
— compatible s’il admet au moins une solution et incompatible s’il n’en admet aucun. 4. On s’arrête lorsqu’il ne reste plus que la dernière ligne, ou que l’on a repéré une incompatibilité.
— homogène si le second membre est constitué uniquement de coefficients nuls.
— de Cramer s’il admet une unique solution.
x + 3y − z + t = 1
2x + 13y − 7z + 2t = 2
Exemple 10.9. Résoudre le système : .
x−y+z+t = 0
Définition 10.3. On considère le système linéaire de n équations à p inconnues :
x + 7y − 4z + t = −1
a1,1 x1 + a1,2 x2 + ... + a1,p x p = b1 Remarque 10.10. (important) Les opérations vues ici peuvent être définies sur une matrice plutôt que sur un système, de
(S) ....... = ... plus on peut alors définir des opérations similaires sur les colonnes.
an,1 x1 + an,2 x2 + ... + an,p x p = bn
b1 x1
On note A = (ai, j ), B = ... et X = ....
bn xn
Le système (S) se réecrit alors sous forme matricielle AX = B.
Le p-upplet (x1 , ..., x p ) ∈ K p est solution de (S) si et seulement si X est solution de l’équation matricielle AX = B. Ce qui
est aussi équivalent à dire que B est une combinaison linéaire des colonnes de A.
On dit que la matrice A est la matrice associée au système (S).
Remarque 10.4. Ainsi un système AX = B est compatible si et seulement si B est combinaison linéaire des colonnes de A.
Théorème 10.5. Soit AX = B un système linéaire compatible. Les solutions de ce système sont les matrices X0 +Y où X0
est une solution particulière de (S) et Y parcours l’ensemble des solutions du système homogène AX = 0.
11 12
Définition 10.11. Soit n ∈ N Corollaire 10.15. Pour toute matrice rectangulaire A ∈ Mn,p (K), il existe une matrice E produit de matrices élémentaires
— On appelle matrice de dilatation de rapport λ ̸= 0, toute matrice de la forme Di (λ) = In +(λ−1)Ei,i avec i ∈ [[1, n]]. et une matrice échelonnée par ligne R tel que A = ER.
Proposition 10.18. Une matrice triangulaire (supérieure ou inférieure) est inversible si et seulement si tous ces coeffi-
Proposition 10.13. Soit A ∈ Mn,p (K) une matrice rectangulaire. cients diagonaux sont non nuls.
1. Li ← λLi appliquée à A correspond au produit matriciel Di (λ)A.
2. Li ← βL j + Li appliquée à A correspond au produit matriciel Ti, j (β)A. Démonstration. il suffit de constater que le système associé à cette matrice est triangulaire.
3. Li ↔ λL j appliquée à A correspond au produit matriciel Pi, j A. Proposition 10.19. Toute matrice inversible est produit de matrices d’opérations élémentaires.
Démonstration. Traitons le premier point uniquement : Démonstration. Trivial, car si A est inversible alors l’algorithme du Pivot de Gauss transformera cette matrice en In et donc il
soit i0 ∈ [[1, n]]. La matrice Di0 (λ) appartient à Mn (K) et le produit Di0 (λ)A est une matrice de Mn,p (K). existe uns suite de matrice d’opérations élémentaires F1 , ..., Fr tel que Fr ...F1 A = In et donc A = F1−1 ....Fr−1 qui est un produit
Soit (i, j) ∈ [[1, n]] × [[1, p]]. Déterminons le coefficient [Di0 (λ)A]i, j . Par définition du produit matriciel, on a : de matrices élémentaires.
n
[Di0 (λ)A]i, j = ∑ [Di (λ)]i,k ak, j
0 Théorème 10.20. La matrice A−1 est obtenue en appliquant à la matrice identité In la même suite d’opérations élémen-
k=1 taires permettant de passer de A à In .
Or par définition de Di0 (λ), Démonstration. Même remarque que précédemment, Fr ...F1 A = In et donc Fr ...F1 In = A−1 .
ai, j si i ̸= i0
[Di0 (λ)A]i, j = [Di0 (λ)]i, j ai, j =
λai0 , j si i = i0
On obtient donc bien la matrice A à laquelle on a appliqué l’opération élémentaire Li0 ← λLi0 .
Remarque 10.14. Si on passe de A à A′ par les opérations élémentaires de matrices F1 , ..., Fm alors A′ = Fm × .... × F1 × A.
Il en est de même sur les colonnes, mais avec une multiplication par la droite.
13 14
En regardant sur les matrices :
Remarque 10.21. Soit une matrice A ∈ Mn (K).
On effectue la réduction du système mais unique-
A est inversible si et seulement si tout système du type AX = Y d’inconnue X ∈ Mn,1 (K) et de second membre Y ∈
ment sur les matrices, auquelle on concatène le se-
Mn,1 (K) est de Cramer. Par le système
: cond membre :
L’unique solution d’un tel système est alors X = A−1Y . a x
2 −2 1 a L1 ↔ L2 −1 2 0 c
Pour prouver qu’une matrice est inversible et trouver son inverse, on introduit un second membre quelconque Y , on résout Soit Y ∈ M3,1 (K), Y = b et X = y 2 −3 2 b ∼ 2 −2 1 a
par l’algorithme du pivot de Gauss le système AX = Y . c z −1 2 0 c L1 ↔ L3 2 −3 1 b
Si celui-ci est de Cramer (quelque soit Y ), A est inversible et on reconnait A−1 dans X = A−1Y . 2x − 2y + z = a ∼
−1 2 0 a
15 16