Matrices
Matrices
L yc é e t e c h n i q u e d e M o h a m m e d i a
A n n é e S c o l a i re 2 0 2 4 / 2 0 2 5
Cours de mathématiques
F i l i è re M P S I
Matrices
Matrices
1. Définition
1.1. Définition
Définition 1.
• Une matrice A est un tableau rectangulaire d’éléments de K.
• Elle est dite de taille n × p si le tableau possède n lignes et p colonnes.
• Les nombres du tableau sont appelés les coefficients de A.
• Le coefficient situé à la i -ème ligne et à la j -ème colonne est noté ai, j .
Définition 2.
• Deux matrices sont égales lorsqu’elles ont la même taille et que les coefficients correspondants sont égaux.
Autrement dit, si A = ai, j 1⩽i⩽n et B = bi, j 1⩽i⩽q sont deux matrices de tailles respectives n × p et q × r alors :
1⩽ j⩽p 1⩽ j⩽r
(n, p) = (q, r)
A= B ⇔
∀(i, j) ∈ ⟦1, n⟧ × ⟦1, p⟧ , ai, j = bi, j
• L’ensemble des matrices à n lignes et p colonnes à coefficients dans K est noté Mn,p (K). Les éléments de Mn,p (R)
sont appelés matrices réelles.
Page 1/56
MPSI M a tr i ce s
a1,1 a1,2 ... a1,n
a2,1
a2,2 ... a2,n
. .. .. ..
.. . . .
an,1 an,2 ... an,n
Les éléments a1,1 , a2,2 , . . . , an,n forment la diagonale principale de la matrice.
• Une matrice qui n’a qu’une seule ligne (n = 1) est appelée matrice ligne ou vecteur ligne. On la note
A = a1,1 a1,2 . . . a1,p .
• De même, une matrice qui n’a qu’une seule colonne ( p = 1) est appelée matrice colonne ou vecteur colonne. On
la note
a1,1
a2,1
A = . .
.
.
an,1
• La matrice (de taille n × p) dont tous les coefficients sont des zéros est appelée la matrice nulle et est notée 0n,p ou
plus simplement 0. Dans le calcul matriciel, la matrice nulle joue le rôle du nombre 0 pour les réels.
En d’autres termes, on somme coefficients par coefficients. Remarque : on note indifféremment ai j où ai, j pour les
coefficients de la matrice A.
Exemple 2.
3 −2 0 5 3 3
Si A= et B= alors A+ B = .
1 7 2 −1 3 6
−2
Par contre si B′ = alors A + B ′ n’est pas définie.
8
Exemple 3.
1 2 3 2 4 6
Si A= et α=2 alors αA = .
0 1 0 0 2 0
La matrice (−1)A est l’opposée de A et est notée −A. La différence A − B est définie par A + (−B).
Exemple 4.
2 −1 0 −1 4 2 3 −5 −2
Si A= et B= alors A− B = .
4 −5 2 7 −5 3 −3 0 −1
Page 2/56
MPSI M a tr i ce s
Proposition 1.
Soient A, B et C trois matrices appartenant à Mn,p (K). Soient α ∈ K et β ∈ K deux scalaires.
1. A + B = B + A : la somme est commutative,
2. A + (B + C) = (A + B) + C : la somme est associative,
3. A + 0 = A : la matrice nulle est l’élément neutre de l’addition,
4. (α + β)A = αA + βA,
5. α(A + B) = αA + αB .
Démonstration. Prouvons par exemple le quatrième point. Le terme général de (α + β)A est égal à (α + β)ai j . D’après
les règles de calcul dans K, (α + β)ai j est égal à αai j + β ai j qui est le terme général de la matrice αA + βA.
Exercice d’application.
−7 2 1 2 3 21 −6 1 0 1 1 2
1. Soient A = 0 −1 , B = 2 3 1 , C = 0 3 , D = 0 1 0 , E = −3 0 . Calculer toutes les sommes possibles
1 −4 3 2 1 −3 12 1 1 1 −8 6
de deux de ces matrices. Calculer 3A + 2C et 5B − 4D. Trouver α tel que A − αC soit la matrice nulle.
2. Montrer que si A + B = A, alors B est la matrice nulle.
3. Que vaut 0 · A ? et 1 · A ? Justifier l’affirmation : α(βA) = (αβ)A. Idem avec nA = A + A + · · · + A (n occurrences
de A).
Réponse.
1. ☛ Les sommes possibles sont :
−7+21 2+(−6) 14 −4
C + A = A + C = 0+0 −1+3 = 0 2 ,
−6−24 8
1+(−3) −4+12
−7+1 2+2
E + A = A + E = 0+(−3) −1+0 = −3 −1 ,
1+(−8)
21+1
−4+6
(−6)+2
−7 2
22 −4
E + C = C + E = 0+(−3) 3+0 = −3 3 ,
(−3)+(−8) 2 2 4 −11
18
12+6
D + B = B + D = 1+1
2+0 3+1
2+0 3+1 1+0 = 2 4 1 .
3+1 2+1 1+1 4 3 2
☛ Pour le calcul de 3A + 2C et 5B − 4D :
3×(−7) 3×2 3×(−7)+2×21 3×2+2×(−6)
2×21 2×(−6) 21 −6
3A + 2C = 3×0 3×(−1) + 2×0 2×3 = 3×0+2×(−3) 3×(−1)+2×3 = −6 3
3×15×23×(−4) 2×(−3) 2×12
−4×1 −4×0 −4×1
3×1+2×(−3) 3×(−4)+2×12
5×1−4×1 5×2−4×0 5×3−4×1 −31 12
10 11
5B − 4D = 5×1 5×3
5×2 5×3 5×1 + −4×0 −4×1 −4×0 = 5×2−4×0 5×3−4×1 5×1−4×0 = 10 11 5
5×3 5×2 5×1 −4×1 −4×1 −4×1 5×3−4×1 5×2−4×1 5×1−4×1 11 6 1
1
⇔ α=−
3
2. Si on pose A = ai, j 1⩽i⩽n et B = bi, j 1⩽i⩽n alors :
1⩽ j⩽p 1⩽ j⩽p
Page 3/56
MPSI M a tr i ce s
3. Il suffit d’utiliser la définition de la multiplication d’une matrice par un scalaire et aussi l’addition des matrices.
Exercice 1.
Réaliser un programme Python qui permet de calculer la somme de deux matrices de même taille.
Remarque.
M1 N1 M2 N2
On peut définir également la somme par blocs des matrices, si A = et B = définies par blocs
O1 P1 O2 P2
M1 +M2 N1 +N2
alors A+B = à condition que les sommes M1 +M2 , N1 +N2 , O1 +O2 , P1 +P2 existent.
O1 +O2 P1 +P2
2. Multiplication de matrices
p
X
ci j = aik bk j
k=1
×
×
←B
×
×
|
|
A→ ← AB
× × × × − − − ci j
Avec cette disposition, on considère d’abord la ligne de la matrice A située à gauche du coefficient que l’on veut calculer
(ligne représentée par des × dans A) et aussi la colonne de la matrice B située au-dessus du coefficient que l’on veut
calculer (colonne représentée par des × dans B ). On calcule le produit du premier coefficient de la ligne par le premier
coefficient de la colonne (ai1 × b1 j ), que l’on ajoute au produit du deuxième coefficient de la ligne par le deuxième
coefficient de la colonne (ai2 × b2 j ), que l’on ajoute au produit du troisième. . .
2.2. Exemples
Exemple 5.
1 2
1 2 3
A= B = −1 1
2 3 4
1 1
Page 4/56
MPSI M a tr i ce s
On dispose d’abord le produit correctement (à gauche) : la matrice obtenue est de taille 2 × 2. Puis on calcule chacun des
coefficients, en commençant par le premier coefficient c11 = 1 × 1 + 2 × (−1) + 3 × 1 = 2 (au milieu), puis les autres (à
droite).
1 2 1 2 1 2
−1 1 −1 1 −1 1
1 1 1 1 1 1
1 2 3 c11 c12 1 2 3 2 c12 1 2 3 2 7
2 3 4 c21 c22 2 3 4 c21 c22 2 3 4 3 11
Un exemple intéressant est le produit d’un vecteur ligne par un vecteur colonne :
b1
b2
u = a1 a2 · · · an v= .
..
bn
Alors u × v est une matrice de taille 1 × 1 dont l’unique coefficient est a1 b1 + a2 b2 + · · · + an bn . Ce nombre s’appelle le
produit scalaire des vecteurs u et v .
Calculer le coefficient ci j dans le produit A × B revient donc à calculer le produit scalaire des vecteurs formés par la i -ème
ligne de A et la j -ème colonne de B .
Exercice d’application.
Calculer v × u
Réponse.
☛ Tout d’abord, la matrice v est de taille n × 1 et la matrice u est de taille 1 × n donc le produit v × u est une matrice
de taille n × n.
☛ Pour le calcul, on aura :
b1
b2
v×u = . × a1 a2 · · · an
..
bn
a1 b1 · · · an b1
.. ..
= . ··· .
a1 bn · · · an bn
= bi a j 1⩽i⩽n
1⩽ j⩽n
Exercice 2.
Réaliser un programme Python qui permet de calculer le produit de deux matrices.
Remarque.
M1 N1 M2 N2
On peut définir également le produit par blocs des matrices, si A = et B = définies par blocs
O1 P O2 P2
1
M1 M2 + N1 O2
M1 M2 + N1 O2 M1 N2 + N1 P2 M1 N2 + N1 P2
alors A×B = à condition que les matrices existent.
O1 M2 + P1 O2 O1 N2 + P1 P2
O 1 M2 + P1 O2
O1 N2 + P1 P2
Page 5/56
MPSI M a tr i ce s
Proposition 2.
1. A(BC) = (AB)C : associativité du produit,
2. A(B + C) = AB + AC et (B + C)A = BA + CA : distributivité du produit par rapport à la somme,
3. A · 0 = 0 et 0 · A = 0.
Démonstration. Posons A = (ai j ) ∈ Mn,p (K), B = (bi j ) ∈ M p,q (K) et C = (ci j ) ∈ Mq,r (K). Prouvons que A(BC) = (AB)C
en montrant que les matrices A(BC) et (AB)C ont les mêmes coefficients.
p
X
Le terme d’indice (i, k) de la matrice AB est x ik = aiℓ bℓk . Le terme d’indice (i, j) de la matrice (AB)C est donc
ℓ=1
q q
p
X X X
x ik ck j = aiℓ bℓk ck j .
k=1 k=1 ℓ=1
q
X
Le terme d’indice (ℓ, j) de la matrice BC est yℓ j = bℓk ck j . Le terme d’indice (i, j) de la matrice A(BC) est donc
k=1
p q
X X
aiℓ bℓk ck j .
ℓ=1 k=1
Comme dans K la multiplication est distributive et associative, les coefficients de (AB)C et A(BC) coïncident. Les autres
démonstrations se font comme celle de l’associativité.
Page 6/56
MPSI M a tr i ce s
Ses éléments diagonaux sont égaux à 1 et tous ses autres éléments sont égaux à 0. Elle se note I n ou simplement I . Dans
le calcul matriciel, la matrice identité joue un rôle analogue à celui du nombre 1 pour les réels. C’est l’élément neutre
pour la multiplication. En d’autres termes :
Proposition 3.
Si A est une matrice n × p, alors
In · A = A et A · I p = A.
Démonstration. Nous allons détailler la preuve. Soit A ∈ Mn,p (K) de terme général ai j . La matrice unité d’ordre p est telle
que tous les éléments de la diagonale principale sont égaux à 1, les autres étant tous nuls.
On peut formaliser cela en introduisant le symbole de Kronecker. Si i et j sont deux entiers, on appelle symbole de
Kronecker, et on note δi, j , le réel qui vaut 0 si i est différent de j , et 1 si i est égal à j . Donc
¨
0 si i ̸= j
δi, j =
1 si i = j.
Alors le terme général de la matrice identité I p est δi, j avec i et j entiers, compris entre 1 et p.
La matrice produit AI p est une matrice appartenant à Mn,p (K) dont le terme général ci j est donné par la formule
p
X
ci j = aik δk j . Dans cette somme, i et j sont fixés et k prend toutes les valeurs comprises entre 1 et p. Si k ̸= j alors
k=1
δk j = 0, et si k = j alors δk j = 1. Donc dans la somme qui définit ci j , tous les termes correspondant à des valeurs de k
différentes de j sont nuls et il reste donc ci j = ai j δ j j = ai j 1 = ai j . Donc les matrices AI p et A ont le même terme général
et sont donc égales. L’égalité I n A = A se démontre de la même façon.
Exercice 3.
Déterminer le centre de Mn (K) c’est-à-dire les matrices carrées A ∈ Mn (K) vérifiant :
∀M ∈ Mn (K), AM = M A (∗)
Réponse.
On cherche une matrice A = ai, j 1⩽i, j⩽n ∈ Mn (K) vérifiant (∗), en particulier pour une matrice élémentaire Ekl =
δik δl j 1⩽i, j⩽n (où k, l ∈ ⟦1, n⟧) et on aura :
ème colonne
|l {z }
0 ··· 0 a1,k 0 ··· 0 0 ··· ··· ··· 0
.. .. .. .. .. .. ..
. . . . . . .
.. .. .. .. .. 0 ··· ··· ··· 0
|k {z }
. . . . .
ème ligne
AEkl = Ekl A ⇔
.. .. .. .. .. = al,1
··· ··· ··· al,n
. . . . . ··· ··· ···
0 0
. .. .. .. .. .. ..
.. . . . . . .
0 ··· 0 an,k 0 ··· 0 0 ··· ··· ··· 0
∀i ∈ ⟦1, n⟧ ∖ {k}, ai,k = 0
⇔ ∀ j ∈ ⟦1, n⟧ ∖ {l}, al, j = 0
ak,k = al,l
On en déduit que A = a1,1 I n . Inversement, la matrice trouvée vérifie (∗). D’où, les matrices A vérifiant (∗) sont de la
Page 7/56
MPSI M a tr i ce s
Dans l’ensemble Mn (K) des matrices carrées de taille n × n à coefficients dans K, la multiplication des matrices est une
opération interne : si A, B ∈ Mn (K) alors AB ∈ Mn (K).
En particulier, on peut multiplier une matrice carrée par elle-même : on note A2 = A × A, A3 = A × A × A.
On peut ainsi définir les puissances successives d’une matrice :
Définition 6.
Pour tout A ∈ Mn (K), on définit les puissances successives de A par A0 = I n et Ap+1 = Ap × A pour tout p ∈ N.
Autrement dit, Ap = A × A × · · · × A.
| {z }
p facteurs
Exemple 9.
1 0 1
On cherche à calculer Ap avec A = 0 −1 0. On calcule A2 , A3 et A4 et on obtient :
0 0 2
1 0 3 1 0 7 1 0 15
A2 = 0 1 0 A3 = A2 × A = 0 −1 0 A4 = A3 × A = 0 1 0 .
0 0 4 0 0 8 0 0 16
1 0 2p − 1
L’observation de ces premières puissances permet de penser que la formule est : Ap = 0 (−1) p 0 . Démontrons
0 0 2p
ce résultat par récurrence.
Il est vrai pour p = 0 (on trouve l’identité). On le suppose vrai pour un entier p et on va le démontrer pour p + 1. On a,
d’après la définition,
1 0 2p − 1 1 0 1 1 0 2 p+1 − 1
Ap+1 = Ap × A = 0 (−1) p 0 × 0 −1 0 = 0 (−1) p+1 0 .
p p+1
0 0 2 0 0 2 0 0 2
Donc la propriété est démontrée.
Comme la multiplication n’est pas commutative, les identités binomiales usuelles sont fausses. En particulier, (A + B)2 ne
vaut en général pas A2 + 2AB + B 2 , mais on sait seulement que
(A + B)2 = A2 + AB + BA + B 2 .
Page 8/56
MPSI M a tr i ce s
Exercice d’application.
2 1 0 8 2 5
1. Soient A = 06 −4 0 , B = 0
2 −2 1 0 , C = −3 2 , D = 2 , E = x y z . Quels produits sont possibles ?
2 −2 −3 −5 5 −1
Les calculer !
0 0 1 1 0 0
2. Soient A = 0 1 0 et B = 0 0 2 . Calculer A2 , B 2 , AB et BA.
1 1 2 1 −1 0
2 0 0 0 0 0
3. Soient A = 0 2 0 et B = 2 0 0 . Calculer Ap et B p pour tout p ⩾ 0. Montrer que AB = BA. Calculer (A + B) p .
0 0 2 3 1 0
Réponse.
1. Les produits possibles sont :
13 12 12 8 −16
5x5 y 5z
6
AB = −412 2 0 , AC = 60 4 , AD =
6 6 4 −6 6
22 , BC = −3 2 , BD = 2 , CA = 12 −14 6 , DE = 2x 2 y 2z
37 −15 9 30 −30 10 −x − y −z
Page 9/56
MPSI M a tr i ce s
Exercice 4.
0 0 1
1. Calculer les puissances de la matrice A = 1 0 0 .
0 1 0
2. Soit A ∈ Mn (K) telle que A − 4A + 5A − 2I n = 0. Déterminer Ap pour tout p ∈ N.
3 2
Réponse.
1. Par calcul on a :
0 1 0
A2 = 0 0 1 , A3 = I3
1 0 0
On en déduit que :
I3 , si p ≡ 0 [3]
A =
p
A, si p ≡ 1 [3]
si p ≡ 2 [3]
2
A,
2. Soit p ∈ N et on considère le polynôme P = X 3 − 4X 2 + 5X − 2. On effectue la division euclidienne de X p par P :
∃!(Q, (a, b, c)) ∈ K[X ] × K3 / X p = PQ + (aX 2 + bX + c)
Et comme 1,2 sont des racines de P avec 1 est une racine double alors 1 = a+ b+c, p = 2a+ b et 2 p = 4a+2b+c ,
ce qui donne a = 2 p − p − 1, b = 2 + p − 2 p+1 , c = 2 p . Ainsi, puisque P(A) = 0 on aura :
Ap = aA2 + bA + cI n
Remarque.
On voit, d’après ce qui précède, qu’il y a trois approches pour calculer les puissances entières d’une matrice carrée A :
• La première consiste à décomposer la matrice A sous la forme A = D + N avec D est une matrice diagonale (où une
matrice diagonalisable, ce qui sera traité en deuxième année), N est une matrice nilpotente et N D = DN , et utiliser
après la formule du binôme de Newton.
• La deuxième consiste à faire une conjecture et la montrer par récurrence par la suite.
• La troisième consiste à trouver un polynôme annulateur de la matrice A et procéder comme dans l’exercice précédent.
Exercice 5.
Réaliser un programme Python qui permet de calculer la puissance pième d’une matrice carrée.
Théorème 1.
• Mn,p (K), +, . est un K-espace vectoriel de dimension np et dont une base est la famille Ekl 1⩽i⩽n où :
1⩽ j⩽p
Ekl = δik δl j 1⩽i⩽n
1⩽ j⩽p
ème colonne
|l {z }
|k {z }
ème ligne
=
1
Démonstration. Elle découle des propriétés de ces lois citées dans les paragraphes précédents.
Remarque.
Comme Mn (K), +, × est un anneau non intègre alors on peut parler d’éléments nilpotents, de diviseurs de zéro et de
l’ensemble des éléments inversibles (que l’on note G L n (K) (à voir dans la suite)).
Page 10/56
MPSI M a tr i ce s
4.1. Définition
On verra plus tard qu’il suffit en fait de vérifier une seule des conditions AB = I ou bien BA = I .
4.2. Exemples
Exemple 11.
Soit A = 10 23 . Étudier si A est inversible, c’est étudier l’existence d’une matrice B = ac db à coefficients dans K, telle que
AB = I et BA = I . Or AB = I équivaut à :
a + 2c b + 2d
1 2 a b 1 0 1 0
AB = I ⇐⇒ = ⇐⇒ =
0 3 c d 0 1 3c 3d 0 1
Cette égalité équivaut au système :
a + 2c = 1
b + 2d = 0
3c =0
3d = 1
2
1 −
Sa résolution est immédiate : a = 1, b = − 23 , c = 0, d = 13 . Il n’y a donc qu’une seule matrice possible, à savoir B = 0 13 .
3
Pour prouver qu’elle convient, il faut aussi montrer l’égalité BA = I , dont la vérification est laissée au lecteur. La matrice
1 − 32
A est donc inversible et A−1 = 1 .
0 3
Exemple 12.
a b
La matrice A = 3 0
5 0 n’est pas inversible. En effet, soit B = une matrice quelconque. Alors le produit
c d
3a + 5b 0
a b 3 0
BA = =
c d 5 0 3c + 5d 0
ne peut jamais être égal à la matrice identité.
Exemple 13.
• Soit I n la matrice carrée identité de taille n × n. C’est une matrice inversible, et son inverse est elle-même par l’égalité
In In = In.
• La matrice nulle 0n de taille n × n n’est pas inversible. En effet on sait que, pour toute matrice B de Mn (K), on a
B0n = 0n , qui ne peut jamais être la matrice identité.
Page 11/56
MPSI M a tr i ce s
4.3. Propriétés
Unicité
Proposition 5.
Si A est inversible, alors son inverse est unique.
Démonstration. La méthode classique pour mener à bien une telle démonstration est de supposer l’existence de deux
matrices B1 et B2 satisfaisant aux conditions imposées et de démontrer que B1 = B2 .
Soient donc B1 telle que AB1 = B1 A = I n et B2 telle que AB2 = B2 A = I n . Calculons B2 (AB1 ). D’une part, comme AB1 = I n ,
on a B2 (AB1 ) = B2 . D’autre part, comme le produit des matrices est associatif, on a B2 (AB1 ) = (B2 A)B1 = I n B1 = B1 .
Donc B1 = B2 .
Inverse de l’inverse
Proposition 6.
Soit A une matrice inversible. Alors A−1 est aussi inversible et on a :
(A−1 )−1 = A
Proposition 7.
Soient A et B deux matrices inversibles de même taille. Alors AB est inversible et
(AB)−1 = B −1 A−1
Si C est une matrice quelconque de Mn (K), nous avons vu que la relation AC = BC où A et B sont des éléments de Mn (K)
n’entraîne pas forcément l’égalité A = B . En revanche, si C est une matrice inversible, on a la proposition suivante :
Proposition 8.
Soient A et B deux matrices de Mn (K) et C une matrice inversible de Mn (K). Alors l’égalité AC = BC implique l’égalité
A = B.
Démonstration. Ce résultat est immédiat : si on multiplie à droite l’égalité AC = BC par C −1 , on obtient l’égalité :
(AC)C −1 = (BC)C −1 . En utilisant l’associativité du produit des matrices on a A(C C −1 ) = B(C C −1 ), ce qui donne d’après
la définition de l’inverse AI = BI , d’où A = B .
Page 12/56
MPSI M a tr i ce s
Exercice d’application.
1. Soient A = −1 −2
3 4 et B = 25 13 . Calculer A−1 , B −1 , (AB)−1 , (BA)−1 , A−2 .
1 0 0
2. Calculer l’inverse de 0 2 0 .
1 0 3
−1 −2 0
3. Soit A = 2 3 0 . Calculer 2A − A2 . Sans calculs, en déduire A−1 .
0 0 1
Réponse.
1. Pour calculer l’inverse de A et B , on emploiera ici une méthode différente de les exemples figurant dans le
paragraphe 4.2 : soit M ∈ Mn (K), M est une matrice inversible si et seulement si le système linéaire M X = Y
d’inconnue X ∈ Mn,1 (K) admet une unique solution pour tout Y ∈ Mn,1 (K) et cette solution est donnée par
X = M −1 Y , donc pour calculer M −1 il suffit d’inverser le système linéaire M X = Y c’est-à-dire exprimer X en
fonction Y .
x1 y
☛ Pour A : soient X =
−1
et Y = 1 , on a :
x2 y2
−x 1 − 2x 2 = y1
AX = Y ⇔
3x 1 + 4x 2 = y2
2 y1 + y2 = x 1
⇔
− 21 (3 y1 + y2 ) = x 2
x1 2 1 y1
⇔ = 3 1
x2 −2 −2 y2
2 1
Donc A−1 = .
− 23 − 12
x1 y
☛ Pour B : soient X =
−1
et Y = 1 , on a :
x2 y2
2x 1 + x 2 = y1
BX = Y ⇔
5x 1 + 3x 2 = y2
3 y1 − y2 = x 1
⇔
−5 y1 + 2 y2 = x 2
x1 3 −1 y1
⇔ =
x2 −5 2 y2
3 −1
Donc B −1 = .
−5 2
☛ Maintenant, pour calculer (AB)−1 et (BA)−1 il suffit d’appliquer la proposition 7.
2. On applique la même méthode et on aura :
−1
1 0 0 1 0 0
0 2 0 = 0 1
2 0
1 0 3 − 13 0 1
3
3. On calcule 2A − A2 et on aura 2A − A2 = I3 i.e. A(2I3 − A) = (2I3 − A)A = I3 . On en déduit que A est inversible et
que A−1 = 2I3 − A.
Page 13/56
MPSI M a tr i ce s
5.1. Matrices 2 × 2
a b
Considérons la matrice 2 × 2 : A = .
c d
Proposition 9.
Si ad − bc ̸= 0, alors A est inversible et
1 d −b
A −1
= ad−bc −c a
Remarque.
Inversement, si ad − bc = 0 la matrice A n’est pas inversible. En effet, si on suppose par absurde qu’elle est inversible
x1 x2
alors les systèmes linéaires AX 1 = 10 et AX 2 = 01 d’inconnues
respectives
X 1 = y1
, X 2 = y2
∈ M2,1 (K) admettent
des solutions données respectivement par X 1 = A−1 10 et X 2 = A−1 01 . Traitons le premier système, on a :
ax 1 + b y1 = 1 ×d
c x 1 + d y1 = 0 ×b
AX 1 = 10 =⇒
ax 1 + b y1 = 1 ×c
c x 1 + d y1 = 0 ×a
En pratique, on fait les deux opérations en même temps en adoptant la disposition suivante : à côté de la matrice A que
l’on veut inverser, on rajoute la matrice identité pour former un tableau (A | I). Sur les lignes de cette matrice augmentée,
on effectue des opérations élémentaires jusqu’à obtenir le tableau (I | B). Et alors B = A−1 .
N’oubliez pas : tout ce que vous faites sur la partie gauche de la matrice augmentée, vous devez aussi le faire sur la partie
droite.
Page 14/56
MPSI M a tr i ce s
5.3. Un exemple
1 2 1
Calculons l’inverse de A = 4 0 −1 .
−1 2 2
Voici la matrice augmentée, avec les lignes numérotées :
1 2 1 1 0 0 L1
(A | I) = 4 0 −1 0 1 0 L2
−1 2 2 0 0 1 L3
On applique l’algorithme de Gauss-Jordan pour faire apparaître des 0 sur la première colonne, d’abord sur la deuxième
ligne par l’opération élémentaire L2 ← L2 − 4L1 qui conduit à la matrice augmentée :
1 2 1 1 0 0
0 −8 −5 −4 1 0 L2 ←L2 −4L1
−1 2 2 0 0 1
Puis un 0 sur la première colonne, à la troisième ligne, avec L3 ← L3 + L1 :
1 2 1 1 0 0
0 −8 −5 −4 1 0
0 4 3 1 0 1 L3 ←L3 +L1
On multiplie la ligne L2 afin qu’elle commence par 1 :
1 2 1 1 0 0
0 1 5 1 − 1 0 L2 ←− 18 L2
8 2 8
0 4 3 1 0 1
On continue afin de faire apparaître des 0 partout sous la diagonale, et on multiplie la ligne L3 . Ce qui termine la première
partie de l’algorithme de Gauss-Jordan :
1 2 1 1 0 0
0 1 5 1
− 81 0
8 2
1 1
0 0 2 −1 2 1 L3 ←L3 −4L2
puis
1 2 1 1 0 0
5 1
0 1 8 2 − 18 0
0 0 1 −2 1 2 L3 ←2L3
Il ne reste plus qu’à « remonter » pour faire apparaître des zéros au-dessus de la diagonale :
1 2 1 1 0 0
7
0 1 0 4 − 34 − 54 L2 ←L2 − 58 L3
0 0 1 −2 1 2
puis
− 12 1 1
1 0 0 2 2 L1 ←L1 −2L2 −L3
7
0 1 0 4 − 43 − 54
0 0 1 −2 1 2
Ainsi l’inverse de A est la matrice obtenue à droite et après avoir factorisé tous les coefficients par 14 , on a obtenu :
−2 2 2
1
A−1 = 7 −3 −5
4
−8 4 8
Pour se rassurer sur ses calculs, on n’oublie pas de vérifier rapidement que A × A−1 = I .
Exercice d’application.
α+1 1
1. Si possible calculer l’inverse des matrices : A1 = 3 1
7 2 , A2 = 2 −3
−5 4 , A3 = 0 2
3 0 , A4 = 2 α .
Page 15/56
MPSI M a tr i ce s
cos θ − sin θ
2. Soit A(θ ) = . Calculer A(θ )−1 .
sin θ cos θ
1 3 0 2 −2 1 1 0 1 0 2 1 1 1
3. Calculer l’inverse des matrices : B1 = 2 1 −1 , B2 = 3 0 5 , B3 = −1 2 0 1 , B4 = 10 01 −1
0 2 −2 0
2 , B5 =
0 1
−2 1 1 1 1 2 0 2 1 3 0 1 1 0
1 1 1 0 0
0 1 2 0 0
−1 1 2 0 0 .
0 0 0 2 1
0 0 0 5 3
Réponse.
1. Si on applique la proposition 9 alors les matrices A1 , A2 et A3 sont inversibles et on a :
0 13
−1 −2 1 −1 1 4 3 −1
A1 = , A2 = − , A3 = 1
7 −3 7 5 2 2 0
Et pour la matrice A4 , elle est inversible si et seulement si α2 + α − 2 ̸= 0 i.e. α ̸= {−2, 1}, et dans ce cas on a :
α
−1 1 −1
A4 = 2
α + α − 2 −2 α + 1
2. La matrice A(θ ) est inversible pour tout θ ∈ R et on a A(θ )−1 = A(−θ ).
3. Pour inverser ces matrices, on utilisera l’algorithme de Gauss-Jordan utilisé dans l’exemple 5.3.
☛ Pour B1 :
1 30 1 0 0
B1 = 2 −1
1 I4 = 0 1 0
−2 11 0 0 1
L2 ← L2 − 2L1
L3 ← L3 + 2L1
1 3 0 0 0 1
0 −5 −1 −2 1 0
0 7 1 2 0 1
7
L ←
3 3L + L
5 2
1 3 0 0 0 1
0 −5 −1 −2 1 0
0 0 − 25 − 45 75 1
5
L3 ← − 2L3
1 3 0 0 0 1
0 −5 −1 −2 1 0
0 0 1 2 − 27 − 52
L2 ← L2 + L3
1 3 0 1 0 0
0 −5 0 0 − 5 − 5
2 2
0 0 1 2 − 72 − 25
L2 ← − 15 L
2
1 3 0 1 0 0
0 1 0 0 1 1
2 2
0 0 1 2 − 72 − 25
L1 ←
L1 − 3L2
1 − 32 − 32
1 0 0
1 1
I3 = 0
1 0 0 2 2 = B1−1
0 0 1 2 − 72 − 52
☛ Pour le reste, il est laissé au lecteur.
Exercice 6.
Réaliser un programme Python qui permet de calculer l’inverse d’une matrice carrée en utilisant l’algorithme de
Gauss-Jordan.
Page 16/56
MPSI M a tr i ce s
On appelle A ∈ Mn,p (K) la matrice des coefficients du système. b ∈ Mn,1 (K) est le vecteur du second membre. Le vecteur
X ∈ M p,1 (K) est une solution du système si et seulement si
AX = b.
Théorème 2.
Un système d’équations linéaires n’a soit aucune solution, soit une seule solution, soit une infinité de solutions.
a11 ... a1n x1 b1
a21 ... a2n x2 b2
= .
.. .. .. ..
. . . .
an1 ... ann xn bn
| {z } | {z } | {z }
A X b
Alors A ∈ Mn (K) est une matrice carrée et b un vecteur de Mn,1 (K). Pour tout second membre, nous pouvons utiliser les
matrices pour trouver la solution du système linéaire.
Proposition 10.
Si la matrice A est inversible, alors la solution du système AX = b est unique et est :
X = A−1 b.
La preuve est juste de vérifier que si X = A−1 b, alors AX = A A−1 b = AA−1 b = I · b = b. Réciproquement si AX = b,
alors nécessairement X = A−1 b. Nous verrons bientôt que si la matrice n’est pas inversible, alors soit il n’y a pas de
solution, soit une infinité.
Page 17/56
MPSI M a tr i ce s
1. La matrice E Li ←λLi est la matrice obtenue en multipliant par λ la i ième ligne (respectivement la i ième colonne) de la
matrice identité I n , où λ est un nombre réel non nul.
1 0 0 0
0 5 0 0
E L2 ←5L2 =
0
= EC2 ←5C2
0 1 0
0 0 0 1
2. La matrice E Li ←Li +λL j est la matrice obtenue en ajoutant λ fois la j ième ligne (respectivement la j ième colonne) de I n
à la i ième ligne (respectivement la i ième colonne) de I n .
1 0 0 0
−3 1 0 0
E L2 ←L2 −3L1 =
0
= EC1 ←C1 −3C2
0 1 0
0 0 0 1
3. La matrice E Li ↔L j est la matrice obtenue en permutant les i ième et j ième lignes (respectivement colonnes) de I n .
1 0 0 0
0 0 0 1
E L2 ↔L4 = E L4 ↔L2 =
0
C ↔C
2 4
0 1 0
0 1 0 0
Les opérations élémentaires sur les lignes sont réversibles, ce qui entraîne l’inversibilité des matrices élémentaires.
Le résultat de la multiplication d’une matrice élémentaire E par A est la matrice obtenue en effectuant l’opération
élémentaire correspondante sur A. Ainsi :
1. La matrice E Li ←λLi × A (respectivement A × ECi ←λCi ) est la matrice obtenue en multipliant par λ la i ième ligne
(respectivement colonne) de A.
2. La matrice E Li ←Li +λL j × A (respectivement A × EC j ←C j +λLi ) est la matrice obtenue en ajoutant λ fois la j ième ligne
(respectivement la i ième colonne) de A à la i ième ligne (respectivement la j ième colonne) de A.
3. La matrice E Li ↔L j × A (respectivement A × ECi ↔C j ) est la matrice obtenue en permutant les i ième et j ième lignes
(respectivement colonnes) de A.
Exemple 14.
1.
1 0 0 x1 x2 x3 x1 x2 x3
1
E L2 ← 1 L2 × A = 0 3 0 × y1 y2 y3 = 31 y1 1
3 y2
1
3 y3
3
0 0 1 z1 z2 z3 z1 z2 z3
1. On peut effectuer ces mêmes opérations sur les colonnes
Page 18/56
MPSI M a tr i ce s
2.
1 0 −7 x1 x2 x3 x 1 − 7z1 x 2 − 7z2 x 3 − 7z3
E L1 ←L1 −7L3 × A = 0 1 0 × y1 y2 y3 = y1 y2 y3
0 0 1 z1 z2 z3 z1 z2 z3
3.
1 0 0 x1 x2 x3 x1 x2 x3
E L2 ↔L3 × A = 0 0 1 × y1 y2 y3 = z1 z2 z3
0 1 0 z1 z2 z3 y1 y2 y3
Définition 8.
Deux matrices A et B sont dites équivalentes par lignes (respectivement équivalentes par colonnes) si l’une peut
être obtenue à partir de l’autre par une suite d’opérations élémentaires sur les lignes. On note A ∼ B (respectivement
L
A ∼ B ).
C
Définition 9.
Une matrice est échelonnée par lignes a si :
• le nombre de zéros commençant une ligne croît strictement ligne par ligne jusqu’à ce qu’il ne reste plus que des
zéros.
Elle est échelonnée réduite par lignes b si en plus :
• le premier coefficient non nul d’une ligne (non nulle) vaut 1 ;
• et c’est le seul élément non nul de sa colonne.
a. De même on peut définir aussi une matrice échelonnée par colonnes
b. De même on peut définir une matrice échelonnée réduite par colonnes
Exemple d’une matrice échelonnée (à gauche) et échelonnée réduite (à droite) ; les ∗ désignent des coefficients quelconques,
les + des coefficients non nuls :
+ ∗ ∗ ∗ ∗ ∗ ∗
1 ∗ 0 0 ∗ ∗ 0
0 0 + ∗ ∗ ∗ ∗ 0 0 1 0 ∗ ∗ 0
0 0 0 + ∗ ∗ ∗ 0 0 0 1 ∗ ∗ 0
0 0 0 0 0 0 + 0 0 0 0 0 0 1
0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0 0 0 0 0 0
Théorème 3.
Étant donnée une matrice A ∈ Mn,p (K), il existe une unique matrice échelonnée réduite U obtenue à partir de A par des
opérations élémentaires sur les lignes.
Ce théorème permet donc de se ramener par des opérations élémentaires à des matrices dont la structure est beaucoup
plus simple : les matrices échelonnées réduites.
Page 19/56
MPSI M a tr i ce s
On commence par inspecter la première colonne. Soit elle ne contient que des zéros, auquel cas on passe directement à
l’étape A.3, soit elle contient au moins un terme non nul. On choisit alors un tel terme, que l’on appelle le pivot. Si c’est
le terme a11 , on passe directement à l’étape A.2 ; si c’est un terme ai1 avec i ̸= 1, on échange les lignes 1 et i ( L1 ↔ L i )
et on passe à l’étape A.2.
Au terme de l’étape A.1, soit la matrice A a sa première colonne nulle (à gauche) ou bien on obtient une matrice équivalente
′
dont le premier coefficient a11 est non nul (à droite) :
′ ′
· · · a1′ j · · · a1p
′
0 a12 · · · a1 j · · · a1p a11 a12
′ ′
0 a22 · · · a2 j · · · a2p a21 a22 · · · a2′ j · · · a2p
′
.. .. .. .. .. .. .. ..
. . . . . . . .
= A ou
′ ∼ A.
′ ′ ′
0 a
i2 · · · ai j · · · aip
ai1 ai2 · · · ai j · · · aip
. .. .. .. . .. .. ..
.. . . . .. . . .
0 an2 · · · an j · · · anp ′ ′ ′ ′
an1 an2 · · · an j · · · anp
1
0 a22 · · · a21 j · · · a2p
1
.. .. .. ..
. . . .
1 ∼A
1 1
0
ai2 · · · ai j · · · aip
. .. .. ..
.. . . .
1
0 an2 ··· an1 j ··· 1
anp
dont la première colonne est bien celle d’une matrice échelonnée. On va donc conserver cette première colonne. Si
1
a11 ̸= 0, on conserve aussi la première ligne, et l’on repart avec l’étape A.1 en l’appliquant cette fois à la sous-matrice
(n − 1) × (p − 1) (ci-dessous à gauche : on « oublie » la première ligne et la première colonne de A) ; si a11
1
= 0, on repart
avec l’étape A.1 en l’appliquant à la sous-matrice n × (p − 1) (à droite, on « oublie » la première colonne) :
1
1 a12 · · · a11 j · · · a1p1
a22 · · · a21 j · · · a2p
1
1
a22 · · · a21 j · · · a2p
1
.. .. ..
. . . .. .. ..
. . .
1 1 1
i2 · · · ai j · · · aip
a
a1 · · · a1 · · · a1
. . . i2 ij ip
.. .. ..
. .. ..
.. . .
1 1 1
an2 · · · an j · · · anp 1 1 1
an2 · · · an j · · · anp
Page 20/56
MPSI M a tr i ce s
Au terme de cette deuxième itération de la boucle, on aura obtenu une matrice de la forme
1 1
a11 a12 · · · a11 j · · · a1p
1
2
0 a22 · · · a22 j · · · a2p
2
.. .. .. ..
. . . .
2 ∼ A,
2
0
0 · · · ai j · · · aip
. .. .. ..
.. . . .
0 0 ··· an2 j ··· 2
anp
et ainsi de suite.
Comme chaque itération de la boucle travaille sur une matrice qui a une colonne de moins que la précédente, alors au
bout d’au plus p − 1 itérations de la boucle, on aura obtenu une matrice échelonnée.
Remarque.
Cet algorithme est applicable aussi sur les colonnes de la matrice
Exemple 15.
Soit
1 2 3 4
A= 0
2 4 6 .
−1 0 1 0
A. Passage à une forme échelonnée.
1
Première itération de la boucle, étape A.1. Le choix du pivot est tout fait, on garde a11 = 1.
Première itération de la boucle, étape A.2. On ne fait rien sur la ligne 2 qui contient déjà un zéro en bonne position et on
remplace la ligne 3 par L3 ← L3 + L1 . On obtient
1 2 3 4
A ∼ 0 2 4 6 .
0 2 4 4
2
Deuxième itération de la boucle, étape A.1. Le choix du pivot est tout fait, on garde a22 = 2.
Deuxième itération de la boucle, étape A.2. On remplace la ligne 3 avec l’opération L3 ← L3 − L2 . On obtient
1 2 3 4
A ∼ 0 2 4 6 .
0 0 0 −2
Cette matrice est échelonnée.
Page 21/56
MPSI M a tr i ce s
Étape B.2, première itération. On ne touche plus à la ligne 3 et on remplace la ligne 2 par L2 ← L2 − 3L3 et L1 ← L1 − 4L3 .
On obtient
1 2 3 0
A ∼ 0 1 2 0 .
0 0 0 1
Étape B.2, deuxième itération. On ne touche plus à la ligne 2 et on remplace la ligne 1 par L1 ← L1 − 2L2 . On obtient
1 0 −1 0
A ∼ 0 1 2 0
0 0 0 1
qui est bien échelonnée et réduite.
Théorème 4.
Soit A ∈ Mn (K). La matrice A est inversible si et seulement si sa forme échelonnée réduite est la matrice identité I n .
Démonstration. Notons U la forme échelonnée réduite de A. Et notons E le produit de matrices élémentaires tel que
EA = U .
⇐= Si U = I n alors EA = I n . Ainsi par définition, A est inversible et A−1 = E .
=⇒ Nous allons montrer que si U ̸= I n , alors A n’est pas inversible.
— Supposons U ̸= I n . Alors la dernière ligne de U est nulle (sinon il y aurait un pivot sur chaque ligne donc ce serait
I n ).
— Cela entraîne que U n’est pas inversible : en effet, pour tout matrice carrée V , la dernière ligne de U V est nulle ; on
n’aura donc jamais U V = I n .
— Alors, A n’est pas inversible non plus : en effet, si A était inversible, on aurait U = EA et U serait inversible comme
produit de matrices inversibles ( E est inversible car c’est un produit de matrices élémentaires qui sont inversibles).
Remarque.
Justifions maintenant notre méthode pour calculer A−1 .
Nous partons de (A|I) pour arriver par des opérations élémentaires sur les lignes à (I|B). Montrons que B = A−1 . Faire
une opération élémentaire signifie multiplier à gauche par une des matrices élémentaires. Notons E le produit de ces
matrices élémentaires. Dire que l’on arrive à la fin du processus à I signifie EA = I . Donc A−1 = E . Comme on fait les
mêmes opérations sur la partie droite du tableau, alors on obtient E I = B . Donc B = E . Conséquence : B = A−1 .
Corollaire 1.
Les assertions suivantes sont équivalentes :
(i) La matrice A est inversible.
0 0
(ii) Le système linéaire AX = .. a une unique solution X = ... .
.
0 0
(iii) Pour tout second membre b, le système linéaire AX = b a une unique solution X .
Page 22/56
MPSI M a tr i ce s
Alors X n’est pas le vecteur nul, mais U X est le vecteur nul. Comme A = E −1 U , alors AX est le vecteur nul. Nous avons
donc trouvé un vecteur non nul X tel que AX = 0.
Exercice d’application.
1. Exprimer les systèmes linéaires suivants sous forme matricielle et les résoudre
en utilisant l’algorithme de
x+t =α
x +z =1 x +z =1
2x + 4 y = 7 x − 2y = β
Gauss-Jordan : , −2 y + 3z = 1 , −2 y + 3z = 1 , .
−2x + 3 y = 14 x+ y+t =2
x+ y =1 x +z =1
y+t =4
Réponse.
2x + 4 y = 7
1. ☛ Le système s’exprime matriciellement sous la forme :
−2x + 3 y = 14
2 4 x 7
=
−2 3 y 14
| {z } | {z }
A b
Pour résoudre ce système par l’algorithme de Gauss-Jordan, on considère la matrice dite
la matrice augmentée du système :
2 4 7
A| b =
−2 3 14
On commence :
2 4 7
−2 3 14
L2 ← L2 + L1
2 4 7
0 7 21
1
L2 ← L2
7
2 4 7
0 1 3
L1 ← L1 − 4L2
2 0 −5
0 1 3
Page 23/56
MPSI M a tr i ce s
1
L1 ← L1
2
5
1 0 −2
0 1 3
Ce qui veut dire que la solution est :
5
x −2
=
y 3
x +z =1
☛ Le système −2 y + 3z = 1 s’exprime matriciellement sous la forme :
x+ y =1
1 0 1 x 1
0 −2 3 y = 1
1 1 0 z 1
| {z } |{z}
A b
La matrice augmentée du système est :
1 0 1 1
A| b = 0 −2 3 1
1 1 0 1
On commence :
1 0 1 1
0 −2 3 1
1 1 0 1
L3 ← L3 − L1
1 0 1 1
0 −2 3 1
0 1 −1 0
1
L3 ← L3 + L2
2
1 0 1 1
0 −2 3 1
1 1
0 0 2 2
L3 ← 2L3
1 0 1 1
0 −2 3 1
0 0 1 1
L1 ← L1 − L3
L2 ← L2 − 3L3
1 0 0 0
0 −2 0 −2
0 0 1 1
1
L2 ← − L2
2
1 0 0 0
0 1 0 1
0 0 1 1
Ce qui veut dire que la solution est :
x 0
y = 1
z 1
Page 24/56
MPSI M a tr i ce s
x +z =1
☛ Le système −2 y + 3z = 1 s’exprime matriciellement sous la forme :
x +z =1
1 0 1 x 1
0 −2 3 y = 1
1 0 1 z 1
| {z } |{z}
A b
La matrice augmentée du système est :
1 0 1 1
A| b = 0 −2 3 1
1 0 1 1
On commence :
1 0 1 1
0 −2 3 1
1 0 1 1
L3 ← L3 − L1
1 0 1 1
0 −2 3 1
0 0 0 0
1
L2 ← − L2
2
1 0 1 1
0 1 −3 −1
2 2
0 0 0 0
1 0 −1 1
3
0 1
2 − 12
0 0 0 0
Ce qui veut dire que la solution est :
x −z + 1
y = 3 z − 1 / z∈K
2 2
z z
Le système admet donc une infinité de solutions.
☛ Le dernier système est laissé au lecteur.
2. On donne les matrices correspondantes aux opérations élémentaires et leurs inverses :
Opération élémentaire la matrice correspondante son inverse
1 0 0 0 1 0 0 0
0 1 0 0 0 3 0 0
L2 ← 13 L2 3
0 0 1 0
0 0 1 0
0 0 0 1 0 0 0 1
1 0 0 0 1 0 0 0
0 1 0 0 0 1 0 0
L3 ← L3 − 14 L2
0 − 1
0 1 1 0
4 1 0 4
0 0 0 1 0 0 0 1
0 0 0 1 0 0 0 1
0 1 0 0 0 1 0 0
L1 ↔ L4
0 0
1 0 0 0 1 0
1 0 0 0 1 0 0 0
Ce qui nous conduit à dire de façon générale que les matrices correspondantes aux opérations élémentaires
E L i ←L i +αL j , E L i ←λL i , E L i ←→L j (i ̸= j, λ ̸= 0) sont inversibles et on a :
−1 −1 −1
E L i ←L i +αL j = E L i ←L i −αL j , E L i ←λL i = E Li ← 1 Li , E L i ←→L j = E L i ←→L j (1)
λ
Page 25/56
MPSI M a tr i ce s
Page 26/56
MPSI M a tr i ce s
Exercice 7.
Réaliser un programme Python qui permet de résoudre un système linéaire en utilisant l’algorithme de Gauss-Jordan.
On dit que A est triangulaire supérieure si ses éléments en-dessous de la diagonale sont nuls, autrement dit :
i > j =⇒ ai j = 0.
Une matrice qui est triangulaire inférieure et triangulaire supérieure est dite diagonale. Autrement dit : i ̸= j =⇒ ai j = 0.
Exemple 17.
Exemples de matrices diagonales :
−1 0 0
0 2 0
6 0 et
0 3
0 0 0
Exercice d’application.
1. Vérifier que le produit de deux matrices triangulaires supérieures (respectivement inférieures) est aussi une
matrice triangulaire supérieure (respectivement inférieure)
2. Même question pour deux matrices diagonales
Page 27/56
MPSI M a tr i ce s
Réponse.
1. Soient A = ai j 1⩽i, j⩽n
et B = bi j
1⩽i,P
j⩽n
deux matrices triangulaires supérieures. On note ci j le coefficient de
n
la matrice produit C = AB , donc ci j = k=1 aik bk j . Soit (i, j) ∈ ⟦1, n⟧ × ⟦1, n⟧. Comme les matrices A et B sont
triangulaires supérieures alors pour k ∈ ⟦1, n⟧ on a :
i⩽k
aik , bk j ̸= 0 =⇒
k⩽ j
=⇒ i ⩽ j
Donc par contraposée :
i>j =⇒ aik = 0 ou bk j = 0
=⇒ aik bk j = 0
Pn
On en déduit que ci j = k=1 aik bk j = 0 pour i > j , ce que veut dire que C est une matrice triangulaire supérieure.
Le même raisonnement s’applique encore à des matrices triangulaire inférieures pour établir que leur produit
est aussi une matrice triangulaire inférieure.
2. Laissée au lecteur.
Exemple 18 (Puissances d’une matrice diagonale).
Si D est une matrice diagonale, il est très facile de calculer ses puissances D p (par récurrence sur p) :
p
α1 0 . . . . . . α1 0 . . . . . .
0 0
0 α2 0 ... 0 0 αp 0 ... 0
2
.. .. .. .. . . .. .. .. ..
D= . .. =⇒ D p = ..
. . . . . . .
0 . . . 0 αp
0 . . . 0 αn−1 0 0
n−1
0 ... ... 0 αn 0 ... ... 0 αnp
Théorème 5.
Une matrice A de taille n × n, triangulaire, est inversible si et seulement si ses éléments diagonaux sont tous non nuls.
Il est alors clair que la colonne numéro ℓ de la forme échelonnée réduite ne contiendra pas de 1 comme pivot. La
forme échelonnée réduite de A ne peut donc pas être I n et par le théorème 4, A n’est pas inversible.
Dans le cas d’une matrice triangulaire inférieure, on utilise la transposition (qui fait l’objet de la section suivante) et on
obtient une matrice triangulaire supérieure. On applique alors la démonstration ci-dessus.
Page 28/56
MPSI M a tr i ce s
7.2. La transposition
Soit A la matrice de taille n × p
a11 a12 ... a1p
a21 a22 ... a2p
A= .
.. .. ..
. . .
an1 an2 ... anp
Définition 10.
On appelle matrice transposée de A la matrice AT de taille p × n définie par :
a11 a21 . . . an1
a12 a22 . . . an2
AT = . .. .
..
.. . .
a1p a2p ... anp
Autrement dit : le coefficient à la place (i, j) de AT est a ji . Ou encore la i -ème ligne de A devient la i -ème colonne de AT
(et réciproquement la j -ème colonne de AT est la j -ème ligne de A).
Théorème 6.
1. (A + B) T = AT + B T
2. (αA) T = αAT
3. (AT ) T = A
4. (AB) T = B T AT
5. Si A est inversible, alors AT l’est aussi et on a (AT )−1 = (A−1 ) T .
Exercice d’application.
Soit A ∈ Mn,p (K).
1. Vérifier que le produit de AT par A est toujours possible.
2. Que dire des matrice AT A et AAT ?
(a) Taille ?
(b) Éléments diagonaux ?
(c) Symétrie par rapport à la première diagonale ?
Réponse.
1. La matrice A est de taille n × p et la matrice AT est de taille p × n donc les produit AAT et AT A sont tous les deux
possibles et de tailles respectives n × n et p × p.
2. On note bi j = a ji le coefficient de la matrice AT , ci j le coefficient de la matrice AAT et di j le coefficient de la
Page 29/56
MPSI M a tr i ce s
matrice AT A.
(a) Les matrices AAT et AT A sont de tailles respectives n × n et p × p.
Pp Pp
(b) Pour i ∈ ⟦1, n⟧, on a cii = Pk=1 aik bki = Pk=1 aik 2
.
n n
Pour i ∈ ⟦1, p⟧, on a dii = k=1 bik aki = k=1 aki 2
.
Pp Pp
(c) Pour (i, j) ∈ ⟦1, n⟧ × ⟦1, n⟧ tel que i ̸= j , on a ci j = Pk=1 aik bk j = Pk=1 aik a jk = c ji .
n n
Pour (i, j) ∈ ⟦1, p⟧ × ⟦1, p⟧ tel que i ̸= j , on a di j = k=1 bik ak j = k=1 aki ak j = d ji .
T T
Donc les coefficients des matrices AA et A A sont symétriques par rapport à la diagonale.
Exercice 8.
Réaliser un programme Python qui permet de calculer la transposée d’une matrice.
7.3. La trace
Dans le cas d’une matrice carrée de taille n × n, les éléments a11 , a22 , . . . , ann sont appelés les éléments diagonaux.
Sa diagonale principale est la diagonale (a11 , a22 , . . . , ann ).
a11 a12 . . . a1n
a21 a22 . . . a2n
. .. .. ..
.. . . .
an1 an2 ... ann
Définition 11.
La trace de la matrice A est le nombre obtenu en additionnant les éléments diagonaux de A. Autrement dit,
Exemple 20.
• Si A = 20 15 , alors Tr A = 2 + 5 = 7.
1 1 2
• Pour B = 5 2 8 , Tr B = 1 + 2 − 10 = −7.
11 0 −10
Théorème 7.
Soient A et B deux matrices n × n. Alors :
1. Tr(A + B) = Tr A + Tr B ,
2. Tr(αA) = α Tr A pour tout α ∈ K,
3. Tr(AT ) = Tr A,
4. Tr(AB) = Tr(BA).
Démonstration.
1. Pour tout 1 ⩽ i ⩽ n, le coefficient (i, i) de A + B est aii + bii . Ainsi, on a bien Tr(A + B) = Tr(A) + Tr(B).
2. On a Tr(αA) = αa11 + · · · + αann = α(a11 + · · · + ann ) = α Tr A.
3. Étant donné que la transposition ne change pas les éléments diagonaux, la trace de A est égale à la trace de AT .
4. Notons ci j les coefficients de AB . Alors par définition
cii = ai1 b1i + ai2 b2i + · · · + ain bni .
Ainsi,
Tr(AB) = a11 b11 +a12 b21 +··· +a1n bn1
+a21 b12 +a22 b22 +··· +a2n bn2
..
.
+an1 b1n +an2 b2n +··· +ann bnn .
On peut réarranger les termes pour obtenir
Page 30/56
MPSI M a tr i ce s
Remarque.
• Il en résulte que la trace est une forme linéaire.
• La trace constitue un outil parfois utile dans les raisonnements par Analyse/Synthèse.
Exercice d’application.
Donner un exemple de matrices carrées A, B, C telles que Tr(ABC) ̸= Tr(AC B).
Réponse.
1 2 0 1 2 0 3 4 5
Les matrices A = 1 1 1 , B = 0 0 −1 , C = 1 −1 1 vérifient :
1 0 −1 1 1 −1 −1 1 −1
7 0 9 12 17 −9
ABC = 11 3 15 , AC B = 8 11 −9
0 0 0 10 14 −9
Donc Tr(ABC) = 10 ̸= 14 = Tr(AC B).
Exercice 9.
Soient A, B ∈ Mn (K).
1. Déterminer toutes les matrices X ∈ Mn (K) telles que : X + Tr(X )A = B .
2. A et B peuvent-elles vérifier : AB − BA = I n ?
Réponse.
1. Soit X ∈ Mn (K) telle que : X + Tr(X )A = B (∗∗), donc si on applique la trace à cette égalité on aura :
Tr(X ) 1 + Tr(A) = Tr(B)
Ce qui nous conduit à traiter les cas suivants :
• Si Tr(A) = −1 et Tr(B) ̸= 0, on aura une absurdité.
• Si Tr(A) = −1 et Tr(B) = 0 alors X = B − αA avec α un scalaire quelconque. Inversement, cette valeur vérifie
(∗∗).
Tr(B)
• Si Tr(A) ̸= −1 alors X = B − αA avec α = Tr(A)+1 . Inversement, cette valeur vérifie (∗∗).
Ainsi, si on note S l’ensemble des solutions de l’équation (∗∗) alors :
si Tr(A) = −1 et Tr(B) ̸= 0
;,
S = {B − αA/ α ∈ K} , si Tr(A) = −1 et Tr(B) = 0
¦ Tr(B)
©
B − αA/ α = Tr(A)+1 , si Tr(A) ̸= −1
2. Supposons que de telles matrices existent et appliquons la trace à l’égalité :
Tr(AB − BA) = Tr(I n ) ⇔ Tr(AB) − Tr(BA) = n ⇔ 0 = n
Ce qui est absurde, donc ces deux matrices A et B ne peuvent pas exister.
Page 31/56
MPSI M a tr i ce s
Exercice 10.
Réaliser un programme Python qui permet de calculer la trace d’une matrice carrée.
Définition 12.
Une matrice A de taille n × n est symétrique si elle est égale à sa transposée, c’est-à-dire si
A = AT ,
ou encore si ai j = a ji pour tout i, j = 1, . . . , n. Les coefficients sont donc symétriques par rapport à la diagonale.
Exemple 21.
Les matrices suivantes sont symétriques :
−1 0 5
0 2 0 2 −1
2 4
5 −1 0
Exemple 22.
Pour une matrice B quelconque, les matrices B · B T et B T · B sont symétriques.
Preuve : (BB T ) T = (B T ) T B T = BB T . Idem pour B T B .
Définition 13.
Une matrice A de taille n × n est antisymétrique si
AT = −A,
c’est-à-dire si ai j = −a ji pour tout i, j = 1, . . . , n.
Exemple 23.
0 4 2
0 −1 −4 0 −5
1 0
−2 5 0
Remarquons que les éléments diagonaux d’une matrice antisymétrique sont toujours tous nuls.
Exemple 24.
Toute matrice est la somme d’une matrice symétrique et d’une matrice antisymétrique.
Preuve : Soit A une matrice. Définissons B = 12 (A + AT ) et C = 12 (A − AT ). Alors d’une part A = B + C ; d’autre part B est
symétrique, car B T = 21 (AT + (AT ) T ) = 12 (AT + A) = B ; et enfin C est antisymétrique, car C T = 12 (AT − (AT ) T ) = −C .
Exemple :
2 10 2 9 0 1
Pour A= alors A = + .
8 −3 9 −3 −1 0
| {z } | {z }
symétrique antisymétrique
Exercice d’application.
1. Montrer que si A est triangulaire supérieure, alors AT est triangulaire inférieure. Et si A est diagonale ?
x1 !
x2
2. Soit A = .. . Calculer AT · A, puis A · AT .
.
xn
3. Soit A = a b
c d . Calculer Tr(A · AT ).
4. Soit A une matrice de taille 2 × 2 inversible. Montrer que si A est symétrique, alors A−1 aussi. Et si A est
antisymétrique ?
Page 32/56
MPSI M a tr i ce s
5. Montrer que la décomposition d’une matrice sous la forme « symétrique + antisymétrique » est unique.
Réponse.
1. Soit A = ai j 1⩽i, j⩽n
une matrice triangulaire supérieure et notons bi j = a ji le coefficient de la matrice AT . Soit
2
(i, j) ∈ ⟦1, n⟧ , comme A est triangulaire supérieure alors bi j = 0 pour i < j , et cela veut dire que la matrice AT
est triangulaire inférieure.
Pour une matrice diagonale, elle est à la fois triangulaire supérieure et inférieure donc sa transposée l’est aussi
d’après la première partie de la question, ce que veut dire que sa transposée est aussi diagonale.
2. Le calcul donne :
x1
x2
AT A = x1 x2 ··· x n × . = x 12 + x 22 + · · · + x n2
..
xn
2
x1 x1 x2 x1 · · · x n x1
x2 x1 x2 x 22 · · · x n x2
AAT = . × x 1 x 2 · · · x n = .
.. ..
.. .. . .
xn x1 x n x2 x n · · · x n2
a + b2 ac + bd
2
3. On a A.A =
T
2 , donc Tr A.A
T
= a2 + b2 + c 2 + d 2 .
ac + bd a + b 2
De façon générale, si on utilise le résultat de la question 2.(b) de l’exercice 7.2 on peut énoncer :
n X n
X
Tr [Link] = ai2j
i=1 j=1
pour une matrice A = ai j 1⩽i, j⩽n
.
4. La première partie de la question est facile et pour la deuxième si A = −a
0 a
0 est inversible alors a ̸= 0 et
−1
A−1 = a0−1 −a0 qui est aussi antisymétrique. On verra dans le chapitre des déterminants que si une matrice
A ∈ Mn (K) antisymétrique est inversible alors n est pair.
1 1
5. Soit A ∈ Mn (K). A s’écrit A = A + AT + A − AT avec A1 est symétrique et A2 est antisymétrique. Maintenant,
|2 {z } |2 {z }
A1 A2
A = B1 + B2
pour l’unicité, si A = B1 + B2 avec B1 est symétrique et B2 est antisymétrique alors , ce qui
AT = B1 − B2
donne B1 = A1 et B2 = A2 . D’où l’unicité.
Exercice 11.
On note Sn et An respectivement l’ensemble des matrices symétriques et l’ensemble des matrices antisymétriques.
1. Vérifier qu’ils forment des sous-espaces vectoriels de Mn (K) et qu’ils sont supplémentaires.
2. Prouver que l’application transposition est une symétrie vectorielle de Mn (K). Déterminer ses sous-espaces
vectoriels caractéristiques.
Réponse.
1. • Les deux sous-ensembles Sn et An sont des sous-espaces vectoriels de Mn (K) (la vérification est laissée au
lecteur).
• D’après la question 5. de l’exercice d’application précédent, ils sont supplémentaires.
2. La transposition T vérifie :
T : Mn (K) = Sn ⊕ An −→ Mn (K)
1 1
A = A + AT + A − AT 7−→ AT = A1 − A2
|2 {z } |2 {z }
A1 A2
Page 33/56
MPSI M a tr i ce s
Nous allons voir qu’il existe un lien étroit entre les matrices et les applications linéaires. À une matrice on associe
naturellement une application linéaire. Et réciproquement, étant donné une application linéaire, et des bases pour les
espaces vectoriels de départ et d’arrivée, on associe une matrice.
Dans cette section, tous les espaces vectoriels sont de dimension finie.
Soient E et F deux K-espaces vectoriels de dimension finie. Soient p la dimension de E et B = (e1 , . . . , e p ) une base de E .
Soient n la dimension de F et B ′ = ( f1 , . . . , f n ) une base de F .
Définition 14.
On appelle matrice de la famille A dans la base B ′ , la matrice :
x1 ... xj ... xp
f1 x 11 x1 j ... x 1p
f2 x 21 x2 j ... x 2p
MatB ′ (A ) = .
. .. .. ..
.. .. . . .
fn x n1 xnj ... x np
Remarque.
On rappelle que le rang de la famille A est défini par :
rg(A ) = dimVect(A )
Dans ce qui suit, on donnera un moyen pour calculer le rang d’une famille de vecteurs.
Théorème 8.
Si A = MatB ′ (A ) et B est une matrice échelonnée équivalente par lignes à A, alors le rang de la famille A est égal au
nombre des premiers coefficients non nuls dans les lignes de la matrice B .
Démonstration. Elle résulte du fait qu’ajouter à un vecteur une combinaison linéaire des autres, multiplier un vecteur par
un scalaire non nul ou permuter deux vecteurs ne modifie pas le Vect(A ), et donc ne modifie pas le rang de la famille A .
Ce qui revient à effectuer des opérations élémentaires sur les colonnes de la matrice MatB ′ (A ), mais comme le rang
d’une matrice est égal au rang de sa transposée (d’après le corollaire 11) alors on peut effectuer ces mêmes opérations
élémentaires sur les lignes de la matrice sans changer le rang pour avoir une matrice équivalente par lignes.
Remarque.
Ce résultat ne dépend pas de la base dans laquelle on exprime la matrice de la famille A , on le justifiera dans la remarque
du paragraphe 9.2.
Exemple 25.
On considère la famille A formée par les vecteurs x 1 = X 2 + 2, x 2 = X 2 + 1, x 3 = X 2 + X , x 4 = X 2 dans R2 [X ] muni
de sa base canonique B ′ = ( f1 = 1, f2 = X , f3 = X 2 ), déterminons le rang de la famille A . La matrice de cette famille
dans la base canonique s’écrit :
2 1 0 0
MatB ′ = 0 0 1 0
1 1 1 1
Page 34/56
MPSI M a tr i ce s
Utilisons l’algorithme de Gauss (on dit de Gauss car on veut seulement l’échelonner, si on veut sa forme échelonnée
réduite on dira de Gauss-Jordan) pour l’échelonner :
2 1 0 0
0 0 1 0
1 1 1 1
2 1 0 0
1
0 0 1 0 L3 ← L3 − L1
1 2
0 2 1 1
2 1 0 0
1
0
2 1 1 L3 ↔ L2
0 0 1 0
On en déduit que : rg(A ) = 3.
Exercice d’application.
A est une famille de vecteurs d’un R-espace vectoriel F . Déterminer dans chaque cas le rang de la famille A :
1. F = C et A = (1, i, j) ;
2. F = C et A = (i, j) ;
3. F = C2 et A = ((1, i), (1, j), (i, j), (1, i + j)) ;
4. F = C3 et A = ((1 + i, 1, 0), (0, 1 − i, 1), (−2, 3 + i, 2 + 2i)) ;
5. F = R3 et A = ((−1, 1, 1), (−2, 1, 1), (1, 0, 0)).
Réponse.
On se contente de donner un élément pour vérifier pour la bonne réponse.
1. rg(A ) = 2.
2. rg(A ) = 2.
3. rg(A ) = 4.
4. rg(A ) = 3.
5. rg(A ) = 2.
Malgré cela, on détaillera la question 3 vu le niveaude la classe MPSI : une base du R-espace vectoriel F est la famille
B ′ = f1 = (1, 0), f2 = (i, 0), f3 = (0, 1), f4 = (0, i) , et les vecteurs de la famille A dans cette base s’écrivent :
(1, i) = f1 + f4
p
(1, j) = f − 1 f + 3 f
1 2 3 p2 4
(i, j) = f2 − 12 f3 + 23 f4 p
(1, i + j) = f1 − 12 f3 + 1 + 23 f4
Page 35/56
MPSI M a tr i ce s
1 1 0 1
0 − 12 − 12 − 12
0
L2 ↔ L3
p
0 p
1 p
0
3 3 3
0 2 −1 2 2
1 1 0 1
p
− 21 − 21 − 12
0 3
0
L4 ↔ L4 + 2 − 1 L2
0 p
1 p
0 2
0 0 − 23 + 2 − 2
3
+2
1 1 0 1
p
0 − 21 − 12 − 12
3
0 0
L4 ↔ L4 + − 2 L3
1 p
0 2
3
0 0 0 − 2 +2
D’où, rg(A ) = 4.
Exercice 12.
Réaliser un programme Python qui permet de calculer le rang d’une famille de vecteurs en utilisant l’algorithme de
Gauss.
Définition 15.
La matrice de l’application linéaire f par rapport aux bases B et B ′ est la matrice (ai, j ) ∈ Mn,p (K) dont la j -ème
colonne est constituée par les coordonnées du vecteur f (e j ) dans la base B ′ = ( f1 , f2 , . . . , f n ) :
f (e1 ) ... f (e j ) ... f (e p )
f1 a11 a1 j ... a1p
f2
a21 a2 j ... a2p
.. .. .. .. ..
. . . . .
fn an1 an j ... anp
En termes plus simples : c’est la matrice dont les vecteurs colonnes sont l’image par f des vecteurs de la base de départ
B , exprimée dans la base d’arrivée B ′ . On note cette matrice MatB,B ′ ( f ).
Remarque.
• La taille de la matrice MatB,B ′ ( f ) dépend uniquement de la dimension de E et de celle de F .
• Par contre, les coefficients de la matrice dépendent du choix de la base B de E et de la base B ′ de F .
Page 36/56
MPSI M a tr i ce s
Exemple 26.
Soit f l’application linéaire de R3 dans R2 définie par
f : R3 −→ R2
(x 1 , x 2 , x 3 ) 7−→ (x 1 + x 2 − x 3 , x 1 − 2x 2 + 3x 3 )
x1
Il est utile d’identifier vecteurs lignes et vecteurs colonnes ; ainsi f peut être vue comme l’application f : x2
x3
7→
x 1 +x 2 −x 3
x 1 −2x 2 +3x 3 .
Exercice d’application.
Soient E un K-espace vectoriel de dimension n ∈ N∗ et F et G deux sous-espaces vectoriels de E supplémentaires. Soit
B une base adaptée à la somme directe F ⊕ G .
1. Donner la matrice de la projection p sur F parallèlement à G dans la base B .
2. Même question pour la symétrie s par rapport à F parallèlement à G .
Réponse.
On se contente ici de donner les éléments de la réponse. Si r est la dimension de F et p et s sont respectivement la
projection et la symétrie proposées dans l’exercice alors leurs matrices s’écrivent dans la base B par blocs :
Ir 0 r,n−r
1. MatB,B (p) = J r (n, n) =
0n−r,r 0n−r,n−r
Ir 0 r,n−r
2. MatB,B (s) = = 2J r (n, n) − I n
0n−r,r −I n−r,n−r
Théorème 9.
L’application suivante :
Ψ : L (E, F ) −→ Mn,p (K)
f 7−→ MatB,B ′ ( f )
Page 37/56
MPSI M a tr i ce s
Démonstration. La linéarité résulte de la proposition 11 (à voir dans la suite), et pour la bijectivité on peut voir facilement
que cette application est de noyau est réduit au vecteur nul et qu’elle est définie sur deux espaces vectoriels de même
dimension.
Proposition 11.
Soient f , g : E → F deux applications linéaires et soient B une base de E et B ′ une base de F . Alors :
• MatB,B ′ ( f + g) = MatB,B ′ ( f ) + MatB,B ′ (g)
• MatB,B ′ (λ f ) = λ MatB,B ′ ( f )
Proposition 12.
Soient f : E → F et g : F → G deux applications linéaires et soient B une base de E , B ′ une base de F et B ′′ une base
de G . Alors :
Page 38/56
MPSI M a tr i ce s
Mais ceci est aussi la première colonne de la matrice BA. En faisant la même chose avec les autres colonnes, on remarque
que C = MatB,B ′′ (g ◦ f ) et BA sont deux matrices ayant leurs colonnes égales. On a donc bien l’égalité cherchée.
Exemple 27.
On considère deux applications linéaires : f : R2 → R3 et g : R3 → R2 . On pose E = R2 , F = R3 , G = R2 avec f : E → F ,
g : F → G . On se donne des bases : B = (e1 , e2 ) une base de E , B ′ = ( f1 , f2 , f3 ) une base de F , et B ′′ = (g1 , g2 ) une
base de G .
On suppose connues les matrices de f et g :
1 0
2 −1 0
A = MatB,B ′ ( f ) = 1 1 ∈ M3,2 B = MatB ′ ,B ′′ (g) = ∈ M2,3
3 1 2
0 2
Cet exemple met bien en évidence le gain, en termes de quantité de calculs, réalisé en passant par l’intermédiaire des
matrices.
Page 39/56
MPSI M a tr i ce s
• Si on choisit la même base B au départ et à l’arrivée, alors on note simplement MatB ( f ) la matrice associée à f .
• Mais on peut aussi choisir deux bases distinctes pour le même espace vectoriel E ; on note alors comme précédemment
MatB,B ′ ( f ).
Exemple 28.
• Cas de l’identité : id : E → E est définie par id(x) = x . Alors quelle que soit la base B de E , la matrice associée est la
matrice identité : MatB (id) = I n . (Attention ! Ce n’est plus vrai si la base d’arrivée est différente de la base de départ.)
• Cas d’une homothétie hλ : E → E , hλ (x) = λ · x (où λ ∈ K est le rapport de l’homothétie) : MatB (hλ ) = λI n .
• Cas d’une symétrie centrale s : E → E , s(x) = −x : MatB (s) = −I n .
• Cas de rθ : R2 −→ R2 la rotation d’angle θ , centrée à l’origine, dans l’espace vectoriel R2 muni de la base canonique
B . Alors rθ (x, y) = (x cos θ − y sin θ , x sin θ + y cos θ ). On a
cos θ − sin θ
MatB (rθ ) = .
sin θ cos θ
Corollaire 2.
Soient E un espace vectoriel de dimension finie et B une base de E . Soit f : E → E une application linéaire. Alors, quel
que soit p ∈ N :
p
MatB ( f p ) = MatB ( f )
Voici le cas particulier très important d’un endomorphisme f : E → E où E est muni de la même base B au départ et à
l’arrivée et A = MatB ( f ).
Corollaire 3.
• f est bijective si et seulement si A est inversible.
• Si f est bijective, alors la matrice associée à f −1 dans la base B est A−1 .
Page 40/56
MPSI M a tr i ce s
−1
Autrement dit : MatB ( f −1 ) = MatB ( f ) .
Exemple 30.
Soient r : R2 → R2 la rotation d’angle π6 (centrée à l’origine) et s la réflexion par rapport à l’axe ( y = x). Quelle est la
matrice associée à (s ◦ r)−1 dans la base canonique B ?
p3 1
cos θ − sin θ
π −
• Pour θ = 6 , on trouve la matrice A = MatB (r) = = 1 2 p 2
.
sin θ cos θ 2 2
3
0 1
• La matrice associée à la réflexion est B = MatB (s) = .
1 0
p
1 3
• La matrice de s ◦ r est B × A = p2
3
2
.
2 −1
2 p −1 p
1 3 1 3
• La matrice de (s ◦ r) −1
est (BA)
−1
= p2
3
2
= p2 2
. On aurait aussi pu calculer ainsi : (BA)−1 =
2 − 12 2
3
− 12
A−1 B −1 = · · ·
• On note que (BA)−1 = BA ce qui, en termes d’applications linéaires, signifie que (s ◦ r)−1 = s ◦ r . Autrement dit, s ◦ r
est son propre inverse.
Exercice d’application.
1. Calculer la matrice associée aux applications linéaires f i : R2 → R2 dans la base canonique :
(a) f1 la symétrie par rapport à l’axe (O y),
(b) f2 la symétrie par rapport à l’axe ( y = x),
(c) f3 la projection orthogonale sur l’axe (O y),
π
(d) f4 la rotation d’angle 4.
Page 41/56
MPSI M a tr i ce s
9. Changement de bases
Soit E un espace vectoriel de dimension finie et soit B = (e1 , e2 , . . . , e p ) une base de E . Pour chaque x ∈ E , il existe un
p-uplet unique d’éléments de K (x 1 , x 2 , . . . , x p ) tel que
x = x 1 e1 + x 2 e2 + · · · + x p e p .
x
1
x2
La matrice des coordonnées de x est un vecteur colonne, noté MatB (x) ou encore .. .
.
xp
B
x
1
x2
Dans R p , si B est la base canonique, alors on note simplement .. en omettant de mentionner la base.
.
xp
Soient E et F deux K-espaces vectoriels de dimension finie et f : E → F une application linéaire. Le but de ce paragraphe
est de traduire l’égalité vectorielle y = f (x) par une égalité matricielle.
Soient B une base de E et B ′ une base de F .
Proposition 13.
• Soit A = MatB,B ′ ( f ). x
1
x2
• Pour x ∈ E , notons X = MatB (x) = .. .
.
xp
B
y1 !
y2
• Pour y ∈ F , notons Y = MatB ′ ( y) = .. .
.
yn B′
Alors, si y = f (x), on a
Y = AX
Autrement dit :
MatB ′ f (x) = MatB,B ′ ( f ) × MatB (x)
Démonstration. x
1
x2
• On pose B = (e1 , . . . , e p ), B = ( f1 , f2 , . . . , f n ), A = (ai, j ) = MatB,B ′ ( f ) et X = MatB (x) = .. .
′
.
xp
• On a !
p p p n
X X X X
f (x) = f x jej = x j f (e j ) = xj ai, j f i .
j=1 j=1 j=1 i=1
En utilisant la commutativité de K, on a
! !
p
X p
X
f (x) = a1, j x j f1 + · · · + an, j x j fn.
j=1 j=1
Pp a1, j x j
P pj=1
j=1 a2, j x j
• La matrice colonne des coordonnées de y = f (x) dans la base ( f1 , f2 , . . . , f n ) est .
..
Pp .
j=1 an, j x j
Page 42/56
MPSI M a tr i ce s
Pp a1, j x j
x
P pj=1 1
a2, j x j x2
j=1
• Ainsi la matrice Y = MatB ′ f (x) = n’est autre que A .. .
.. .
Pp . xp
j=1 an, j x j
Exemple 31.
Soient E un K-espace vectoriel de dimension 3 et B = (e1 , e2 , e3 ) une base de E . Soit f l’endomorphisme de E dont la
matrice dans la base B est égale à
1 2 1
A = MatB ( f ) = 2 3 1 .
1 1 0
On se propose de déterminer le noyau de f et l’image de f .
Les éléments x de E sont des combinaisons linéaires de e1 , e2 et e3 : x = x 1 e1 + x 2 e2 + x 3 e3 . On a
0
x ∈ Ker f ⇐⇒ f (x) = 0 E ⇐⇒ MatB f (x) = 0
0
0 x1 0
⇐⇒ AX = 0 ⇐⇒ A x 2 = 0
0 x3 0
1x + 2x 2 + x 3 = 0
⇐⇒ 2x 1 + 3x 2 + x 3 = 0
x1 + x2 = 0
Définition 16.
Soit B une base de E . Soit B ′ une autre base de E .
On appelle matrice de passage de la base B vers la base B ′ , et on note PB,B ′ , la matrice carrée de taille n × n dont
la j -ème colonne est formée des coordonnées du j -ème vecteur de la base B ′ , par rapport à la base B .
On résume en :
La matrice de passage PB,B ′ contient - en colonnes - les coordonnées des vecteurs de la nouvelle
base B ′ exprimés dans l’ancienne base B .
Page 43/56
MPSI M a tr i ce s
On va interpréter une matrice de passage comme la matrice associée à l’application identité de E par rapport à des bases
bien choisies.
Proposition 14.
La matrice de passage PB,B ′ de la base B vers la base B ′ est la matrice associée à l’identité id E : (E, B ′ ) → (E, B) où
E est l’espace de départ muni de la base B ′ , et E est aussi l’espace d’arrivée, mais muni de la base B :
Cette interprétation est un outil fondamental pour ce qui suit. Elle permet d’obtenir les résultats de façon très élégante et
avec un minimum de calculs.
Proposition 15.
1. La matrice de passage d’une base B vers une base B ′ est inversible et son inverse est égale à la matrice de passage
−1
de la base B ′ vers la base B : PB ′ ,B = PB,B ′
Démonstration.
1. On a PB,B ′ = MatB ′ ,B id E . Donc, d’après le théorème 10 caractérisant la matrice d’un isomorphisme, PB,B
−1
′ =
−1 −1
−1
MatB ′ ,B id E = MatB,B ′ id E . Or id E = id E , donc PB,B ′ = MatB,B ′ id E = PB ′ ,B .
−1
id E id E
(E, B ′′ ) −→ (E, B ′ ) −→ (E, B).
Autrement dit, on écrit id E = idE ◦ id E . Cette factorisation permet d’écrire l’égalité suivante : MatB ′′ ,B id E =
MatB ′ ,B id E × MatB ′′ ,B ′ id E , soit PB,B ′′ = PB,B ′ × PB ′ ,B ′′ .
Exemple 33.
Soit E = R3 muni de sa base canonique B . Définissons
1 0 3 1 0 0
B1 = 1 , −1 , 2 et B2 = −1 , 1 , 0 .
0 0 −1 0 0 −1
Quelle est la matrice de passage de B1 vers B2 ?
Page 44/56
MPSI M a tr i ce s
On a d’abord
1 0 3 1 0 0
PB,B1 = 1 −1 2 et PB,B2 = −1 1 0 .
0 0 −1 0 0 −1
La proposition 15 implique que PB,B2 = PB,B1 × PB1 ,B2 . Donc on a PB1 ,B2 = PB,B
−1
1
× PB,B2 . En appliquant l’algorithme
−1
de Gauss-Jordan pour calculer PB,B1 , on trouve alors :
−1
1 0 3 1 0 0
PB ,B = 1 −1 2 × −1 1 0
1 2
0 0 −1 0 0 −1
1 0 3 1 0 0 1 0 −3
= 1 −1 1 × −1 1 0 = 2 −1 −1 .
0 0 −1 0 0 −1 0 0 1
Nous allons maintenant étudier l’effet d’un changement de bases sur les coordonnées d’un vecteur.
• Soient B = (e1 , e2 , . . . , en ) et B ′ = (e1′ , e2′ , . . . , en′ ) deux bases d’un même K-espace vectoriel E .
• Soit PB,B ′ la matrice de passage de la base B vers la base B ′ .
x1 !
Pn x2
• Pour x ∈ E , il se décompose en x = i=1 x i ei dans la base B et on note X = MatB (x) = .. .
.
xn
Bx ′
1
Pn x 2′
• Ce même x ∈ E se décompose en x = ′ ′
i=1 x i ei dans la base B et on note X = MatB ′ (x) = . .
′ ′
..
′
xn B′
Proposition 16.
X = PB,B ′ ×X ′
Démonstration. PB,B ′ est la matrice de id E : (E, B ′ ) → (E, B). On utilise que x = id E (x) et la proposition 13. On a :
X = MatB (x) = MatB id E (x) = MatB ′ ,B (id E ) × MatB ′ (x) = PB,B ′ ×X ′
Corollaire 4.
Si A = (x 1 , · · · , x p ) est une famille de vecteurs de E et si on note A = MatB (A ) et B = MatB ′ (A ) alors :
A = PB,B ′ B
Remarque.
Si on effectue des opérations élémentaires sur les lignes d’une matrice son rang ne change pas car les deux matrices
équivalentes par lignes sont les matrices de la même famille A exprimée dans des bases différentes.
Page 45/56
MPSI M a tr i ce s
B = Q−1 AP
Remarque.
Si C = MatBE′ ,BF ( f ) et D = MatBE ,BF′ ( f ), alors :
C = AP; D = Q−1 A
Dans le cas particulier d’un endomorphisme, nous obtenons une formule plus simple :
• Soit f : E → E une application linéaire.
• Soient B , B ′ deux bases de E .
• Soit P = PB,B ′ la matrice de passage de B à B ′ .
• Soit A = MatB ( f ) la matrice de l’application linéaire f dans la base B .
• Soit B = MatB ′ ( f ) la matrice de l’application linéaire f dans la base B ′ .
Le théorème 11 devient alors :
Corollaire 5.
B = P −1 AP
Exemple 34.
Reprenons les deux bases de R3 de l’exemple 33 :
1 0 3 1 0 0
B1 = 1 , −1 , 2 et B2 = −1 , 1 , 0 .
0 0 −1 0 0 −1
Page 46/56
MPSI M a tr i ce s
1 0 3
2. On calcule aussi P −1 = 2 −1 5 .
0 0 1
3. On applique la formule du changement de base du corollaire 5 :
1 0 3 1 0 −6 1 0 −3 1 0 0
B = P −1 AP = 2 −1 5 × −2 2 −7 × 2 −1 −1 = 0 2 0
0 0 1 0 0 3 0 0 1 0 0 3
C’est souvent l’intérêt des changements de base, se ramener à une matrice plus simple. Par exemple ici, il est facile de
calculer les puissances B k , pour en déduire les Ak .
Exercice d’application.
Soit f : R2 → R2 définie par f (x, y)
= (2x
+ y, 3x − 2 y), Soit v =
3
−4 ∈ R2 avec ses coordonnées dans la base
canonique B0 de R2 . Soit B1 = 32 , 22 une autre base de R2 .
1. Calculer la matrice de f dans la base canonique.
2. Calculer les coordonnées de f (v) dans la base canonique.
3. Calculer la matrice de passage de B0 à B1 .
4. En déduire les coordonnées de v dans la base B1 , et de f (v) dans la base B1 .
5. Calculer la matrice de f dans la base B1 .
3
Même exercice dans R3 avec f : R3 → R3 , f (x, y, z) = (x − 2 y, y − 2z, z − 2x), v = −2 ∈ R3 et B1 =
0 2 1 1
1 , 0 , 2 .
2 1 0
Définition 17.
On appelle application linéaire associée canoniquement à A, l’application linéaire f ∈ L (K p , Kn ) définie par :
n
X
∀ j ∈ ⟦1, p⟧ , f (e j ) = ai j f i
i=1
En d’autres termes, c’est l’application donnée par :
f : Kp −→ Kn
P p
x1 j=1 a1 j x j
.. ..
x = . 7−→ f (x) = A × MatB (x) =
Pp
.
xp j=1 an j x j
Exemple35.
1 2 −1
Soit A = , l’application linéaire f associée canoniquement à A est :
2 3 0
f : K3 −→ K2
x1
x 1 + 2x 2 − x 3
x = x2 7−→ f (x) =
2x 1 + 3x 2
x3
Page 47/56
MPSI M a tr i ce s
Définition 18.
On appelle noyau de la matrice A, le noyau de l’application linéaire f qui est lui associée et on le note Ker A.
Exemple 36.
On reprend la matrice de l’exemple 35, son noyau est :
x1
Ker A = x = x 2 ∈ K3 / f (x) = 0
x3
x1
x 1 + 2x 2 − x 3 = 0
= x = x 2 ∈ K3 /
2x 1 + 3x 2 = 0
x3
x1
x 3 = − 31 x 1
= x = x2 ∈ K /
3
2
x2 = − 3 x1
x3
3
= Vect −2
−1
Proposition 17.
Si g ∈ G L(Kn ) alors les applications linéaires f et g ◦ f ont même noyau.
Corollaire 6.
Deux matrices équivalente par lignes ont même noyau.
Exemple 37.
Cela nous fournit un moyen pour calculer le noyau d’une matrice en utilisant les opérations élémentaires. On reprend la
matrice A de l’exemple 35 et on applique cette méthode :
1 2 −1
A=
2 3 0
1 2 −1
L2 ← L2 − 2L1
0 −1 2
1 0 3
B= L1 ← L1 + 2L1
0 −1 2
Page 48/56
MPSI M a tr i ce s
x1
Calculons le noyau de la matrice B . Soit x = x 2 ∈ K3 , on a :
x3
x 0
3 1
1 0
x ∈ Ker B ⇔ x2 = 0
0 −1 2
x3 0
x 1 + 3x 3 = 0
⇔
−x 2 + 2x 3 = 0
x 1 = −3x 3
⇔
x 2 = 2x 3
−3 3
Donc, Ker A = Ker B = Vect 2 = Vect −2 .
1 −1
Définition 19.
• On appelle image de la matrice A, l’image de l’application f associée canoniquement à A et on la note Im(A).
• On appelle rang de la matrice A, le rang de l’application f associée canoniquement à A et on la note rg(A).
Exemple 38.
On reprend la matrice A de l’exemple 35.
• Image de A :
Im(A) = Vect f (e1 ), f (e2 ), f (e3 )
1 2 −1
= Vect , ,
2 3 0
0 1 −1
= Vect , ,
2 3 0
0 1 1
= Vect , ,
1 3 0
0 1
= Vect ,
1 0
= K2
• Rang de A :
rg(A) = dimK2 = 2
Proposition 18.
Si g ∈ G L(K p ) alors les applications linéaires f et f ◦ g ont même image.
Démonstration. Soit x ∈ K p , comme g est bijective alors g transforme la base B de K p en une base de K p . Il en résulte
que :
Im( f ) = Im( f ◦ g)
Corollaire 7.
Deux matrices équivalente par colonne ont même image.
Page 49/56
MPSI M a tr i ce s
• Pour obtenir une matrice B équivalente par colonnes, on effectue des opérations élémentaires sur les colonnes de la
matrice de départ A
• Ces opérations élémentaires se traduisent par un produit matriciel du côté droit la matrice de départ fois les matrices
correspondantes à ces opérations élémentaires qui sont inversibles d’après les formules d’inversion (1)
• L’application g associée canoniquement au produit des matrices correspondantes à ces opérations élémentaires est un
isomorphisme de K p (puisque le produit est une matrice inversible et d’après le théorème 10)
• L’application f associée canoniquement à A et l’application f ◦ g associée canoniquement à B ont même noyau d’après
le corollaire 7
Exemple 39.
Cela nous fournit un moyen pour calculer l’image d’une matrice en utilisant les opérations élémentaires. On reprend la
matrice A de l’exemple 35 et on applique cette méthode :
1 2 −1
A=
2 3 0
1 0 −1
C2 ← C2 − 2C1
2 −1 0
1 0 1 C2 ← −C2
B=
2 1 0 C3 ← −C3
D’où,
0 1
Im(A) = Vect , = K2 , rg(A) = 2
1 0
Définition 20.
• Deux matrices A, B ∈ Mn,p (K) sont dites équivalent (ou que A est équivalente à B ) s’il existe deux matrices
P ∈ Mn (K) et Q ∈ M p (K) inversibles telles que : B = PAQ.
• Deux matrices carrées A, B ∈ Mn (K) sont dites semblables (ou que A est semblable à B ) s’il existe une matrice
inversible P ∈ Mn (K) telle que B = P −1 AP .
Remarque.
La relation « être semblable » est un cas particulier de la relation « être équivalent »
C’est un bon exercice de montrer que les relations « être équivalent » et « être semblable » sont des relations d’équivalence :
Proposition 19.
• La relation est réflexive : une matrice A est semblable à elle-même.
• La relation est symétrique : si A est semblable à B , alors B est semblable à A.
• La relation est transitive : si A est semblable à B , et B est semblable à C , alors A est semblable à C .
Corollaire 8.
Deux matrices équivalentes représentent la même application linéaire, mais exprimée dans des bases différentes.
Corollaire 9.
Deux matrices semblables représentent le même endomorphisme, mais exprimé dans des bases différentes.
Corollaire 10.
Deux matrices équivalentes sont de même rang.
Page 50/56
MPSI M a tr i ce s
Proposition 20.
Soient A ∈ Mn,p (K) et r ∈ ⟦0, min(n, p)⟧. Si rg(A) = r alors A équivalente à la matrice :
Ir 0 r,p−r a
J r (n, p) =
0n−r,r 0n−r,p−r
Corollaire 11.
Une matrice et sa transposée ont même rang.
Exercice 13. 2
Soit M ∈ Mn (K) telle que : ∀X ∈ Mn (K), X M = 0. Montrer que M = 0.
Réponse.
On pourra raisonner en remplaçant X par les matrices Ekl de la base canonique de Mn (K).
Exercice14.
2 2 1
Soit A = 1 3 1.
1 2 2
1 0 0
1. (a) Montrer qu’il existe P ∈ G L3 (R) telles que : P −1 AP = 0 1 0 .
0 0 5
(b) Calculer la matrice P −1 .
(c) Soit n ∈ N∗ . En Déterminer l’expression de An en fonction de n.
x = 2x + 2 y + z
′
3. Déterminer l’expression en fonction de n des termes généraux des suites définies par :
x 0 , y0 , z0 ∈ R
x n+1 = 2x n + 2 yn + zn
yn+1 = x n + 3 yn + zn
zn+1 = x n + 2 yn + 2zn
Exercice 15.
1 0 0 0 0 0
Mêmes questions que l’exercice précédent avec la matrice B = 1 1 1 qui est semblable à la matrice 0 1 0 .
1 1 1 0 0 2
Exercice 16.
En rapport avec les deux exercices précédents, réaliser un programme Python qui permet de :
• calculer la matrice de passage P en connaissant la matrice P −1 AP
Page 51/56
MPSI M a tr i ce s
Exercice 17.
Soit f : R2 [X ] −→ 2 [X ]
R .
P ′′ (0) P ′′ (0)
P 7−→ 3P(0) − P ′ (0) + 2 + 2P(0) + 2 X + (P(0) − P ′ (0) + P ′′ (0)) X 2
1. Justifier que f ∈ L (R2 [X ]) et donner sa matrice A dans la base canonique e de R2 [X ].
1 0 0
2. Montrer que A est semblable à la matrice B = 0 2 1.
0 0 2
3. Montrer que A ∈ GLn (K) et calculer A−1 .
4. Soit n ∈ N. Calculer An . En déduire eA.
5. Déterminer l’expression en fonction de n des termes généraux des suites définies par :
x n+1 = 3x n − yn + zn
yn+1 = 2x n + zn et x 0 , y0 , z0 donnés
zn+1 = x n − yn + 2zn
Réponse.
1. La vérification du fait que f ∈ L (R2 [X ]) ne pose aucun problème et passant à la matrice de f dans la base
canonique en détails, on a
f (e1 = 1) = 3 + 2X + X
2
f (e2 = X ) = −1 − X 2
f (e3 = X 2 ) = 1 + X + 2X 2
donc
3 −1 1
A = mate ( f ) = 2 0 1
1 −1 2
2. Cela revient à trouver une base e = ′
de R2 [X ] telle que B = mate′ ( f ). Si on note X 1 = mate (e1′ ) =
e1′ , e2′ , e3′
α1 α2 α3
β1 , X 2 = mate (e′ ) = β2 , X 3 = mate (e′ ) = β3 , alors le problème revient à trouver X 1 , X 2 , X 3 telles
2 3
γ1 γ2 γ3
que :
AX 1 = X 1 , AX 2 = 2X 2 , AX 3 = X 2 + 2X 3
☛ On a :
3α1 − β1 + γ1 = α1
AX 1 = X 1 ⇔ 2α1 + γ1 = β1
α1 − β1 + 2γ1 = γ1
α1 = 0
⇔
γ1 = β1
Le vecteur e1′ = X + X 2 convient alors.
Page 52/56
MPSI M a tr i ce s
☛ On a :
3α2 − β2 + γ2 = 2α2
AX 2 = 2X 2 ⇔ 2α2 + γ2 = 2β2
α2 − β2 + 2γ2 = 2γ2
β2 = α2
⇔
γ2 = 0
Le vecteur e2′ = 1 + X convient alors.
☛ On a :
3α3 − β3 + γ3 = 1 + 2α3
AX 2 = X 2 + 2X 3 ⇔ 2α3 + γ3 = 1 + 2β3
α3 − β3 + 2γ3 = 2γ3
β3 = α3
⇔
γ3 = 1
Le vecteur e2′ = X 2 convient alors.
Le problème posé admet au moins une solution e′ = e1′ , e2′ , e3′ , donc les matrices A et B sont semblables
puisqu’elles sont les matrices du même endomorphisme f dans les bases e et e′ .
Si on veut vérifier ce résultat, on peut le faire en considérant les matrices de passage
0 1 0 −1 1 0
′
P = P e = 1 1 0 , P −1 = P e′ = 1
e e
0 0
1 0 1 1 −1 1
et en faisant le calcul
P −1 AP = B
3. La matrice B étant une matrice triangulaire supérieure dont les coefficients diagonaux sont tous non nuls, elle
est inversible. Il s’en suit que A l’est aussi (puisque A et B sont semblables).
Utilisons l’algorithme de Gauss-Jordan pour calculer B −1 :
1 0 0 1 0 0
0 2 1 0 1 0
0 0 2 0 0 1
L2 ← 1/2L2
← 1/2L
L3 3
1 0 0 1 0 0
0 1 1 0 1 0
2 2
1
0 0 1 0 0 2
L2 ←
L2 −
1/2L3
1 0 0 1 0 0
0 1 0 0 21 − 14
1
0 0 1 0 0 2
1 0 0
1
D’où B −1 = 0 2 − 41 et par suite
1
0 0 2
1 1 −1
1
A−1 = P B −1 P −1 = −3 5 −1
4
−2 2 2
1 0 0 0 0 0
4. Soit n ∈ N. On a B = 0 2 0 + 0 0 1 avec DN = N D et N 2 = (0)3 , donc on peut utiliser la formule
0 0 2 0 0 0
| {z } | {z }
=D =N
Page 53/56
MPSI M a tr i ce s
yn = −1 + 2 (2 + n) x 0 + 1 − n2n−1 y0 + n2n−1 z0
n−1
zn = (2n − 1) x 0 + (−2n + 1) y0 + 2n z0
3x − y + z = 1
2
L3 + L2 −→ L3 y + 13 z = 31
3
2z = 1
x = 1/4
⇔ y = 1/4
z = 1/2
Remarque.
Soit f un endomorphisme d’un K-espace vectoriel E de dimension n.
1. Si λ ∈ K tel qu’il existe x ∈ E ∖ {0 E } vérifiant f (x) = λx , λ s’appelle valeur propre de f et x un vecteur propre
de f associé à λ. Pour notre exercice les vecteurs e1′ , e2′ , e3′ sont des vecteurs propres associés aux valeurs propres
Page 54/56
MPSI M a tr i ce s
1, 2, 2.
2. On remarque que tous les vecteurs de la droite vectorielle Vect(x) privée de 0 E sont des vecteurs propres associés
à λ, donc il y a une infinité de vecteurs qui sont associés à λ. C’est pourquoi dans notre recherche des vecteurs
e1′ , e2′ , e3′ on a trouvé une infinité de solutions.
3. Dans notre exercice on remarque que la famille trouvée e′ est libre, c’est pourquoi on l’a adaptée comme solution.
Au fait c’est un résultat général, soient λ1 , · · · , λ r des valeurs propres distinctes de f , Ek = {x ∈ E/ f (x) = λk x}
( Ek est un sous-espace vectoriel de E et s’appelle le sous-espace propre associé à λk ) et (x 1(k) , · · · , x n(k)
k
) une base
Pr (k) (k)
de Ek tels que k=1 nk = n. Alors la famille (x l )1⩽k⩽r,1⩽l⩽nk est une base de E , en effet soit (αl )1⩽k⩽r,1⩽l⩽nk une
famille de scalaires telle que :
(k) (k)
X
αl x l = 0 E (∗)
1⩽k⩽r,1⩽l⩽nk
Qr
Pour i ∈ ⟦1, r⟧, on note f i = k=1,k̸=i ( f −λk id E ) (attention ! ce n’est pas un vrai produit mais c’est une composition).
Si on compose par f i dans (∗) alors :
r
n
i
(i) (i)
Y X
(λi − λk ) αl x l = 0 E
k=1,k̸=i l=1
(k)
D’où la famille (x l )1⩽k⩽r,1⩽l⩽nk
est libre et puisqu’elle est de cardinal n alors elle forme une base de E .
4. Dans le cas où la matrice de f est semblable à une matrice diagonale, on dit que f est diagonalisable (on dit la
même chose à propos de sa matrice), dans ce cas on peut trouver une base de E formée par les vecteurs propres de
f (c’est le cas abordé en 3)). Sinon, on peut essayer de compléter une famille maximale de vecteurs propres de f
par d’autres vecteurs afin d’avoir une base de E et dans ce cas, on dit que f est trigonalisable (on dit la même
chose à propos de sa matrice).
Exercice 18.
−1 2i
1. Prouver que la matrice A = est semblable à une matrice diagonale.
−2i 2
2. En déduire l’expression de An où n ∈ N∗ .
Réponse.
1. On considèrel’endomorphisme
f ∈ L (C2 ) associé canoniquement à A. La réponse revient à trouver deux
x
vecteurs ei = i et deux scalaires αi ∈ C (i ∈ {1, 2}) tels que f (ei ) = αi ei . On a :
yi
(1 + αi )x + 2i y = 0
f (ei ) = αi ei ⇔
2i x + (αi − 2) y = 0
Comme ei sont des vecteurs propres de f alors ce système linéaire admet une infinité de solutions. Il en résulte
1+α
que ces deux équations sont proportionnelles, donc 2i i = αi2i−2 , on en déduit que les αi vérifient l’équation du
second degré θ 2 − θ − 4 = 0. D’où, α1 = −2 et α2 = 3. Si on revient à notre système linéaire pour α1 , il est
équivalent à :
−x + 2i y = 0
⇔ x = 2i y
2i x − 4 y = 0
donc le vecteur e1 = 2i1 convient. De même pour α2 , on trouve que levecteur e2 = 2i1
Ainsi, après vérification A est semblable à la matrice diagonale B = −2
0 3 ou encore B = P AP avec P = 1 2i .
0 −1 2i 1
Page 55/56
MPSI M a tr i ce s
Exercice 19.
0 1 0 0 0
0 0 1 0 0
Montrer que la matrice A =
0 0 0 1 0 est semblable à une matrice diagonale D ∈ M (C) (on dit alors que
5
0 0 0 0 1
1 0 0 0 0
A est diagonalisable sur C) que l’on explicitera, et en déduire eA.
Page 56/56