Cours MATH
Cours MATH
2020/21
Algèbre Linéaire
Licence L2 - sces éco
2 Matrices 11
2.1 Définition des matrices m × n . . . . . . . . . . . . . . . . . . . . . 11
2.2 Combinaison linéaires de matrices . . . . . . . . . . . . . . . . . . . 12
2.2.1 Addition des matrices . . . . . . . . . . . . . . . . . . . . . 12
2.2.2 Multiplication par un scalaire . . . . . . . . . . . . . . . . . 12
2.2.3 Combinaisons linéaires de matrices . . . . . . . . . . . . . . 13
2.3 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 13
2.4 Multiplication de matrices . . . . . . . . . . . . . . . . . . . . . . . 14
2.4.1 Multiplication d’un vecteur ligne et d’un vecteur colonne . . 14
2.4.2 Multiplication de deux matrices . . . . . . . . . . . . . . . . 14
2.4.3 Multiplication d’une matrice et d’un vecteur . . . . . . . . . 16
2.5 Propriétés de la multiplication des matrices . . . . . . . . . . . . . . 18
2.6 Noyau et image d’une matrice . . . . . . . . . . . . . . . . . . . . . 19
2.7 Matrices carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.7.1 Matrice identité . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.7.2 Matrices diagonales . . . . . . . . . . . . . . . . . . . . . . . 20
2.7.3 Matrices triangulaires . . . . . . . . . . . . . . . . . . . . . . 20
2.7.4 Inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . 21
1
3 Système d’équations linéaires 23
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.1.1 Système d’équation linéaires à deux inconnues . . . . . . . . 23
3.1.2 Système d’équations linéaires à trois inconnues . . . . . . . . 24
3.1.3 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2 Formes vectorielles et matricielles d’un système linéaire . . . . . . . 27
3.3 SEV de Rn et systèmes d’équations linéaires à n inconnues . . . . . 28
3.4 Équation d’une droite et d’un plan dans R3 . . . . . . . . . . . . . . 28
3.4.1 Équation d’un plan . . . . . . . . . . . . . . . . . . . . . . . 28
3.4.2 Équation d’une droite . . . . . . . . . . . . . . . . . . . . . 30
3.5 Résolution d’un système linéaire par la méthode du pivot de Gauss 30
3.5.1 La méthode par substitution . . . . . . . . . . . . . . . . . . 31
3.5.2 La méthode par élimination . . . . . . . . . . . . . . . . . . 31
3.5.3 La méthode du pivot . . . . . . . . . . . . . . . . . . . . . . 33
3.6 Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.6.1 Système d’équations linéaires à deux inconnues . . . . . . . 35
3.6.2 Système d’équations linéaires à trois inconnues . . . . . . . . 38
3.6.3 Système d’équations linéaires à quatre inconnues . . . . . . . 41
3.7 Détermination de l’inversibilité et calcul de l’inverse : . . . . . . . . 42
2
5.5 Méthode pour diagonaliser une matrice A . . . . . . . . . . . . . . 59
5.6 Méthode pour diagonaliser une matrice 2 × 2 . . . . . . . . . . . . . 60
5.7 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.7.1 Exemple 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
5.7.2 Exemple 2. . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
5.7.3 Exemple 3. . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
5.7.4 Exemple 4. . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5.7.5 Exemple 5. . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
3
1 Vecteurs
1.1 Rn
x1
Pour n ≥ 1, Rn est l’ensemble des vecteurs colonnes X = ... , où x1 , x2 , . . . , xn
xn
0
..
sont n nombres réels. On notera le vecteur . simplement par 0.
0
Exemples :
— R est l’ensemble des vecteurs de la forme X = x1 . Ces vecteurs sont
simplement les nombres réels (un vecteur avec une seule composante est un
nombre).
2 x1
— R est l’ensemble des vecteurs de la forme X = . Par exemple le
x 2
2
vecteur 3 est un vecteur de R2 .
2
x1
— R3 est l’ensemble des vecteurs de la forme X = x2 . Par exemple le
x3
1
vecteur 2 est un vecteur de R3 .
−7
Addition de deux vecteurs X et Y de Rn .
Le résultat est un vecteur de Rn , noté X + Y , et on a :
x1 y1 x1 + y 1
X + Y = ... + ... = ...
xn yn xn + y n
4
Exemples :
1 3
— La somme des vecteurs X = 2 et Y = −5 est
−7 0
1 3 4
X +Y = 2 + −5 = −3 .
−7 0 −7
1
— Le produit de X = 2 par λ = 2 est
−7
2×1 2
2X = 2 × 2 = 4 .
2 × (−7) −14
où {λ1 , . . . , λp } est une famille de p nombres réels. Ces p nombres réels sont appelés
les coefficients de cette combinaison linéaire.
1
Exemple : un exemple de combinaison linéaire des vecteurs X = 2 et
−7
3
Y = −5 est
0
1 3 −7
2X − 3Y = 2 2 − 3 −5 = 19 .
−7 0 −14
2. Une famille se distingue d’une suite par le fait que l’ordre des termes ne compte pas. On
utilise alors la notation {a, b, ...} et non (a, b, ...).
5
x1
Remarque : pour tout vecteur X = ... ∈ Rn on a que
xn
1 0 0
0 1 0
X = x1 0 + x2 0 + · · · + xn ... .
.. ..
. . 0
0 0 1
— 0 ∈ E,
— Si X ∈ E et λ ∈ R, alors λX ∈ E,
— Si X ∈ E et si Y ∈ E, alors X + Y ∈ E.
Exemples :
— Rn est un SEV de Rn .
x1
— L’ensemble E = ∈ R x1 + x2 = 0 est un SEV de R2 . En effet,
2
x 2
0
• 0= ∈ E car 0 + 0 = 0 ;
0
6
x1 λx1
• si X = ∈ E, alors λX = et λx1 + λx2 = λ(x1 + x2 ) = 0,
x2 λx2
car x1 +x2 = 0 par hypothèse,
donc λX ∈ E ;
x1 y1 x1 + y1
• si X = ∈ E et si y = ∈ E, alors X + Y = ∈ E et
x2 y2 x2 + y2
(x1 + y1 ) + (x2 + y2 ) = (x1 + y1 ) + (x2 + y2 ) = 0 + 0 = 0, donc X + Y ∈ E.
Remarques :
Exemples :
−1 3 3 −1
— Les vecteurs et sont colinéaires car = −3 (ou
2 −6
−6 2
−1 3
parce que = − 13 ).
2 −6
7
−1 3
— Les vecteurs et ne sont pas colinéaires car on ne peut pas
2 −5
3 −1 −1 3
trouver λ ∈ R tel que =λ ou tel que =λ .
−5 2 2 −5
Remarques :
— Si X = 0 (ou si Y = 0), alors X et Y sont colinéaires (il suffit de prendre
λ = 0) ;
— Pour vérifier que X et Y sont colinéaires, il faut montrer qu’il existe deux
réels a et b, tels que a ou b est différent de 0 et tels que aX + bY = 0. Si ce
n’est pas possible (car aX + bY ⇒ a = b = 0) alors X et Y ne sont pas
colinéaires.
Exemple :
3 3
— Vect est la droite vectorielle de R2 de vecteur directeur ;
4
4
1 1
3
— Vect −2 est la droite vectorielle de R de vecteur directeur −2.
1 1
2 1
Remarque : −4 est aussi un vecteur directeur de Vect −2 .
2 1
(c) Plan vectoriel : On appelle plan vectoriel un SEV engendré par deux vec-
teurs non colinéaires.
Exemple :
1 1
— Vect −2 , 1 est un plan vectoriel de R3 car les deux vecteurs
1 0
1 1
−2 et 1 ne sont pas colinéaires ;
1 0
8
3 1
— E = Vect 3 , 1 n’est pas un plan vectoriel de R3 car les deux
0 0
3 1
vecteurs 3 et 1 sont colinéaires. Dans ce cas,
0 0
3 1 1
E = Vect 3 , 1
= Vect 1
0 0 0
1
3
et E est la droite vectorielle de R de vecteur directeur 1.
0
Exemples :
3
— La droite vectorielle ∆ d’équation 2x − 3y = 0 est Vect .
2
x 2 x
En effet, si X = ∈ ∆ alors 2x − 3y = 0, y = 3 x et donc X = =
y y
x 3 3
3
∈ Vect .
2 2
x 3
Réciproquement, si X = ∈ Vect , alors il existe λ ∈ R tel que
y 2
x 3
=λ et donc x = 3λ, y = 2λ et 2x − 3y = 6λ − 6λ = 0, ce qui
y 2
montre que X ∈ ∆.
2
—
La droite
vectorielle deR d’équation
2x+y = 0 est engendrée par le vecteur
1 −2
(ou le vecteur ).
−2 4
9
Dans R2 , il n’y a qu’un seul plan vectoriel, R2 (le plan) tout entier. Il n’y pas
alors à parler d’équation de ce plan.
(b) Équation d’un plan vectoriel dans R3 : Dans R3 , l’équation d’un plan
vectoriel est une équation de la forme ax + by + cz = 0 (avec a, b ou c non nul).
Par exemple si a 6= 0 on a alors l’égalité suivante :
x −b −c
X = y ax + by + cz = 0 = Vect a , 0 .
z 0 a
(c) Équation d’une droite vectorielle dans R3 : Dans R3 , une droite vecto-
rielle peut être vue comme l’intersection de deux plans vectoriels. L’équation d’une
droite vectorielle est donc donnée par les équations de deux plans vectoriels.
1
Exemple : La droite vectorielle de R3 de vecteur directeur −2 est l’inter-
1
section des deux plans vectoriels d’équations 2x1 + x2 = 0 et x1 + x2 + x3 = 0.
1.4 R[n]
Au lieu de considérer des vecteurs colonnes (suite finie de nombres écrits en
colonne), on peut également considérer des vecteurs lignes. Ainsi, pour n ≥ 1, on
désigne par R[n] l’ensemble des vecteurs lignes X = x1 . . . xn , où x1 , x2 , ... ,
xn sont n nombres réels. L’addition de vecteurs de R[n] et la multiplication par un
scalaire se font comme pour les vecteurs colonnes.
10
Exemple : Considérons X = 1 0 −1 et Y = 0 2 3 deux vecteurs lignes
de R[3] . Alors X + 2Y = 1 4 5 .
Dans la suite, si ce n’est pas précisé les vecteurs seront toujours des vecteurs
colonnes.
2 Matrices
2.1 Définition des matrices m × n
Une matrice m×n est un tableau A de nombres réels à m lignes et n colonnes :
a11 a12 . . . a1n
a21 a22 . . . a2n
A = ..
.. .. ..
. . . .
am1 am2 . . . amn
11
avec
L1 = (a11 a12 . . . a1n ),
..
.
Li = (ai1 ai2 . . . ain ),
..
.
Lm = (am1 am2 . . . amn ).
Ici, L1 , L2 , ..., Lm ∈ R[n] sont les m vecteurs lignes (de taille n) donnés par les
lignes de A.
L’ensemble des matrices de taille m × n sera noté Mm,n (R).
Exemple : les vecteurs colonnes (resp. lignes) de A + B sont les sommes des
vecteurs colonnes (resp. lignes) de A et de B. Ainsi, on a
(C1 C2 · · · Cn ) + (D1 D2 · · · Dn ) = (C1 + D1 C2 + D2 · · · Cn + Dn )
où C1 , . . . , Dn ∈ Rm .
12
2.2.3 Combinaisons linéaires de matrices
Si A1 , . . . , Ap sont p matrices de même taille (elles ont toutes le même nombre
de lignes et le même nombre de colonnes) et si λ1 , . . . , λp sont p scalaires, on peut
définir la matrice A = λ1 A1 + · · · + λp Ap , qui est une combinaison linéaire des
matrices A1 , . . . , Ap .
2 3 1 0
Exemple : Si A1 = , A2 = , λ1 = 2 et λ2 = −1, alors
1 31 3 2
2×2 2×3 −1 × 1 −1 × 0 3 6
A = λ1 A1 + λ2 A2 = + = .
2 × 1 2 × 13 −1 × 3 −1 × 2 −1 − 43
(AT )T = A,
(A + B)T = AT + B T ,
(λA)T = λAT .
x1
Remarque : Si C = ... est un vecteur (colonne), alors on peut voir C
xm
comme une matrice m × 1 et donc la transposée du vecteur est C T = x1 · · · xm ,
qui est un vecteur ligne (et donc une matrice 1 × m).
13
2.4 Multiplication de matrices
2.4.1 Multiplication d’un vecteur ligne et d’un vecteur colonne
c1
[n] ..
Soit n ≥ 1, L = l1 · · · ln ∈ R un vecteur ligne de taille n et C = . ∈
cn
n
R un vecteur colonne de taille n. Alors on définit leur produit LC comme le
nombre réel
LC = l1 c1 + l2 c2 + · · · + ln cn .
Exemples :
−1
— Soit L = 1 2 et C = (n = 2). On a
3
−1
LC = 1 2 = 1 × (−1) + 2 × 3 = 5
3
3
— Soit L = −1 0 3 et C = 5 (n = 3). On a
1
3
LC = −1 0 3 5 = (−1) × 3 + 0 × 5 + 3 × 1 = 0
1
14
Si A est une matrice `×m et B est une matrice m×n, alors le produit P = AB
est bien défini et P est la matrice ` × n dont les coefficients pij s’obtiennent en
effectuant le produit de la i-ème ligne de A avec la j-ème colonne de B, c’est à
dire :
b
1j
pij = ai1 ai2 . . . aim ...
bmj
et donc m
X
pij = aik bkj .
k=1
On a bien :
1
3 4 −6 4 = 3 × 1 + 4 × 4 + (−6) × 3 = 1 .
3
L`
C1 , . . . , Cn , n vecteurs colonnes de Rm . Alors le produit P = AB est la matrice
de taille ` × n définie par pij = Li Cj .
3 0 −1
1 2 3
Exemple 2.2. Considérons A = et B = 0 −1 −1. On pose
0 5 −1
2 2 −1
3 0 −1
L1 = 1 2 3 , L2 = 0 5 −1 , C1 = 0 , C2 = −1 et C3 = −1. On
2 2 −1
obtient
L1 L1 C1 L1 C2 L1 C3 9 4 −6
AB = C1 C2 C3 = =
L2 L2 C1 L2 C2 L2 C3 −2 −7 −4
15
Remarques :
— Si une matrice ligne L et si une matrice colonne C sont de même taille
(même nombre de coefficients), alors leur produit LC existe et est un nombre
réel : c’est tout simplement le produit LC vu comme produit d’un vecteur
ligne et d’un vecteur colonne !
— Le produit CL d’une matrice colonne C et d’une matrice ligne L existe
quelque soient leurs tailles : en général c’est une matrice qui n’est ni un
scalaire, ni une matrice ligne, ni une matrice colonne.
— Si A est une matrice ` × m et B est une matrice m × n, alors
(AB)T = B T AT .
AB 6= BA.
−3
Exemple 2.3. Soient A = et B = 1 2 −1 . Le produit BA n’existe pas,
2
−3 −6 3
mais AB = .
2 4 −2
AX = x1 C1 + · · · + xn Cn .
16
Exemples :
1 2 1 2
2
— Soit A = 3 0 et X =
. On pose C1 = 3 et C2 = 0 (de
1 3 1
1 3 1 3
telle sorte que A = (C1 C2 )). Alors
2 6 8
AX = 2C1 + 3C2 = 6 + 0 = 6 .
2 1 3
1
— Soit A = (C1 C2 C3 ) une matrice m × 3 et X = 0. Alors AX = C1 .
0
Remarques :
— Les colonnes d’un produit AB sont des combinaisons linéaires des colonnes
de A, les coefficients de ces combinaisons linéaires étant donnés par les
colonnes de B.
— Les lignes d’un produit AB sont des combinaisons linéaires des lignes de B,
les coefficients de ces combinaisons linéaires étant donnés par les lignes de
A.
Exemple 2.4. Pour les matrices de l’exemple 2.1, la première colonne du produit
de matrice est
2 0 −1 2
1 = 1 × 3 + 4 × 4 + 3 × −6
−2 1 0 −1
17
2.5 Propriétés de la multiplication des matrices
Remarque la plus importante de cette section : la multiplication des
matrices n’est pas commutative. Lorsque le produit AB est défini, le produit
BA n’est pas nécessairement défini ; lorsque BA est aussi défini, il n’est pas néces-
sairement de même taille que AB. Les produits AB et BA ne sont définis et de
même taille que si les matrices A et B sont carrées et de même taille. Même dans
ce cas, ces deux produits ne sont pas égaux en général : Par exemple
0 1 0 0 0 1 0 0
A= et B = donnent AB = , mais BA = .
0 0 0 1 0 0 0 0
Proposition 2.6. La multiplication des matrices est associative, et elle est distri-
butive à droite et à gauche par rapport à l’addition : pour toutes A et A0 matrices
m × n, B et B 0 matrices n × p, et C matrice p × q, on a :
(AB)C = A(BC), A(B + B 0 ) = AB + AB 0 et (A + A0 )B = AB + A0 B .
Démonstration. Nous ne montrons que l’associativité (et laissons celle de la dis-
tributivité en exercice).
18
Exercice : vérifier l’associativité pour
2 0
1
A= , B = 1 0 1 et C = 1 1 .
2
0 1
19
2.7 Matrices carrées
Une matrice carrée est une matrice ayant le même nombre de lignes et de
colonnes. Ainsi, une matrice carrée à n lignes est une matrice n × n.
AIn = In A = A.
20
Remarques :
— Le produit de deux matrices du même type (diagonales ou triangulaires
supérieures) est encore du même type ;
— La transposée d’une matrice triangulaire supérieure est triangulaire infé-
rieure (et réciproquement) ;
— Les matrices diagonales commutent entre elles : pour toutes matrices dia-
gonales D et D0 , on a DD0 = D0 D.
et donc C = B.
On dit que A est inversible s’il existe un inverse de A. Dans ce cas, on note
A−1 l’inverse de A.
Remarques :
0 1
— Les matrices carrées ne sont pas toutes inversibles : la matrice A =
0 0
a b
n’est pas inversible car, en la multipliant par une matrice B = quel-
c d
c d 1 0
conque, on obtient que AB = ne peut pas valoir I2 = .
0 0 0 1
— Plus généralement, si la ligne i de A est nulle alors la ligne i de AB l’est
aussi, et A n’est pas inversible.
— Notons que si A est inversible, il est alors immédiat que A−1 est inversible,
d’inverse A (c’est-à-dire (A−1 )−1 = A).
— En pratique, pour montrer qu’une matrice B de la même taille que A est
bien l’inverse de A, il suffit de vérifier que AB = In ou BA = In . Car la
proposition suivante montre que si BA vaut l’identité alors AB aussi, et
réciproquement, si AB vaut l’identité alors BA aussi (attention c’est faux
si A et B n’ont pas la même taille). Ce n’est pas évident a priori puisqu’en
général AB 6= BA (la multiplication des matrices n’est pas commutative).
21
Proposition 2.8. Soient A et B des matrices n×n, alors AB = In si et seulement
si BA = In .
Ce résultat est admis (la preuve s’appuie sur la notion de base de Rn qui sera
vue plus tard)
22
3 Système d’équations linéaires
3.1 Définition
3.1.1 Système d’équation linéaires à deux inconnues
Équations linéaires à deux inconnues : Une équation linéaire à deux incon-
nues x1 et x2 est une équation qui s’écrit sous la forme
23
Système d’équations linéaires à deux inconnues : Un système d’équations
linéaires à deux inconnues est la donnée de plusieurs équations
linéaires. Résoudre
x1
ce système revient à trouver l’ensemble des vecteurs X = de R2 pour lesquels
x2
chacune de ces équations est vérifiée.
— Si ces deux droites sont parallèles, l’ensemble des solutions est vide ou est
une droite (les deux droites étant alors confondues).
4. on rappelle que deux vecteurs X et Y sont dits colinéaires si il existe un scalaire λ pour
lequel on a Y = λX ou pour lequel X = λY .
5. somme d’un vecteur et d’un plan vectoriel, ce point sera détaillé plus loin.
24
— Dans le cas où a = b = c = 0, l’ensemble des solutions est vide si d 6= 0 ou
est R3 si d = 0.
— Si ces deux plans sont parallèles, l’ensemble des solutions est vide ou est un
plan (les deux plans étant alors confondus).
25
3.1.3 Cas général
Équations linéaires à n inconnues : Une équation linéaire à n inconnues x1 ,
x2 , . . . , xn est une équation qui s’écrit sous la forme
n
X
aj x j = b (6)
j=1
26
3.2 Formes vectorielles et matricielles d’un système linéaire
Considérons un système linéaire
a11 x1 + a12 x2 + · · · + a1j xj + · · · + a1n xn = y1
.. ..
. .
ai1 x1 + ai2 x2 + · · · + aij xj + · · · + ain xn = yi (S)
.. ..
. .
am1 x1 + am2 x2 + · · · + amj xj + · · · + amn xn = ym
Il est appelé système homogène 6 associé à (S) et équivaut donc à l’équation ma-
tricielle AX = 0.
6. On dit quelquefois également sans second membre
27
3.3 SEV de Rn et systèmes d’équations linéaires à n incon-
nues
Proposition 3.1. L’ensemble des solutions de l’équation linéaire homogène à n
inconnues n
X
aj x j = 0 (9)
j=1
n
est un SEV de R .
Notons SY l’ensemble des solutions du système de m équations linéaires à n
inconnues donné par (7) et S0 l’ensemble des solutions du système homogène as-
socié donné par (8).
Remarques :
— Tout SEV de Rn peut être vu comme étant l’ensemble des solutions d’un
système d’équations linéaires à n inconnues de la forme (8).
X ∈ SY si et seulement si X − X̃ ∈ S0 .
Ainsi,
SY = X̃ + S0 = {X ∈ Rn | X = X̃ + Y avec Y ∈ S0 }.
28
seule équation non nulle 8 avec second membre d : ax + by + cz = d.
29
3.4.2 Équation d’une droite
De même, dans R3 , une droite est donnée par un système à deux équations
(non liées) avec second membre. Si le second membre vaut 0, alors c’est une droite
vectorielle.
Une droite D est également décrite par la donnée d’un vecteur X̃ ∈ D de la droite
et de la droite vectorielle parallèle. Ainsi, l’ensemble
x1
3
X = x2 ∈ R x1 − x3 = −2 et x2 + x3 = 2
x3
−2
passant par X̃ = 2 . On dit aussi que c’est la droite de vecteur directeur
0
1
V = −1 passant par X̃.
1
Pour trouver les vecteurs X̃ et V , on exprime x1 , x2 et x3 en fonction de x3 :
x1 = −2 +x3
x2 = 2 −x3
x3 = x3
30
de deux systèmes : on dira que deux systèmes sont équivalents s’ils ont le même
ensemble de solutions.
Avant de présenter la méthode du pivot de Gauss, rappelons deux autres mé-
thodes : la méthode par substitution et la méthode par élimination. Nous ne pré-
sentons cette méthode que pour des systèmes à deux équations et deux inconnues.
Ces méthodes peuvent se généraliser pour des plus grands systèmes, mais on leur
préférera celle du pivot.
31
Exemple : reprenons le système précédent
2x1 − 3x2 = 5 (L1 )
(S)
−x1 + 2x2 = 3 (L2 )
32
3.5.3 La méthode du pivot
La méthode du pivot de Gauss consiste à remplacer le système par un système
équivalent et beaucoup plus facile à résoudre en effectuant des combinaisons li-
néaires des équations du système.
La descente :
1. — Si x1 apparaît dans la première équation, alors on utilise son coefficient
(non nul) comme pivot pour éliminer dans toutes les autres équations
(au dessous, c’est-à-dire dans les équations 2, 3, ... , m) l’inconnue x1 .
33
— Si x2 apparaît dans la deuxième équation, alors on utilise son coefficient
(non nul) comme pivot pour éliminer dans toutes les autres équations
(au dessous, c’est-à-dire dans les équations 3, ... , m) l’inconnue x2 .
34
L’ensemble des solutions : Il reste à donner l’ensemble des solutions du sys-
tème. Les inconnues xm+1 , . . . , xn peuvent être choisies librement et servir de para-
mètres. On exprime alors les variables x1 , x2 , . . . , xm en fonction des paramètres
xm+1 , . . . , xn .
Il est bien sûr possible qu’à une étape de la descente une inconnue n’apparaisse
dans aucune des équations (au dessous), on passe alors à l’inconnue suivante. Il
est aussi possible qu’à une étape de la descente, il ne reste plus d’inconnues dans
les équations (au dessous) alors soit toutes les équations restantes sont l’équation
0 = 0 et il suffit d’oublier ces équations, ou alors une des équations est 0 = a avec
a 6= 0, auquel cas le système est impossible et il n’y a aucune solution au système
(l’ensemble des solutions étant alors vide).
La méthode du pivot de Gauss permet dans tous les cas de donner une solution
particulière X̃ ∈ Rn et une famille de vecteurs F de Rn telle que l’ensemble des
solutions est S = X̃ + Vect(F), ce qui veut dire que X ∈ S si et seulement si X
peut s’écrire sous la forme X = X̃ + X0 , avec X0 ∈ Vect(F).
Nous explicitons cet algorithme sur des exemples dans la section suivante.
3.6 Exemples :
3.6.1 Système d’équations linéaires à deux inconnues
Exemple 1 : notons S1 , l’ensemble des solutions de l’équation notée (S1 )
2x1 − 3x2 = 5.
On peut exprimer x1 en fonction de x2 :
3x2 + 5
x1 =
2
et choisir x2 librement. On a alors
(3x2 + 5)/2
S1 = : x2 ∈ R .
x2
En pratique, on pourra également donner l’ensemble des solutions sous forme des
vecteurs lignes X T , et on notera également (mais de manière abusive)
S1 = {((3x2 + 5)/2, x2 ) : x2 ∈ R}.
x1
Nous voyons que X = ∈ S1 si et seulement si il existe λ ∈ R tel que
x 2
3/2 5/2 5/2
X=λ + (ici, λ = x2 ). Ainsi S1 est la droite passant par de
1 0 0
35
3/2
vecteur directeur . On pourra donc noter
1
5/2 3/2
S1 = + Vect .
0 1
Nous voyons que x1 apparaît dans la première équation L1 . On peut s’en servir de
pivot :
2x1 − 3x2 = 5
(S2 )
−x1 + 2x2 = 3
On remplace alors L2 par L1 + 2L2 (qu’on notera plus simplement L2 → L1 + 2L2 )
pour éliminer x1 dans L2 , on obtient alors :
2x1 − 3x2 = 5
(S2 ) ⇔
x2 = 11
36
La deuxième équation étant toujours vérifiée, elle peut être supprimée. On
a donc
5/2
(S3 ) ⇔ (S1 ) et l’ensemble des solutions de (S3 ) est la droite S1 = +
0
3/2
Vect .
1
La deuxième équation n’est jamais vérifiée. Il n’y a donc pas de solution. L’en-
semble des solutions de (S4 ) est vide : S4 = ∅.
Par pivot sur la première ligne (L2 → L2 − 2L1 et L3 → L3 − 3L1 , pour éliminer
x1 dans la première et la deuxième équation), (S5 ) est équivalent au système
x1 +x2 = 2
x2 = −3
x2 = −1
37
Exemple 6 : reprenons le système précédent légèrement modifié
x1 +x2 = 2
(S6 ) 2x1 +3x2 = 1
3x1 +4x2 = 6
La dernière équation est toujours vérifée, il ne reste donc que deux équations (les
deux premières). Remontons : on se sert de L2 pour éliminer x2 dans L1 . On fait
l’opération L1 → L1 − L2 et on obtient :
x1 = 5
(S6 ) ⇔
x2 = −3
5
Donc il y a une seule solution, S6 = .
−3
x2 apparaît dans la deuxième équation, on s’en sert de pivot pour éliminer x2 dans
la troisième équation (L3 → L2 + L3 ) :
x1 +x2 +x3 = 2
(S1 ) ⇔ 3x2 +2x3 = 3
3x3 = −1
38
Remontons : on se sert de L3 pour éliminer x3 dans L2 et dans L1 par les
opérations L2 → 3L2 − 2L3 et L1 → 3L1 − L3 . On obtient
3x1 +3x2 = 7
(S1 ) ⇔ 9x2 = 11
3x3 = −1
39
On utilise maintenant L2 pour éliminer x2 dans L1 avec L1 → 3L1 − 2L2 :
−3x1 = −15 x1 = 5
(S2 ) ⇔ 3x2 = 12 ⇔ x2 = 4
x3 = −2 x3 = −2
5
Ainsi l’ensemble des solutions du système (S2 ) est S2 = 4 .
−2
40
3.6.3 Système d’équations linéaires à quatre inconnues
On cherche à résoudre le système suivant :
x1 +0.x2 +2x3 +x4 = 5
(S) x1 +x2 +5x3 +2x4 = 7
x1 +2x2 +8x3 +4x4 = 12.
On ne peut plus monter (la dernière montée aurait été ici d’éliminer x2 dans L1
en servant de x2 encadré ci-dessus dans L1 , mais x2 n’apparaît pas dans L1 ).
L’inconnue x3 , qui n’a pas servi de pivot, peut être choisie librement et servir de
paramètre. On exprime x1 , x2 et x4 en fonction de x3 :
x1 = 2 −2x3
x2 = −1 −3x3
x4 = 3.
x4
2 −2x3 2 −2
−1 −3x3 −1 −3
X= 0 +x3 = 0 + x3 1 ,
3 3 0
41
x3 pouvant être
choisi arbitrairement.
Nous voyons donc que l’ensemble
des solu-
2
−2 2
−1
+ Vect −3 . C’est la droite passant par −1 de vecteur
tions est
0 1 0
3 0 3
−2
−3
directeur
1 .
Si, pour tout Y ∈ Rn , ce système admet une unique solution X, alors A sera
inversible et on aura X = A−1 Y .
Pour résoudre le système linéaire AX = Y , on utilisera la méthode du pivot.
42
La méthode de la matrice témoin consiste à faire le même calcul en ne conser-
vant que les coefficients au lieu d’écrire X et Y à chaque étape de la résolution par
équivalence : on interprète les systèmes de départ et d’arrivée comme AX = In Y
et In X = BY ; à chaque étape on représente un système de la forme M X = N Y
en juxtaposant simplement les matrices M et N .
1 2 0
Exemple : soit A = −1 1 2. Le système linéaire AX = Y s’écrit :
0 0 1
x1 +2x2 = y1
−x1 +x2 +2x3 = y2
x3 = y3
et donc
1/3 −2/3 4/3
A−1 = 1/3 1/3 −2/3 .
0 0 1
43
On peut aussi écrire le système linéaire AX = Y matriciellement (en "oubliant"
X et Y ) :
1 2 0 1 0 0
−1 1 2 0 1 0
0 0 1 0 0 1
qui équivaut à (L2 → L2 + L1 )
1 2 0 1 0 0
0 3 2 1 1 0
0 0 1 0 0 1
44
Exemples :
2 3 0 2 3 0
— Si F = , , , alors P = .
−1 2 −1 −1
2 −1
2 3 0 2 3 0
— Si F = −1 , 2 , −1 , alors P = −1 2 −1.
4 1 0 4 1 0
X = P Λ.
45
1 1
Exemple 4.1. Soient les vecteurs X1 = et X2 = de R2 . La famille
1 −1
{X1 , X2 } est une
famille
génératrice de R2 .
x1
Pour tout X = de R2 , on cherche λ1 et λ2 deux nombres réels tels que
x2
λ1 X1 + λ2 X2 = X.
Le système linéaire associé à cette formulation vectorielle s’écrit
λ1 + λ2 = x1
λ1 − λ2 = x2
qui a comme solution λ1 = x1 +x2
2
et λ2 = x1 −x2
2
. Il y a une solution à ce système
pour tout X ∈ R donc la famille {X1 , X2 } est bien génératrice de R2 .
2
1 1 0
Exemple 4.2. Soient les vecteurs X1 = 0 , X2 = −1 et X3 =
1 de
−1 0 −1
R3 . La famille de vecteurs
{X 1 , X 2 , X3 } n’est pas génératrice de R 3
.
x1
Pour tout X = x2 ∈ R3 , on cherche λ1 , λ2 et λ3 trois nombres réels tels que
x3
λ1 X1 + λ2 X2 + λ3 X3 = X.
Le système associé à cette formulation vectorielle s’écrit
λ1 +λ2 = x1
−λ2 +λ3 = x2
−λ1 −λ3 = x3
λ1 +λ2 = x1
⇔ −λ2 +λ3 = x2
λ2 −λ3 = x1 + x3 (L3 → L1 + L3 )
λ1 +λ2 = x1
⇔ −λ2 +λ3 = x2
0 = x1 + x2 + x3 (L3 → L2 + L3 )
Ainsi si x1 +x2 +x3 6= 0, ce système n’a pas de solution. Si au contraire x1 +x2 +x3 =
0, ce système a une infinité de solutions. Ceci montre que {X1 , X2 , X3 } n’est pas
génératrice de R3 , car tout vecteur X de R3 ne peut pas s’écrire comme
combinaison
1
linéaire des vecteurs X1 , X2 , X3 . Par exemple le vecteur X = 1 ne peut pas
1
s’écrire comme combinaison linéaire des vecteurs X1 , X2 et X3 (1 + 1 + 1 6= 0).
46
Proposition 4.3 (admise). Si F est une famille génératrice de Rn , alors on a
forcément que p ≥ n.
ATTENTION, la réciproque est fausse. Il ne suffit pas d’avoir p ≥ n pour que
F soit génératrice de Rn . Ainsi, dans l’Exemple 4.2, p = n = 3 mais {X1 , X2 , X3 }
n’est pas une base de R3 .
λ1 = · · · = λp = 0.
Exemples :
1 2
— soient les vecteurs X1 = 1 et
X2 = −3 de R3 . Le système associé à
4 −1
l’équation λ1 X1 + λ2 X2 = 0 est
λ1 + 2λ2 = 0 λ1 +2λ2 = 0
λ1 − 3λ2 = 0⇔ 5λ2 = 0
4λ1 − λ2 = 0 9λ2 = 0
47
Remarque : une famille F qui contient deux vecteurs colinéaires n’est pas libre.
≤n
ATTENTION, la réciproque est fausse. Il ne suffit pas d’avoir p pour que
1
F soit libre. Ainsi, dans l’Exemple 4.2, p = n = 3 mais {X1 = 0 , X2 =
−1
1 0
−1 , X3 = 1 } n’est pas une famille libre. En effet, X1 − X2 − X3 = 0.
0 −1
4.4 Base de Rn
Définition : F est une base de Rn si F est une famille libre et génératrice Rn .
48
Supposons d’abord que F est une base de Rn . Alors (Proposition 4.5) p = n et
donc P est une matrice carrée. Comme F est génératrice de Rn , pour tout X ∈ Rn ,
le système (SX ) admet au moins une solution. Comme F est libre, cette solution
est unique. En effet, si Λ et Λ0 sont deux solutions de (SX ), alors P (Λ − Λ0 ) = 0.
Comme F est libre, on doit donc avoir que Λ = Λ0 . On a donc montré que le
système admet une unique solution pour tout X. Ceci montre que P est inversible
et la solution du système (SX ) est Λ = P −1 X.
Supposons maintenant que P est une matrice carrée inversible. On a alors que
P Λ = X si et seulement si Λ = P −1 X. On vérifie alors facilement que F est
génératrice de Rn et F est libre. On a donc bien que F est une base de Rn .
On déduit des propositions précédentes le résultat suivant :
Corollaire 4.8. Soit A une matrice carrée n × n. Alors les propositions suivantes
sont équivalentes :
1. A est inversible (l’équation AX = Y admet une unique solution pour tout
Y ∈ Rn ) ;
2. l’équation AX = Y admet une solution pour tout Y ∈ Rn (im(A) = Rn ) ;
3. l’équation AX = 0 admet comme unique solution le vecteur nul (ker(A) =
0).
λp
ou, écrit sous forme matricielle,
X = P Λ.
Notons qu’on peut exprimer Λ en fonction de X en inversant P :
Λ = P −1 X.
1 1
Exemple : F = , est une base de R2 .
1 −1
1 1 x1
En effet, en notant P = , pour tout X = ∈ R2 , le système linéaire
1 −1 x2
49
λ1
P Λ = X (d’inconnu Λ = ) a une unique solution :
λ2
λ1 = x1 +x
λ 1 + λ 2 = x1 2
PΛ = X ⇔ ⇔ 2 ⇔ Λ = P −1 X
λ 1 − λ 2 = x2 λ2 = x1 −x 2
2
avec
−1 1 1 1
P =
2 1 −1
4.6.1 Base
Une famille B de vecteurs de E est une base de E si l’on a à la fois que B est
libre et que E = Vect(B) (i.e. B est génératrice de E).
4.6.2 Dimension
Théorème 4.9. Soient B et B 0 deux bases de E, alors B et B 0 contiennent le
même nombre de vecteurs.
Définition : la dimension de E, notée dim(E), est le nombre de vecteurs d’une
base de E.
Exemples :
— {0} est un SEV de Rn de dimension nulle.
— Rn , avec n ≥ 1, est un SEV de Rn de dimension n.
50
Conditions pour qu’une famille de vecteurs soit une base d’un SEV :
Soit E un SEV de Rn de dimension d. On a les résultats suivants :
Cette proposition entraîne les conditions suivantes pour qu’une famille de vec-
teurs soit une base :
51
1 2 0
0 −1 2
Exemple : Considérons la matrice A =
1 1
. Alors AX = 0 correspond
2
2 4 0
au système
x1 +2x2 =0
−x2 +2x3 =0
(S)
x1 +x2 +2x3 =0
2x1 +4x2 =0
Pour trouver une base de ker(A), il suffit de trouver un vecteur (non nul)
solution du système. On peut le trouver en effectuant la remontée dans la méthode
du pivot, puis la résolution. L’étape de remontée (L1 → L1 + 2L2 ) donne :
x1 +0 +4x3 = 0
(S) ⇔
−x2 +2x3 = 0
x1 −4x3
On se sert du paramètre libre x3 pour exprimer X : X = x2 = 2x3 =
x3 x3
−4 −4
x3 2 . Finalement, ker(A) = Vect 2 .
1 1
52
4.7 Coordonnées d’un vecteur de Rn dans une base de Rn
On a vu dans la section 4.4 que si F = {X1 , . . . , Xn } est une base de Rn alors
P = (X1 X2 . . . Xp ) et tout vecteur X P de Rn s’écrit de façon unique comme
n
desX1 , . . . , Xn : X = i=1 λi Xi , ou (sous forme matricielle)
combinaison linéaire
λ1
..
X = P Λ avec Λ = . .
λp
Les nombres λ1 , . . . , λn sont appelés les coordonnées de X dans la base F ou
Λ est appelé le vecteur des coordonnées de X dans la base F. Ce vecteur est
usuellement noté [X]F . On a alors les formules de changement de base suivantes :
[X]F = P −1 X et X = P [X]F
La matrice P pourra être appelée matrice de passage de la base canonique à la
base F.
53
5 Diagonalisation de matrices carrées
Dans ce chapitre, on se donne A une matrice carrée n × n.
5.1 Introduction
1 2 x1
Considérons la matrice carrée A = . Pour X = ∈ R2 , on a
2 1 x 2
x1 + 2x2 1 1
AX = . Posons X1 = et X2 = . On a alors
2x1 + x2 1 −1
3 −1
AX1 = et AX2 = .
3 1
Remarquons que
AX1 = 3X1 et AX2 = −X2 .
1 1
Posons P = X1 X2 = , la matrice de passage de la base canonique de
1 −1
R2 à la base {X1 , X2 } (les colonnes de P sont X1 et X2 ).
Calculons AP :
3 −1
AP = ,
3 1
les colonnes de AP
sontAX1 et AX2 .
3 0
Posons D = . La matrice D est diagonale. Calculons P D :
0 −1
3 −1
PD = .
3 1
3 0
Les colonnes de P D sont P (= 3X1 ) et P (= −X2 ).
0 −1
On remarque que AP = P D. En multipliant à droite par P −1 (la matrice P est
bien inversible car {X1 , X2 } est une base de R2 ), on obtient que AP P −1 = P DP −1
et donc que (en utilisant le fait que AP P −1 = AI = A)
A = P DP −1 .
54
5.2 Diagonalisation - Définition
Une matrice carrée n × n est dite diagonalisable si et seulement si elle est
semblable à une matrice diagonale, c’est-à-dire si il existe une matrice diagonale
D et une matrice inversible P telles que
A = P DP −1 .
AX = λX.
1 2
Exemple : Soit A = . On a que 3 et −1 sont des valeurs propres de A.
2 1
1 1
En effet, en posant X1 = et X2 = , on a que
1 −1
Démonstration. On utilise le Corollaire 4.8. Supposons que λ est une valeur propre
de A, alors il existe un vecteur X 6= 0 tel que AX = λX. Ainsi, (A − λIn )X =
AX −λX = 0 et donc A−λIn n’est pas inversible. Réciproquement, supposons que
A−λIn n’est pas inversible. Alors il existe un vecteur X 6= 0 tel que (A−λIn )X = 0
et donc par définition λ est une valeur propre de A.
55
1 2
Exemple : Soit A = . On a vu que 3 était une valeur propre de A.
2 1
Calculons A − 3I2 :
1 2 1 0 −2 2
A − 3I2 = −3 = .
2 1 0 1 2 −2
−2 2
Les colonnes de cette matrice, et , ne forment pas une base de
2 −2
−2 2
R2 car =− . Par la proposition 4.7, on a bien que A − 3I2 n’est pas
2 −2
inversible.
56
5.3.3 Espaces propres
Soit λ ∈ R. On note Eλ = {X ∈ Rn , AX = λX}. Si λ est une valeur propre
de A, Eλ sera appelé l’espace propre associé à la valeur propre λ.
— Eλ est un SEV de Rn .
5.3.4 Spectre de A
L’ensemble noté Sp(A) de toutes les valeurs propres de A est appelé spectre de
A : Sp(A) = {λ1 , . . . , λp }, où λ1 , . . . , λp sont toutes les valeurs propres de A.
P = (X1 · · · Xn )
57
Démonstration. Comme dans l’introduction, calculons AP (les colonnes de AP
sont AX1 , AX2 , . . . , AXn ) :
AP = (AX1 · · · AXn )
= (λ1 X1 · · · λn Xn ).
Calculonsmaintenant
P D. Comme P = (X1 · · · Xn ) et comme la première colonne
λ1
0
de D est .. , la première colonne de P D est λ1 X1 +0×X2 +· · ·+0×Xn = λ1 X1 .
.
0
De même la i-ème colonne de P D est λi Xi et donc
P D = (λ1 X1 · · · λn Xn )
AP P −1 = P DP −1
A = P DP −1 .
P D = (λ1 X1 · · · λn Xn ).
AP = (λ1 X1 · · · λn Xn ).
58
Par ailleurs,
P D = (AX1 · · · AXn ).
59
Démonstration. Montrons que l’assertion 3 entraîne l’assertion 2. Supposons que
la somme des dimensions des p sous-espaces propres vaut n. Notons B1 , · · · , Bp des
bases de chaque sous-espace propre. Alors B = B1 ∪ · · · ∪ Bp contient exactement
n vecteurs, ce qui montre l’assertion 2.
Montrons maintenant que l’assertion 2 entraîne l’assertion 1. Supposons que B
est une famille de n vecteurs. La proposition 5.5 montre B est une famille libre. On
en déduit que B est une base de Rn . Comme les vecteurs de B sont des vecteurs
propres, on a que B est une base propre. Ainsi A est diagonalisable, ce qui montre
l’assertion 2.
Pour finir la démonstration de ce corollaire, il nous reste à montrer que l’asser-
tion 1 entraîne l’assertion 3. Supposons que A soit diagonalisable. Alors elle admet
une base propre. En regroupant les vecteurs de cette base par valeur propre, on
obtient une base de chaque espace propre. La somme des dimensions des espaces
propres vaut donc n.
Corollaire 5.7. Si A possède n valeurs propres distinctes, alors A est diagonali-
sable.
Démonstration. Supposons que A possède n valeurs propres distinctes, que nous
notons λ1 , · · · , λn . Donnons-nous X1 , . . . , Xn , n vecteurs propres associés respec-
tivement à λ1 , · · · , λn . Alors B = {X1 , . . . , Xn } est une famille libre contenant n
vecteurs et est donc une base propre pour A.
(a − λ)(d − λ) − bc = 0.
Notons P (λ) = (a − λ)(d − λ) − bc, alors P (λ) = λ2 − (a + d)λ + (ad − bc). Ainsi
P est un polynôme du second degré. Son discriminant est
60
(a) Si ∆ > 0, A possède deux valeurs propres distinctes et est diagonalisable ;
(b) Si ∆ =0, A possède
une unique valeur propre λ et n’est diagonalisable que
λ 0
si A = ;
0 λ
(c) Si ∆ < 0, A n’est pas diagonalisable.
Démonstration. On a que
(a) Si ∆ > 0, alors P a deux racines distinctes. Ces racines sont des valeurs
propres et on peut conclure avec le corollaire 5.7.
(b) Si ∆ = 0, alors P a une seule racine. Donc A a une seule valeur
propre
λ.
λ 0
Si A était diagonalisable, alors on aurait A = P DP −1 , avec D = = λI2
0 λ
et donc P DP −1 = λP I2 P −1 = λI2 = D.
(c) Si ∆ < 0, alors P n’a pas de racine. Donc A n’a pas de valeur propre et
donc ne peut pas être diagonalisable.
Pour diagonaliser A dans le cas où ∆ > 0, on cherche deux vecteurs propres
X1 et X2 respectivement associés aux deuxvaleurs propres λ1 et λ2 . On pose
λ1 0
P = (X1 X2 ) et on a A = P DP −1 avec D = .
0 λ2
Remarque : Dans le cas où A est une matrice symétrique non diagonale (c’est-
à-dire A = AT ), on a b = c 6= 0. Comme ∆ = (a + d)2 − 4(ad − bc) = (a − d)2 + 4bc,
on a ∆ = (a − d)2 + 4b2 > 0. On a donc que toutes les matrices symétriques 2 × 2
sont diagonalisables 9 .
5.7 Exemples
5.7.1 Exemple 1.
1 2
Reprenons la matrice considérée dans l’introduction A = .
2 1
1. Méthode générale : pour trouver les valeurs propres de A, on doit
résoudre le système linéaire AX = λX ou encore (A − λI2 )X = 0. On a que
1 2 1 0 1−λ 2
A − λI2 = −λ = .
2 1 0 1 2 1−λ
9. Ce résultat est en fait également vrai pour les matrices symétriques n × n, n ≥ 3.
61
x1
Soit X = dans R2 , le système associé à l’équation (A − λI2 )X = 0
x2
est (
(1 − λ)x1 + 2x2 = 0
2x1 + (1 − λ)x2 = 0
On résout le système par la méthode de substitution, on obtient que le
système est équivalent au système
( ( (
x2 = − (1−λ)
2
x 1 x 2 = − (1−λ)
2
x 1 x2 = − (1−λ)
2
x1
⇔ 2
⇔
2x1 + (1 − λ)x2 = 0 (4 − (1 − λ) )x1 = 0 (λ + 1)(λ − 3)x1 = 0
On cherche une solution différente de X = 0. La seconde équation s’annule
si λ = −1 ou λ = 3. On obtient donc deux valeurs propres distinctes. Par
le corollaire 5.7, on a que la matrice A est diagonalisable.
62
2. Méthode propre aux matrices 2 × 2 : on cherche les racines du poly-
nôme
P (λ) = (1 − λ)(1 − λ) − 4 = (1 − λ)2 − 4 = (−1 − λ)(3 − λ).
On retrouve bien les valeurs propres 3 et −1. On cherche ensuite les deux
vecteurs propres associés comme ci-dessus.
5.7.2 Exemple 2.
1 2
Soit la matrice A = .
0 1
1. Méthode générale :
On résout le système linéaire associé à l’équation AX = λX ou encore
(A − λI2 )X = 0 :
(1 − λ)x1 +2x2 = 0
(1 − λ)x2 = 0
Si λ 6= 1, ce système est équivalent à
(1 − λ)x1 +2x2 = 0 (1 − λ)x1 = 0
⇔ ⇔ {x1 = x2 = 0.
x2 = 0 x2 = 0
Ainsi si λ 6= 1, ce système n’ayant pas de solution non nulle, λ n’est pas
une valeur propre.
Si λ = 1, le système AX = λX est équivalent à
2x2 = 0
⇔ {x2 = 0.
0 = 0
1
Ce système admet par exemple comme solution. On a donc que λ = 1
0
est la seule valeur propre possible.
63
2. Méthode propre aux matrices 2 × 2 : le polynôme
P (λ) = (1 − λ)(1 − λ) − 0 ∗ 2 = (1 − λ)2
admet une racine double 1. La matrice A n’étant pas diagonale, on conclut
par la proposition 5.8 que A n’est pas diagonalisable.
5.7.3 Exemple 3.
1 1
Soit la matrice A = .
1 −1
1. Méthode générale : on résout le système associé à (A − λI2 )X = 0 (par
la méthode de substitution)
(1 − λ)x1 + x2 = 0 (1 − λ)x1 + x2 = 0
⇔
x1 + (−1 − λ)x2 = 0 x1 = (1 + λ)x2
2
(2 − λ )x2 = 0
⇔
x1 = (1 + λ)x2
0
Si λ2 6= 2, est l’unique solution de ce système et donc λ n’est pas une
0
valeur propre de A. Si λ2 = 2, il y a des solutions non nulles et λ est une
√ de A.√Finalement, on a que
valeur propre
2
A possède deux valeurs propres
distinctes, 2 et − 2 (les solutions de λ = 2). On en déduit que la matrice
A est diagonalisable.
√
On cherche une base de chaque espace propre E√2 et E−√2 . Pour λ = 2,
le système est (
0=0
√
x1 = ( 2 + 1)x2
√ √
√ 2+1 √ − 2+1
et E 2 = Vect . De même E− 2 = Vect .
1 1
√ √ √
−1 2+1 − 2+1 2 0
√ .
Ainsi, A = P DP avec P = et D =
1 1 0 − 2
2. Méthode propre aux matrices 2×2 : on peut remarquer que la matrice
B est symétrique avec b = c = 1 non nul donc elle possède forcément deux
valeurs propres distinctes et est diagonalisable (ici ∆ = (1−1)2 −4(−1−1) =
8 6= 0). Ces deux valeurs propres sont les racines du polynôme
P (λ) = (1 − λ)(−1 − λ) − 12 = λ2 − 2,
√ √
c’est-à-dire 2 et − 2. On construit ensuite une base propre comme dans
la méthode générale ci-dessus.
64
5.7.4 Exemple 4.
1 1 1
Soit A = 1 1 1. Comme la matrice est carrée de taille 3 on doit faire la
1 1 1
méthode générale. On cherche donc à résoudre le système AX = λX, soit
x1 + x2 + x2 = λx1
(S) x1 + x2 + x3 = λx2
x1 + x2 + x3 = λx3
En faisant L2 → L2 − L1 et L3 → L3 − L1 on obtient
x1 + x2 + x3 = λx1
(S) ⇔ 0 = λ(x2 − x1 )
0 = λ(x3 − x1 )
65
5.7.5 Exemple 5.
Dans les cas précédent, nous n’avons pas véritablement utilisé le pivot de Gauss.
Nous présentons la méthode sur ce dernier exemple. Soit la matrice
2 −2 2
A = 1 −1 2
1 −2 3
Pour effectuer le pivot, il vaut mieux échanger l’ordre des équations (ici L1 et L2 )
x1 −2x2 +(3 − λ)x3 = 0
(Sλ ) ⇔ x1 −(1 + λ)x2 +2x3 = 0
(2 − λ)x1 −2x2 +2x3 = 0
0
Nous voyons que si λ 6∈ {1, 2} alors 0 est l’unique solution du système (Sλ ) :
0
0
Eλ = 0 .
0
66
Si au contraire λ ∈ {1, 2}, la troisième équation est 0 = 0 qui peut être donc
enlevée et on a
x1 −2x2 +(3 − λ)x3 = 0
(Sλ ) ⇔
(1 − λ)x2 +(λ − 1)x3 = 0
Conclusion.
La matrice
A possède
deux valeurs propres distinctes 1 et 2. De
2 −2 1
plus B = 1 , 0 , 1 est une base propre pour A. La matrice A est
0 1 1
1 0 0 2 −2 1
diagonalisable et si D = 0 1 0 et si P = 1 0 1, on a A = P DP −1 .
0 0 2 0 1 1
67