Cours Ma 104
Cours Ma 104
Supp(Un )n∈N = {k ∈ N : Uk ̸= OA }.
On peut maintenant parler d’une suite qui s’annule à partir d’un certain rang. C’est-à-
dire ∃n ∈ N/∀ k > n Uk = OA .
Un polynôme P sera noté P = (an )n∈N ou P = (a0 ; a1 ; ...; an ; ...).
Les éléments an seront appelés coefficients du polynôme P ; on dit que an est le
coefficient d’indice n de P . La suite nulle est dite polynôme nul. Un polynôme dont tous
les coefficients sont nuls sauf au plus l’un d’entre eux est appelé monôme.
L’ensemble des polynômes à une indéterminée à coefficients dans l’anneau A est noté
A[X].
Exemple 1.1.1. Prenons A = Q et P = (1, 1, 1, 0, 0, 11, 0, 0, ...). Ainsi a0 = 1 ; a1 = 1 ;
a2 = 1 ; a3 = 0 ; a4 = 0 ; a5 = 11 ; a6 = 0 ; et ∀n > 6, an = 0. Q = (1, 0, 0, ...) est un
monôme.
Remarque 1.1.1. De l’égalité de deux applications, deux polynômes P = (an )n∈N et
Q = (bn )n∈N sont égaux si et seulement si ∀n ∈ N , an = bn . En particulier, P = (an )n∈N
est le polynôme nul si et seulement si ∀n ∈ N , an = 0.
1
Polynômes à une indéterminée
Preuve. Il revient à justifier que P + Q et P Q sont des polynômes. On sait que ∃N1 ,
N2 ∈ N tel que ∀n ∈ N , n > N1 ⇒ an = 0 et n > N2 ⇒ bn = 0 car P et Q sont des
polynômes. Ainsi, pour N = max(N1 , N2 ), ∀n ∈ N; n > N =⇒ an + bn = 0 + 0 = 0.
D’où (an + bn )n ∈ N est un polynôme. Pour N ′ = N1 + N2 ∀n > N ′ ;
∑N ′ ∑ 1 +N2
ak bN ′ −k = N a b
∑N1k=0 ∑N1 +Nk 2 N1 +N2 −k
k=0
= k=0 ak b(N1 −k)+N2 + k=N1 +1 ak bN1 +N2 −k
= 0 + 0 =∑ 0.
D’où ( lk=0 ak bl−k )l∈N est à support fini, et donc est un polynôme.
Ainsi, A[X] est muni de deux lois de composition internes qui sont l’addition et la
multiplication.
Preuve. Exercice
Preuve. Exercice
Remarque 1.1.2. Si A est un anneau unitaire, alors A[X] est aussi un anneau unitaire
d’unité U = (1, 0, 0, ...) où 1 est l’unité de A.
Preuve. Soit P = (an )n∈N ∈ A[X]. Montrons que P U = P . Posons U = (bn )n∈N .
Supposons que P U = (cn )n∈N . ∀n ∈ N,
∑ ∑n
cn = nk=0 ak bn−k = k=0 bk
∑ an−k car A anneau commutatif
= b0 an + nk=1 bk an−k
= [Link] + 0
= an ; d’où P U = U P = P
Proposition 1.1.2. Si A est un anneau intègre alors A[X] est aussi un anneau intègre.
Preuve. Soient P = (an )n∈N ∈ A[X], P = (an )n∈N ∈ A[X] tels que P ̸= 0. Montrons
que P Q = 0 =⇒ Q = 0. Par contraposée, supposons plutôt que Q ̸= 0 et montrons que
P Q ̸= 0. Posons T = {n ∈ N/an ̸= 0} et T ′ = {n ∈ N/bn ̸= 0}. T et T ′ sont non vides
et finis, car P ̸= 0 et Q ̸= 0. On désigne par n0 et m0 les plus grands éléments respectif
de T et T ′ . Supposons que P Q = (cn )n∈N
∑n0 +m0
cn0 +m0 = ak bn0 +m0 −k
k=0 ∑ 0 −1 ∑n0 +m0
= an0 bm0 + nk=0 ak b(n0 −k)+m0 + k=n a b
0 +1 k n0 +m0 −k
= an0 bm0 + 0 + 0
= an0 bm0 ̸= 0
2
Polynômes à une indéterminée
Preuve. Exercice
i:A −→ A[X]
α 7 → P = (an )n∈N
tel que {
a0 = α
an = 0 ∀n > 1
est un morphisme injectif d’anneaux.
3
Polynômes à une indéterminée
- ∀n ∈ N ∪ {−∞}, −∞ 6 n
- ∀n ∈ N ∪ {+∞}, n 6 +∞
- ∀n, m ∈ N, n 6 m est l’ordre dans N.
Chacun de ces deux ensembles est ensuite muni d’une loi de composition interne
notée +, compatible avec l’ordre défini sur cet ensemble et défini par :
- ∀n ∈ N ∪ {−∞}, n + (−∞) = (−∞) + n = −∞
- ∀n ∈ N ∪ {+∞}, n + (+∞) = (+∞) + n = +∞
- ∀n, m ∈ N, n + m est la somme dans N.
Preuve. Supposons P = (an )n∈N et Q = (bn )n∈N . Montrons que deg(P +Q) 6 max(deg(P ), deg(Q))
Si P = 0, alors deg(P ) = −∞ et P + Q = 0 + Q = Q ; deg(P + Q) = deg(Q) 6
max(−∞, deg(Q)).
Si Q = 0, alors on a le même raisonnement
Si P ̸= 0 et Q ̸= 0 alors deg(P ) = sup{n ∈ N/an ̸= 0} et deg(Q) = sup{n ∈ N/bn ̸=
0}. Posons n0 = deg(P ) et m0 = deg(Q). Deux cas s’imposent donc :
a) Si n0 ̸= m0 , alors n0 < m0 ou m0 < n0 . On peut supposer sans nuire à la
généralité que n0 < m0 . P + Q = (an + bn )n∈N = (cn )n∈N . cm0 = am0 + bm0 = 0 + bm0 ,
car n0 = max{n ∈ N/an ̸= 0} et n0 < m0 . Soit n > m0 ; max{deg(P ), deg(Q)} = m0 ;
cn = an +bn = 0+0 = 0. D’où deg(P +Q) = m0 6 max(n0 ; m0 ) = max(deg(P ), deg(Q)).
b) Si n0 = m0 , alors
{
cn0 = 0 si an0 = −bn0
cn0 = an0 + bn0 ⇒
cn0 ̸= 0 si an0 ̸= −bn0
4
Polynômes à une indéterminée
∑
n ∑
deg(P )
∑
n
cn = ak bn−k = ak bn−k + ak bn−k = 0 + 0 = 0
k=0 k=0 k=deg(P )+1
Preuve. Soient P ∑= (a0 ; a1 ; ...; an ; 0; 0; ...) et Q = (b0 ; b1 ; ...; bm ; 0; 0; ...) tels que P Q =
(cn )n∈N avec cn = nk=0 ak bn−k . Alors
∑
n+m ∑
n−1 ∑
n+m
cn+m = ak bn+m−k = ak bn+m−k + an bm + ak bn+m−k = an bm ̸= 0
k=0 k=0 k=n+1
P ∈ U (A[X]) ⇔ ∃Q ∈ A[X]/P Q = 1
=⇒ ∃Q ∈ A[X]/ deg(P Q) =deg(1)
=⇒ ∃Q ∈ A[X]/ deg(P Q) = 0
=⇒ ∃Q ∈ A[X]/ deg(P )+deg(Q) = 0 (car A intègre)
=⇒ deg(P ) = 0
=⇒ P ∈ A\{0}
=⇒ P ∈ U (A)
Proposition 1.1.7. ∀n ∈ N∗ , X n est le polynôme dont tous les coefficients sont nuls
sauf le coefficient d’indice n qui est l’unité de l’anneau.
5
Polynômes à une indéterminée
6
Polynômes à une indéterminée
Pe : A −→ A
∑
x 7 → Pe(x) = m
i=0 ai x
i
Exemple 1.1.4. P = X 2 + 1
Pe(x) = x2 + 1 et Pe(2) = 22 + 1 = 5.
Preuve.
7
Polynômes à une indéterminée
a) Unicité : Soient (S1 , R1 ) et (S2 , R2 ) deux couples de polynômes vérifiant deg(R1 ) <deg(Q)
et deg(R2 ) <deg(Q), alors (S1 − S2 )Q + (R1 − R2 ) = 0, d’où (S1 − S2 )Q =
(R2 −R1 )(∗). Le coefficient dominant de Q étant inversible, alors il n’est pas un divi-
seur de zéro dans A. Ainsi, deg((S1 −S2 )Q) =deg(S1 −S2 )+deg(Q). D’où deg(R2 −
R1 ) 6max(deg(R1 ) ;deg(R2 )) <deg(Q) par conséquent deg(S1 −S2 )+deg(Q) <deg(Q)
d’où deg(S1 − S2 ) < 0 donc S1 − S2 = 0, c’est-à-dire S1 = S2 . En remontant à
(∗), on montre que R2 = R1 .
b) Existence du couple (S,R) : Posons Q = bm X m +bm−1 X m−1 +bm−2 X m−2 +...+b0
avec bm ̸= 0 et P = an X n + an−1 X n−1 + an−2 X n−2 + ... + a0 avec an ̸= 0. Pour
tout k ∈ N ∪ {−∞}, attachons l’assertion (pk ) de degré k, c’est-à-dire qu’il existe
un couple (Sk , Rk ) tel que Pk = Sk Q + Rk , avec deg(Rk ) < deg(Q). Pour
i) k < m, on a Pk = 0.Q + Pk et deg(Pk ) = k < m =deg(Q), il suffit de prendre
(Sk , Rk ) = (0, Pk ),
ii) Soit l donné avec l > m. Supposons que (pk ) ait été vérifiée pour k 6 m − 1 et
considérons le polynôme de degré l ordonné suivant les puissances décroissantes,
c’est-à-dire Pl = al X l + al−1 X l−1 + ... + a0 , avec al ̸= 0. Formons le polynôme Pk =
Pl − b−1
m al X
l−m
Q. Pk est un polynôme de degré strictement inférieur à l. On peut
donc par hypothèse d’induction trouver un couple (Sk , Rk ) tel que Pk = Sk Q + Rk ,
avec deg(Rk ) <deg(Q). On en déduit que Pk = Pl − b−1 m al X
l−m
Q, c’est-à-dire que
Pl = (Sk +b−1 a
m l X l−m
)Q+R k . Il suffit donc de prendre (S k , R k ) = (Sk +b−1
m al X
l−m
,
Rk ).
Ainsi, pour k ∈ N, la propriété (pk ) est vraie.
8
Polynômes à une indéterminée
9
Polynômes à une indéterminée
Théorème 1.2.5. Soit (Pi )i∈I une famille de polynômes de A[X] non tous nuls. Pour
qu’un polynôme D de A[X] soit un pgcd de la famille (Pi )i∈I , il faut et il suffit que
∀i ∈ I, D divise Pi et que la famille (Pi /D)i∈I de A[X] soit constituée des polynômes
premiers entre eux dans leur ensemble.
Preuve. Exercice
Preuve. Exercice
Preuve. Exercice
10
Polynômes à une indéterminée
Il en résulte que deux polynômes irréductibles non associés sont premiers entre eux
et que plus généralement, si P et Q sont irréductibles et non associés, alors P k et Qk
sont premiers entre eux ; ∀k ∈ N∗ .
Corollaire 1.2.1. Soit P un polynôme irréductible de A[X]. Pour que P divise Πni=1 Pi ,
il faut et il suffit qu’il existe j ∈ {1, ..., n} tel que P/Pj .
Preuve. La condition est évidement suffisante. En effet, P/Pj =⇒ ∃T ∈ A[X]/Pj = P T.
Πni=1 Pi = (Πni=1,i̸=j Pi )Pj = (Πni=1,i̸=j Pi )(P T ) = P (T Πni=1,i̸=j Pi ), d’où le résultat.
La condition est nécessaire car si elle n’est pas remplie alors P est premier avec
chacun des Pi . D’où P ne divise pas le produit des Pi .
11
Polynômes à une indéterminée
12
Polynômes à une indéterminée
φ:Z −→ A
0 si n = 0
+ ... + 1A ; si n ∈ N∗
1| A + 1A {z }
n 7→ n.1A = nf ois
−1A − 1A − ... − 1A ; si n ∈ Z∗−
| {z }
−nf ois
13
Polynômes à une indéterminée
14
Polynômes à une indéterminée
Définition 1.4.4. On appelle polynôme scindé sur A, tout polynôme de A[X] constant
ou tel que P admet des racines dont la somme des ordres de multiplicité est le degré de
P . Autrement dit, les polynômes scindés sur A sont : le polynôme nul, les polynômes de
∑r constants non nuls) et les polynômes de la forme P = aΠi=1 (X −ai )
r ki
degré 0 (polynômes
avec a ̸= 0 et i=1 ki = deg(P ).
Exemple 1.4.1. P = X 2 + 1 n’est pas scindé sur R, mais l’est sur C car P = (X −
i)(X + i).
Exemple 1.5.1. R n’est pas algébriquement clos, mais C l’est. Dans R[X], P = X 2 +
X + 1 n’est pas constant et n’admet pas de racine dans R.
Preuve.
=⇒) Comme k est algébriquement clos, alors tout polynôme non nul de k[X] admet
au moins une racine a dans k et donc un diviseur de la forme X − a. Si son degré excède
1, alors il n’est pas irréductible. D’où les seuls polynômes irréductibles sont ceux de
degré 1.
⇐=) Supposons que tout polynôme irréductible de k[X] est de degré 1 et montrons
que k est algébriquement clos.
Soit donc P un polynôme non constant de k[X]. Il admet une décomposition en
produit de facteurs irréductibles P = aΠq∈P q µ(q) avec a ̸= 0. Donc P = aΠri=1 (X − ai )ki
car dans la décomposition, q est un polynôme irréductible et unitaire. Par conséquent k
est algébriquement clos.
Proposition 1.5.1. Si k est algébriquement clos alors tout polynôme de k[X] est scindé
sur k.
Preuve. Exercice
15
Polynômes à une indéterminée
Corollaire 1.5.1. Soient A et B deux polynômes non constants de k[X]. Pour que B
divise A, il faut et il suffit que toute racine de B d’ordre k soit une racine de A avec un
ordre de multiplicité au moins égal à k.
Pour que deux polynômes non constants soient associés, il faut et il suffit qu’ils aient
les mêmes racines et les mêmes ordres de multiplicité.
φ : C[X]
∑ −→ C[X] ∑
P = ni=0 ai X i 7→ φ(P ) = ni=0 āi X i
Corollaire 1.5.2. Tout polynôme de R[X] de degré impair admet au moins une racine
réelle.
16
Polynômes à une indéterminée
A tout polynôme non nul P ∈ R[X], on peut associer un et un seul triplet constitué
d’un élément non nul a ∈ R et de deux applications presque nulles µ : R −→ N et
ϑ : P −→ N telles que P = aΠx∈R (X − x)µ(x) Πq∈P q ϑ(q) (2), où P est l’ensemble
des polynômes de R[X] unitaires, irréductibles de degré 2.
On dit que (2) est la décomposition de Gauss du polynôme P .
Corollaire 1.5.3. Les polynômes irréductibles de R[X] sont les polynômes de degré 1
et les polynômes de degré 2 sans racine réelle.
{ 5θ = π + 2kπ, k ∈ Z
r=1
⇐⇒
θ = π5 + 2kπ
5
, k ∈ {0, 1, 2, 3, 4}
. D’où
P = (X + 1)2 (X − ei 5 )2 (X − e−i 5 )2 (X − ei 5 )2 (X − e−i 5 )2
π π 3π 3π
17
Chapitre 2
A1 A2 A1 B2 + A2 B1
+ = ;
B1 B2 B2 B1
et
A1 A2 A1 A2
× =
B1 B2 B2 B1
Alors (k(X), +, ×) est un corps appelé corps des fractions rationnelles à une indéterminée
sur k. Une fraction rationnelle à une indéterminée sur k est tout simplement un élément
de k(X).
Exemple 2.1.1.
X2 + X + 1 X2 + 1
∈ R(X), ∈ C(X)
X +1 X −i
18
Fractions rationnelles à une indéterminée
φ : k(X)
∑n
−→ k′ (X) ∑n
ai X i ρ(ai )X i
F = ∑i=1
m
bi X i
7 → φ(F ) = ∑i=1
m i
i=1 i=1 ρ(bi )X
Exercice : Montrer que φ est un isomorphisme de corps qui prolonge ρ et que φ(X) =
X. De plus montrer que φ est unique.
Preuve. Exercice
Exemple 2.1.2.
X2 − 1
F = ∈ C(X).
X2 + 1
Les poles de F sont i et −i car X 2 + 1 = (X − i)(X + i). Les racines de F sont 1 et −1
X2 − 1
F = ∈ R(X).
X2 + 1
n’a pas de pole, mais admet pour racine −1 et 1.
19
Fractions rationnelles à une indéterminée
x 7→ F (x) = A(x)
˜
B(x)
Preuve. F = B A
∈ k(X) où B A
est un représentant irréductible de F . Soient Q et
R respectivement le quotient et le reste de la division euclidienne de A par B. Alors
F =B A
= BQ+R
B
=Q+ B R
. D’où F − Q = B R R
et deg( B ) = deg(R) − deg(B) < 0. Il suffit
de prendre E = Q.
Preuve.
20
Fractions rationnelles à une indéterminée
Proposition 2.2.1. Pour toute suite de polynômes A, B1 , ...., Bn dans laquelle les Bi
sont deux à deux premiers entre eux et deg(A) < deg(B1 B2 ...Bn ), il existe une et une
A1 A2 Ai
seule suite de polynômes A1 , ...., An telle que B1 BA2... Bn = B 1
+B 2
An
+...+ B n
, et deg( Bi
) < 0,
1 6 i 6 n.
aX + b cX + d
F = +
(X − 1)2 (X + 3)2
Preuve. Elle se fait par récurrence sur k. Soit P (k) la propriété : Pour tout polynôme
Ck tel∑que deg(Ck ) < deg(Qk ), il existe une et une seule famille (P1 , P2 , ..., Pk ) telle que
Ck
Qk
= ki=1 Q Pi Pi
i , avec deg( Q ) < 0.
21
Fractions rationnelles à une indéterminée
On choisit Pi = Ti , 1 6 i 6 k et Pk+1 = R.
D’où (Pk+1 ) est vraie.
Preuve.
a) Existence d’une décomposition
D’après le théorème 2.2.1, il existe un unique couple (E, A1 ) tel que F = E + AB1 avec
deg( AB1 ) < 0. Q1 , Q2 , ..., Qn étant irréductibles et non associés, il sont premiers
entre eux deux à deux. Par conséquent les polynômes Qk11 , Qk22 , ..., Qknn sont aussi
premiers entre eux deux à deux.
D’après la proposition 2.2.1 ci-dessus, on peut écrire d’une et une seule façon
A1 A1 b−1 A1 C1 C2 Cn
= k k
= k k
= k1 + k2 + ... + kn ,
B 1 2 k
bQ1 Q2 ...Qnn Q1 Q2 ...Qnn
1 2 k Q1 Q2 Qn
Ci
avec deg( k ) < 0.
Qi i
Pour tout i ∈ {1, 2, ..., n}, la proposition 2.2.2 ci-dessus permet d’écrire d’une seule
façon.
C1 ∑ k
Pij
=
Qk11 i=1
Qji
Il en résulte la décomposition annoncée.
b) Unicité : Elle résulte des résultats suivants : théorème 2.2.1, proposition 2.2.1 et
proposition 2.2.2.
22
Fractions rationnelles à une indéterminée
Res(F, a).
1 + X + X 2 = (−1 + X 2 )(−1 − X − 2X 2 ) + X 3 + 2X 4
2 2 3 4 2 3 4
F = (−1+X )(−1−X−2X
X 3 (X 2 −1)
)+X +2X
= (−1−X−2X
X3
)
+ (X +2X )
X 3 (X 2 −1)
= XA
+ XB2 + XC3 + 2X+1
X 2 −1
=
− X2 − X12 − X13 + 2X+1
X 2 −1
.
La partie polaire relative à 0 est − X2 − X12 − X13 .
On a aussi 2X+1
X 2 −1
2X+1
= (X−1)(X+1) a
= X−1 + X+1b
, avec a = 23 , b = 21 .
F = − X2 − X12 − X13 + 2(X−1) 3 1
+ 2(X+1) . Res(F, 0) = −2, Res(F, 1) = 23 , Res(F, −1) =
+ 21 .
Application
k C(X) une fraction rationnelle irréductible de k(X) admettant a pour
A(X)
Soit F = (X−a)
pôle d’ordre k. On pose P (Y ) = A(Y + a), Q(Y ) = C(Y + a). On a le quotient a0 +
23
Fractions rationnelles à une indéterminée
Exemple 2.2.3.
X2 + X − 1
F = ∈ C(X)
(X − 1)3 (X + 1)3
a b c d e f
On veut écrire F de la forme F = X+1 + (X+1) 2 + (X+1)3 + X+2 + (X+2)2
+ (X+2)3
. On
fait le changement d’indéterminée Y = X + 1; ⇒ X = 1 − Y , d’où
(Y − 1)2 − Y
F = ∈ C(Y )
Y 3 (Y + 1)3
Continuer la décomposition en éléments simples de F .
Proposition 2.2.3. Si A
B
est une fraction rationnelle irréductible de R(X) présentant
e
le pôle simple a, alors la partie polaire relative au pôle a est A(a)
f
B ′ (a)
× 1
X−a
X+1
Exemple 2.2.4. Décomposons en éléments simples F = (X−2)(X+3) .
′
On a A(X) = X + 1, B(X) = X + X − 6 et B (X) = 2X + 1. On a alors
2
e e
A(2)
F = Bf′ (2)
× X−2
1 A(−3)
+ Bf′ (−3)
× X+3
1
= 53 X−2
1
+ −2 1
−5 X+3
= 35 X−2
1
+ 25 X+3
1
.
∑
n ∑ ki
Xir ∑m ∑ l1
βjs + γjs
F =E+ ( ) + ( )
i=1 r=1
(X − a)r j=1 s=1
(X 2 + p X + q )s
j j
avec p2j − 4qj < 0. Pour trouver les coefficients de cette décomposition, on peut :
- Faire la décomposition sur C puis regrouper les pôles conjugués pour avoir la décom-
position sur R.
- Ecrire la décomposition inconnue sur R et procéder par identification.
- Utiliser les considérations de parité ou de limite
24
Fractions rationnelles à une indéterminée
Exemple 2.2.5. Décomposer sur R, puis sur C les fractions rationnelles suivantes :
X +1 X
F = et G =
(X − 2)2 (X 2
+ X + 1) (X + 1)2
2
Dans R, on a :
a b cX+d
F = X−2
+ (X−2)2
+ X 2 +X+1
(I)
{ {
b = −b b=0
donc
d = −d d=0
D’où G = XaX cX
2 +1 + (X 2 +1)2 (2).
A(X) = X + 1
B(X) = (X − 2)2 (X 2 − X + 1) = (X − 2)2 (X − j)(X − j)
B ′ (X) = 2(X − 2)(X 2 − X + 1) + (2X + 1)(X − 2)2
1 b 2c 2d 1 b 2cj − 2dj
a=− + − − =− + − .
2 4 j j 2 4 1
On obtient la décomposition cherchée.
25
Fractions rationnelles à une indéterminée
Exercice7 Trouver les polynômes P tels que P + 1 soit divisible par (X − 1)4 et
P − 1 par (X + 1)4 :
a) en utilisant la relation de Bézout
b) en considérant le polynôme dérivé P ′.
Combien y’a t-il de solution de degré inférieur à 7 ?
26
Fractions rationnelles à une indéterminée
P
Montrer que si r = Q avec P et Q premier entre eux est une racine rationnelle de P ,
alors p divise a0 et q divise an .
27
Fractions rationnelles à une indéterminée
28
Chapitre 3
L’algèbre linéaire est un outil essentiel pour toutes les branches de mathématiques
appliquées, en particulier lorsqu’il s’agit de modéliser puis de résoudre numériquement
des problèmes issus de divers domaines : des sciences physiques ou mécaniques, des
sciences du vivant, de la chimie, de l’économie, des sciences de l’ingénieur...
Par exemple, la physique abonde de relations linéaires : les lois fondamentales du
mouvement sont presque toutes linéaires, ou se déduisent de lois linéaires. Les systèmes
électriques sont fondamentalement décrits par des lois linéaires (U = RI, etc. ). C’est
pourquoi, le présent cours commence avec une étude des équations linéaires et de leur
résolution.
Exemple 3.1.1. 2x + 3y = 6
Exemple 3.1.2. les équations suivantes ne sont pas des équations linéaires : 2x+y 2 = 1;
√
y = sin(x); x = y.
Définition 3.1.1. De manière générale, on appelle équation linéaire dans les variables
x1 , x2 , ..., xn toute relation de la forme a1 x1 + ... + an xn = b (1.1) où a1 , ..., an et b sont
des nombres réels.
Il importe d’insister ici que ces équations linéaires sont implicites, c’est-à-dire qu’elles
décrivent des relations entre variables, mais ne donnent pas directement les valeurs que
peuvent prendre les variables.
Résoudre une équation signifie donc la rendre explicite, c’est-à-dire rendre plus ap-
parentes les valeurs que les variables peuvent prendre.
29
Systèmes d’équations linéaires et matrices
Une solution de l’équation linéaire (1.1) est un n-uplet s1 , ..., sn de valeurs des
variables x1 , ..., xn qui satisfont à l’équation (1.1). Autrement dit, a1 s1 + ... + an sn = b.
Par la suite, nous étudierons l’ensemble des solutions d’une équation linéaire.
Définition 3.1.2. Un ensemble fini d’équations linéaires dans les variables x1 , ..., xn
s’appelle un système d’équations linéaires. Tout n-uplet de nombres (s1 , ..., sn ) satisfai-
sant chacune des équations s’appelle solution du système d’équations linéaires.
{
x1 − 3x2 + x3 = 1
Exemple 3.1.4. le système admet comme solution x1 =
−2x1 + 4x2 − 3x3 = 9
−18, x2 = −6, x3 = 1. par contre x1 = 7, x2 = 2, x3 = 0 ne satisfait que la première
équation. Ce n’est donc pas une solution du système.
Définition 3.1.3. Un système d’équations est dit incompatible ou inconsistant s’il n’ad-
met pas de solutions.
{
x1 + x2 = 1
Exemple 3.1.5. Le système linéaire est clairement incompatible.
2x1 + 2x2 = 1
30
Systèmes d’équations linéaires et matrices
(1.3)
où le nombre réel aij est le coefficient de la j-ème inconnue dans la i-ème équation.
Définition 3.1.4. (Matrice augmentée). Nous obtenons la matrice augmentée associée
au système en "oubliant" les variables xi et les signes ” + ” et ” = ”. La matrice
augmentée associée au système (1.3) est alors
a11 a12 · · · a1n b1
a21 a22 · · · a2n b2
.. .. .. .. ..
. . . . .
am1 am2 · · · amn bm
et sa matrice est
1 1 7
2 −1 5
−1 −3 −9
La méthode de base pour résoudre un système d’équations linéaires est de remplacer
le système par un autre plus simple, ayant le même ensemble de solutions. Ceci se fait
par une succession d’opérations, appelées opérations élémentaires :
31
Systèmes d’équations linéaires et matrices
32
Systèmes d’équations linéaires et matrices
(4) l3 −→ l3 + 2l1
1 1 7 −1
0 1 3 1
0 0 4 −4
(5) l3 −→ 14 l3
1 1 7 −1
0 1 3 1
0 0 1 −1
(6) l1 −→ l1 − 7l3
1 1 0 6
0 1 3 1
0 0 1 −1
(7) l2 −→ l2 − 3l3
1 1 0 6
0 1 0 4
0 0 1 −1
(8) l1 −→ l1 − l2
1 0 0 2
0 1 0 4
0 0 1 −1
Cette matrice augmentée correspond au système
x = 2
y = 4
z = −1
Définition 3.2.1. (matrice échelonnée). Une matrice est appelée matrice échelonnée si
elle a les propriétés suivantes :
(i) Dans toute ligne non nulle, le premier élément non nul vaut 1. Il est appelé le 1
directeur ;
(ii) Les lignes dont tous les éléments sont nuls sont regroupées en bas de la matrice ;
33
Systèmes d’équations linéaires et matrices
(iii) Dans deux lignes successives (contiguës) ayant des éléments non nuls, le 1 directeur
de la ligne inférieure se trouve à droite du 1 directeur de la ligne supérieure.
Exemple 3.2.1. La matrice
0 1 −3 −6 0
1 3 1 0 2
0 0 1 1 7
satisfait la propriété (i) mais pas la propriété (iii), alors que la matrice suivante
( )
0 −3 1
1 −1 0
satisfait (i), (ii) et (iii) : elle est donc sous forme échelonnée. Finalement, la matrice
0 0 1 −1 −1
0 1 0 0 3
0 0 0 0 0
34
Systèmes d’équations linéaires et matrices
(2) Permuter s’il le faut, la première ligne avec une autre, pour que l’élément en haut
de la colonne identifiée en (1) devienne non nul.
Exemples (suite) : En permuttant les deux premières ligne de la matrice suivante,
0 0 1 3
0 3 0 1
0 3 1 2
on obtient la matrice
0 3 0 1
0 0 1 3
0 3 1 2
(3) Si l’élément se trouvant en haut de la dite colonne vaut a, multiplier la première
ligne par a1 pour y faire apparaître le 1 directeur.
Exemple (suite) :
0 3 0 1
0 0 1 3
0 3 1 2
l1 −→ 13 l1 donne la matrice
1
0 1 0 3
0 0 1 3
0 3 1 2
(4) Ajouter des multiples adéquats de la première ligne aux lignes en-dessous pour
annuler les éléments en dessous du 1 directeur.
Exemple (suite) : De la matrice
1
0 1 0 3
0 0 1 3
0 3 1 2
35
Systèmes d’équations linéaires et matrices
l3 −→ l3 − 3l1 donne
1
0 1 0 3
0 0 1 3
0 0 1 1
(5) Couvrir la première ligne de la matrice, et aller à (1)
Exemple (suite) : ( )
0 0 1 3
0 0 1 1
l2 −→ l2 − l1 ( )
0 0 1 3
0 0 0 −2
l2 −→ − 12 l2 ( )
0 0 1 3
0 0 0 1
(6) La matrice entière est échelonnée.
Exemple (suite) : On remet la première ligne en place
0 1 0 13
0 0 1 3
0 0 0 1
(7) Pour la mettre sous la forme échelonnée réduite, il faut ajouter à une ligne des
multiples adéquats des lignes situées en-dessous d’elle en allant du bas vers le
haut.
Exemple (suite) : En partant de la matrice
1
0 1 0 3
0 0 1 3
0 0 0 1
l2 −→ l2 − 3l3
1
0 1 0 3
0 0 1 0
0 0 0 1
l1 −→ l1 − 13 l3
0 1 0 0
0 0 1 0
0 0 0 1
Les deux exemples ci-dessous illustrent encore l’algorithme.
36
Systèmes d’équations linéaires et matrices
Exemple 3.2.3.
0 (4) 0 −1
0 1 (2) 1
0 0 1 −3
l3 −→ l2 − 2l3
0 4 0 −1
0 1 (0) 7
0 0 1 −3
0 (4) 0 −1
0 1 0 7
0 0 1 −3
l1 −→ l1 − 4l2
0 (0) 0 −29
0 1 0 7
0 0 1 −3
Exemple 3.2.4.
0 1 −1 5 −1
0 1 −2 0 3
1 −3 2 0 −1
l1 ←→ l3
1 −3 2 0 −1
0 1 −2 0 3
0 1 −1 5 −1
l2 −→ l2 − l1
1 −3 2 0 −1
0 1 −2 0 −3
0 0 1 5 −4
La matrice est maintenant sous forme échelonnée. Il reste à la mettre sous la forme
échelonnée réduite.
l2 −→ l2 + 2l3
1 −3 2 0 −1
0 1 0 10 −5
0 0 1 5 −4
l1 −→ l1 + 2l3
1 −3 0 −10 7
0 1 0 10 −5
0 0 1 5 −4
l1 −→ l1 + 2l2
1 0 0 20 −8
0 1 0 10 −5
0 0 1 5 −4
37
Systèmes d’équations linéaires et matrices
La matrice est sous forme échelonnée réduite. Un système dont la matrice augmentée
est sous forme échelonnée réduite est très simple à résoudre comme nous allons le voir
ci-après.
Toutes les variables sont des variables directrices. La solution est donc x = −2, y =
4, z = 1.
38
Systèmes d’équations linéaires et matrices
x1 = t1 , · · · , xn = tn .
x1 = kt1 , · · · , xn = ktn .
39
Systèmes d’équations linéaires et matrices
Les variable directrices sont x1 , x3 et x4 alors que les variables libres sont x2 et x5 .
Posons alors x2 = s et x5 = t. On obtient x1 = −s − 13t, x3 = −20t, x4 = 2t.
L’ensemble des solutions est donc x1 = −s − 13t, x2 = s, x3 = −20t, x4 = 2t, x5 = t
qui est bien infini.
Exercice 3
Résoudre en fonction du paramètre m ∈ C, les systèmes suivantes d’inconnues com-
plexes
:
x − y + z = m
mx + y + z = 1
mx + y + z + t = 1
a) x + my − z = 1 b) x + my + z = m c) x + my + z + t = m
x−y−z =1 x + y + mz = m 2
x + y + mz + t = m + 1
Exercice 4
Soit a, b ∈ C. Résoudre le système :
ax + by + z = 1
x + aby + z = b
x + by + az = 1
Exercice 5
Résoudre le système d’équations suivant d’inconnues complexes :
40
Systèmes d’équations linéaires et matrices
x 1 + x2 + x3 + · · · + xn =1
x1 + 2x2 + 2x3 + · · · + 2xn
=1
x1 + 2x2 + 3x3 + · · · + 3xn =1
.. .. ..
. . .
x1 + 2x2 + 3x3 + · · · + nxn =1
Exercice 6
Résoudre le système d’équations suivant d’inconnues complexes :
x1 + x2 =0
x 1 + x 2 + x 3 =0
x2 + x3 + x4 =0
.. .. ..
. . .
xn−1 + xn =0
Exercice 7
Soient A1 , ..., An des points du plan complexe d’affixes a1 , ..., an et M1 , ..., Mn des
points du plan complexe d’affixes z1 , ..., zn .
Déterminer à quelle(s) condition(s) il existe au moins un polygone à n sommets M1 , ..., Mn
tel que :
Ai est le milieu de [Mi , Mi+1 ] et Mn est le milieu de [Mn , Mi ].
Exercice 8
Discuter suivant a et b la solution dans R3 de :
ax + 2by + 2z = 1
2x + aby + 2z = b
2x + 2by + az = 1
Exercice 9
Résoudre, en discutant selon a, b ∈ R le système
ax + y + z + t = 1
x + ay + z + t = b
x + y + az + t = b2
x + y + Z + at = b3
41
Chapitre 4
Calcul matriciel
Exemple 4.1.1. ( )
1 −2 5
0 3 7
est une matrice 2 × 3 avec, par exemple a11 = 1 et a23 = 7.
si n = m, la matrice est dite carrée
a11 a12 ··· a1n
a21 a22 ··· a2n
.. .. ... ..
. . .
an1 an2 ··· ann
Dans le cas d’une matrice carrée, les éléments a11 , a22 , ..., ann sont appelés les élé-
ments diagonaux.
a11 a12 ··· a1n
a21 a22 ··· a2n
.. .. ... ..
. . .
an1 an2 ··· ann
L’ensemble des matrices de taille m × n à coefficients dans K est noté Mm,n (K) ou
Km×n .
Deux matrices sont égales lorsqu’elles ont la même taille et que les éléments corres-
pondants sont égaux.
42
Calcul matriciel
Définition 4.1.2. (somme de deux matrices). On peut définir la somme de deux ma-
trices si elles sont de même taille. Soient A et B deux matrices de taille m × n. On
définit leur somme C = A + B, de taille m × n, par cij = aij + bij .
En d’autres termes, on somme composante par composante.
( ) ( ) ( )
3 −2 0 5 3 3
Exemple 4.1.2. A = ,B= , A+B =
( ) 1 (7 ) 2 −1 3 6
4 1 −2
A= ,B= , A + B n’est pas définie.
−3 2 8
La matrice (de taille m × n) dont tous les éléments sont des zéros est appelée la
matrice nulle et notée 0mn ou plus simplement 0. C’est l’élément neutre pour l’addition,
c’est-à-dire que A + 0 = A.
Définition 4.1.3. (produit d’une matrice par un scalaire). Le produit d’une matrice A
par un scalaire k est formé en multipliant chaque élément de A par k. Il est noté kA.
( ) ( )
3 −2 −9 6
Exemple 4.1.3. Soient A = , et k = −3, alors kA = .
0 6 0 −18
La matrice (−1)A est notée −A et la différence A − B est définie par A + (−B).
( ) ( ) ( )
2 −1 0 −1 4 2 3 −5 −2
Exemple 4.1.4. A = ,B = , A−B =
1 −5 2 7 −5 3 -6 0 −1
··· ···
( a11 · · · · · · a1m ) b11 b1r c11 c1r
a21 a22 · · · a2m b21 .. ..
··· . (c21 ) ··· .
AB = .. .. .. .. = .. ..
. ··· ··· . . ··· . . ··· .
an1 · · · · · · anm bm1 ··· bmr cn1 ··· cnr
43
Calcul matriciel
Exemple 4.2.2.
3 ( ) −3 6 9 0
−2 −1 2 3 0 = 2 −1 −6 0
1 −1 2 3 0
3×1 1×4 3×4
s’appelle la matrice identité d’ordre n. Ses éléments diagonaux sont égaux à 1 et tous
ses autres éléments sont égaux à 0. C’est l’élément neutre pour la multiplication des
matrices carrées d’ordre n. En d’autres termes, si A une matrice m × n, alors In .A = A
et [Link] = A.
44
Calcul matriciel
( ) ( ) ( )
0 −1 2 −3 0 0
Exemple 4.2.4. A = ,B= et AB =
0 5 0 0 0 0
Ce qui précède implique que, par distributivité, que l’on peut avoir AB = AC, et
B ̸= C.
( ) ( ) ( )
0 −1 4 −1 2 5
Exemple 4.2.5. A = ,B = ,C = AB = AC =
( ) 0 3 5 4 5 4
−5 −1
.
15 12
45
Calcul matriciel
( )
3 0
Exemple 4.4.2. La matrice A = n’est pas inversible. En effet, soit B =
( ) 5 0 ( )( )
b11 b12 b11 b12 3 0
une matrice quelconque. Alors le produit BA = =
( b21 b)
22 b21 b22 5 0
∗ 0
ne peut jamais être égal à la matrice identité.
∗ 0
Théorème 4.4.1. Si B et C sont des inverses de A, alors B = C.
4.4.1 Matrice 2 × 2
( ) ( )
a b d −b
Considérons les matrices 2 × 2 A = et B = . On vérifie que
( ) c d −c a
1 0
AB = BA = (ad − bc) . Donc A est inversible si ad − bc ̸= 0, et on a alors
( )0 1
d −b
A−1 = ad−bc
1
.
−c a
46
Calcul matriciel
( ) ( ) ( )
2 1 3
−1 −1 −9 −4
Exemple 4.4.3. A = ,A = ; B= ; B −1 =
( ) 5 (3 )( −5 2) ( 2 )1
−1 −4 2 1 −9 −4 −16 −7
. Alors AB = =
2 9 ( 5 3
)( )2 (1 −39
) −17
−1 −1 −1 −4 3 −1 17 −7
B A = = .
2 9 −5
( 2 ) −39
( 16 ) ( )
−1 −1 −16 −7 17 −7 −272 + 273 0
On a alors (AB)(B A ) = = =
( ) −39 −17 −39 16 0 273 − 272
1 0
.
0 1
0 0 0 1
(2) La matrice Eij est la matrice élémentaire obtenue en permutant les i − ème ligne
et j − ème ligne de In .
1 0 0 0
0 0 0 1
Exemple 4.5.2. E42 = 0 0 1 0
0 1 0 0
(3) La matrice Eij (c) est la matrice élémentaire obtenue en ajoutant c fois la j − ème
ligne de In à la i − ème ligne.
1 0 0 0
−5 1 0 0
Exemple 4.5.3. E21 (−5) = 0
0 1 0
0 0 0 1
L’opération élémantaire "permuter les lignes i et j" correspond à multiplier une
matrice sur la gauche par la matrice élémentaire Eij ; et de même pour toutes autres
opérations élémentaires. C’est ce qu’indique le théorème suivant :
Théorème 4.5.1. Si la matrice élémentaire E est le résultat d’une opération élémentaire
effectuée sur Im , alors pour toute matrice A de taille m × n, le produit matriciel EA est
égal à la matrice obtenue en effectuant la même opération élémentaire sur A.
47
Calcul matriciel
Ainsi, multiplier une matrice A sur la gauche par Eij revient à échanger les lignes i
et j de A ; multiplier A sur la gauche par Ei (c) revient à multiplier la ligne i de A par
c ; et multiplier A sur la gauche par Eij (c) revient à ajouter c fois la ligne j à la ligne i.
( )( ) ( )
2 0 a11 a12 a13 2a11 2a12 2a13
Exemple 4.5.4. (1) E1 (2).A = =
0 1 a21 a22 a23 a21 a22 a23
1 0 0 a11 a12 a11 a12
(2) E23 .A = 0 0 1 a21 a22 = a31 a32
0 1 0 a31 a32 a21 a22
1 0 0 a11 a11
(3) E21 (9).A = 9 1 0 a21 = 9a11 + a21
0 0 1 a31 a31
Les opérations élémentaires sur les lignes sont réversibles. Ceci entraîne l’inversibilité
des matrices élémentaires.
Théorème 4.5.2. Toute matrice élémentaire est inversible. En particulier, on a : [Eij (c)]−1 =
Eij (−c); Eij −1 = Eij ; [Ei (c)]−1 = Ei ( 1c )
( ) ( )
1 0 1 0
Exemple 4.5.5. On a E21 (−4) = et E21 (4) = ; et
( )( ) ( )−4 ( 1 )( )4 1
1 0 1 0 1 0 1 0 1 0
= =
−4 1 4 1 0 1 4 1 −4 1
Définition 4.5.2. On dit que deux matrices sont équivalentes par lignes si l’une peut
être obtenue à partir de l’autre par une suite d’opérations élémentaires sur les lignes.
Théorème 4.5.3. Pour toute matrice A de taille n × n, les affirmations suivantes sont
équivalentes :
(a) A est inversible
(b) Le système AX = B a une et une seule solution pour toute matrice B de taille
n × 1. Cette solution est donnée par X = A−1 B ;
(c) AX = 0 n’a que la solution triviale X = 0 ;
(d) A est équivalente par lignes à In ;
(e) A est un produit de matrices élémentaires.
48
Calcul matriciel
49
Calcul matriciel
1 2 1 : 1 0 0
0 1 5 : 1 − 18 0
8 2
0 0 1 : −2 1 2
2 := l2 − 8 l3
5
l
1 2 1 : 1 0 0
0 1 0 : 7 − 43 − 54
4
0 0 1 : −2 1 2
1 := l1 − 2l2 − l3
l
1 0 0 : − 12 1
2
1
2
0 1 0 : 7 − 43 − 54
4
0 0 1 : −2 1 2
−2 2 2
−1 1
A =4 7 −3 −5
−8 4 8
50
Calcul matriciel
−1 0 0 ( )
2 0
Exemple 4.7.3. matrices diagonales : 0 6 0 , .
0 3
0 0 0
Théorème 4.7.1. Une matrice A de taille n×n, triangulaire est inversible si et seule-
ment si ses éléments diagonaux sont tous non nuls.
Preuve. Supposons que A est triangulaire supérieure.
Si les éléments de la diagonale sont tous non nuls, alors en multipliant chaque ligne
de i par l’inverse de l’élément diagonal aii , on obtient la forme échelonnée de A. Elle ne
contient que des 1 sur la diagonale. De ce fait, la forme échelonnée réduite de A sera la
matrice identité. Le théorème 5.5.3 permet de conclure que A est inversible.
Inversement, supposons qu’au moins l’un des éléments diagonaux soit nul et notons
amm le premier élément nul de la diagonale. En multipliant les lignes 1 à m − 1 par
l’inverse de leur élément diagonal, on obtient une matrice de la forme
1 ∗ ··· ··· ∗
.
0 .. ∗ ··· ∗
0 0 1 ∗ ··· ∗
0 ··· 0 0 ∗ ··· ∗
0 ··· 0 0 all · · · ∗
. . .. . . . ..
.. .. . ··· 0 .
0 ··· 0 ann
où l = m + 1.
Il est alors clair que la colonne m de la forme échelonnée réduite de A ne contiendra
pas un 1 directeur. La forme échelonnée réduite de A ne peut donc pas être In et par le
théorème 5.5.1, A n’est pas inversible.
Dans le cas d’une matrice triangulaire inférieure, on utilise la transposition qui fait
l’objet de la section suivante et on obtient une matrice triangulaire supérieure. On
applique alors la démonstration ci-dessus.
4.8 La transposition
Soit A la matrice de taille m × n définie par
a11 a12 · · · a1n
a21 a22 · · · a2n
A = .. .. ..
. . .
am1 am2 · · · amn
Définition 4.8.1. On appelle matrice transposée de A, la matrice notée AT ou t A de
taille n × m définie par :
a11 a21 · · · am1
a12 a22 · · · am2
A = .. .. ..
. . .
a1n a2n · · · amn
51
Calcul matriciel
52
Calcul matriciel
Preuve.
(a) Pour tout 1 6 i 6 n, (A+B)ii = Aii +Bii . Ainsi, on a trace(A+B)=trace(A)+trace(B) ;
(b) On a trace(λA) = λA11 + λA22 + ... + λAnn = λ(A11 + A22 + ... + Ann );
(c) Etant donné que la transposition ne change pas les éléments diagonaux, la trace de
A est égale à la trace de AT ;
(d) On a ABii = Ai1 B1i + Ai2 A2i + ... + Ain Bni .
Ainsi,
A11 B11 + A12 A21 + ... + A1n Bn1
+ A12 B21 + A22 A22 + ... + An2 B2n
trace(AB) = .. ..
. .
+ A1n Bn1 + A2n An2 + ... + Ann Bnn
On peut réarranger les termes pour obtenir :
53
Calcul matriciel
Exemple 4.11.1.
( ) ( ) 0 4 2
0 −1 0 0
; ; −4 0 −5
1 0 0 0
−2 5 0
Remarquons que les éléments diagonaux d’une matrice antisymétrique sont toujours
tous nuls.
Théorème 4.11.1. Toute matrice A de taille n × n est la somme d’une matrice symé-
trique B et d’une matrice antisymétrique C.
T T
Preuve. Posons B = A+A 2
; C = A−A2
. On a alors ; A = B + C ; et B est symétrique,
= B; et C est antisymétrique, car C T = (A −(A
T +(AT ))T T T ))T
car B T = (A
2 2
= −C.
( ) ( ) ( )
2 10 2 9 0 1
Exemple 4.11.2. Soit A = . Alors A = +
8 −3 9 −3 −1 0
| {z } | {z }
symétrique antisymétrique
4.12 Exercices
Exercice 1. Effectuer le produit des matrices :
( ) ( ) ( ) −1 −1 0 a b c 1 a c
2 1 1 −1 1 2 0
× ; × 1 4 −1 ; c b a × 1 b b
3 2 1 1 3 1 4
2 1 2 1 1 1 1 c a
Calculer M 2 , M 3 , M 4 , M 5 .
54
Calcul matriciel
1. Calculer AB.
2. Calculer BA.
3. Que remarque-t-on ?
1 0 0
Exercice 4. Trouver les matrices qui commutent avec A = 0 1 1 . De même
( ) 3 1 2
a b
avec A = .
0 a
0 1 1
Exercice 5. Soit A = 1 0 1 . Calculer A2 et vérifier que A2 = A + 2I3 , où I3
1 1 0
est la matrice identité 3 × 3. En déduire que A est inversible et calculer son inverse.
1 1 0
Exercice 6. 1. Soit A = 0 1 1 et soit B = A − I3 .
0 0 1
(a) Calculer B 2 , B 3 en déduire une formule de récurrence que l’on démontrera
pour B n , pour tout entier n.
(b) Développer (B + I3 )n par la formule du binome et simplifier.
(c) En déduire An Pour tout entier n.
1 1 1 1
0 1 1 1
2. Soit A =
0 0 1 1 . Pour tout entier n, calculer A en utilisant A − I4 .
n
0 0 0 1
1 0 0
Exercice 7. 1. On considère la matrice A = 0 1 1 .
3 1 1
1 1 1 1 1 1
(a) Soient B = 0 1 0 et C = 1 2 1
1 0 0 0 −1 −1
Montrer que AB = AC, a-t-on A = C ? A peut-elle être inversible ?
(b) Déterminer toutes les matrices F telles que A × F = O (O étant la matrice
dont tous les coefficients sont nuls).
1 2
2. Soit A = 3 4 . Déterminer toutes les matrices B telles que BA = I2 .
−1 4
3. Soient A et B deux matrices carrées n × n telles que AB = A + In .
Montrer que A est inversible et déterminer son inverse (en fonction de B).
55
Calcul matriciel
2. Montrer que si β est non nul, alors A est inversible et que A−1 est encore combi-
naison linéaire de A et In .
56
Calcul matriciel
( )
cos θ − sin θ
Exercice 15. Soit A(θ) = pour θ ∈ R. Calculer An (θ) pour n ∈ Z.
sin θ cos θ
0 0 0
Exercice 16. Soit A = −2 1 −1.
2 0 2
[Link] A3 − 3A2 + 2A.
[Link] est le reste de la division euclidienne de X n par X 3 − 3X 2 + 2X ?
[Link] An pour n ∈ N.
4.A est-elle inversible ?
1 1
1 2 3
Exercice 17. Discuter suivant les valeurs de λ ∈ R le rang de la matrice 12 1 1
.
3 4
1 1
3 4
λ
1 2 1
Exercice 18. Calculer l’inverse de 1 2 −1.
−2 −2 −1
Exercice 19. Déterminer l’ensemble des matrices M ∈ Mn (R) telles que :
∀H ∈ Mn (R), M H = HM.
Exercice 20. Soit J ∈ Mn (R) une matrice telle que : J 2 = I et
E = {A ∈ Mn (R)|∃(a, b) ∈ R2 ; A = aI + bJ}.
1. Montrer que E est un espace vectoriel stable par multiplication (Est-ce une al-
gèbre ?). En déduire que :
∀A ∈ E, ∀n ∈ N, ∃(an , bn ) ∈ R2 ; An = an I + bn J
et calculer les coefficients an et bn .
∑n
Ak
2. Soit Sn = k!
. Calculer (un , vn ) tel que Sn = un I + vn J en fonction de a et de b.
k=0
Calculer les limites de (un )n∈N et de (vn )n∈N . On pose eA = uI +vJ où u = lim un ,
n→∞
v = lim vn . Calculer e−A et le produit e−A eA .
n→∞
3. Application : ( ) ( )
0 1 a b
J= ,A = .
1 0 b a
Calculer eA .
Exercice 21. Calculer les puissances de :
( ) ( ) 1 1 1
a b a b
, , 0 1 1 .
0 a b a
0 0 1
57
Chapitre 5
Le déterminant
58
Le déterminant
De manière plus précise, le nombre d’inversions d’une permutation (j1 , j2 , ..., jn ) est
la somme du nombre de successeurs de j1 plus petits que j1 , plus le nombre de successeurs
de j2 plus petit que j2 , plus · · · , plus le nombre de successeurs de jn−1 plus petit que
jn−1 .
Exemple 5.1.4. La permutation (4, 2, 5, 3, 1) contient 7 inversions.
En effet, il y a 3 successeurs de 4 plus petit que 4, 1 successeur de 2 plus petit que 2,
2 successeurs de 5 plus petits que 5, 1 successeur de 3 plus que 3. En additionnant ces
nombres, on obtient bien 7.
Exemple 5.1.5. La permutation (6, 1, 3, 4, 5, 2) contient 5 + 0 + 1 + 1 + 1 = 8 inversions.
Définition 5.1.3. Une permutation ayant un nombre pair d’inversions est appelée une
permutation paire, sinon elle est appelée permutation impaire.
On définit {
la signature de la permutation σ comme suit :
1 si σ est paire
sign(σ) =
−1 si σ est impaire
Exemple 5.1.6. Classification des permutations de {1, 2, 3} :
59
Le déterminant
Définition 5.1.5. Un produit élémentaire signé d’une matrice A est un produit sign(σ) =
a1j1 × a2j2 × ... × anjn , où σ = (j1 , j2 , ..., jn ) est une permutation à n éléments.
sont a11 a22 (la permutation (1, 2) est paire) et −a21 a12 (la permutation (2, 1) est impaire).
Les produits élémentaires signés de
a11 a12 a13
A = a21 a22 a23
a31 a32 a33
sont a11 a22 a33 , −a11 a23 a32 , −a12 a21 a32 , a12 a23 a31 , a13 a21 a32 et −a13 a22 a31 .
Exemple 5.1.9. ( )
a11 a12
A=
a21 a22
det(A) = a11 a22 − a12 a21 .
Exemple 5.1.10.
a11 a12 a13
A = a21 a22 a23
a31 a32 a33
det(A) = sign((1, 2, 3))a11 a12 a33 + sign((2, 3, 1))a12 a23 a31 + sign((3, 1, 2))a13 a21 a32 +
sign((3, 2, 1))a13 a12 a31 + sign((2, 1, 3))a12 a21 a33 + sign((1, 3, 2))a11 a23 a32
= a11 a22 a33 + a12 a23 a33 − a12 a21 a33 − a11 a23 a32 .
Théorème 5.1.1. Si A est une matrice ayant une ligne de zéros, alors det(A) = 0.
Preuve. Par définition, le déterminant est la somme des produits élémentaires signés
de A. Mais chacun de ces produits élémentaires contient un élément nul provenant de
la ligne de zéros de A. Donc det(A) = 0.
60
Le déterminant
Preuve. Le seul produit élémentaire signé non nul est a11 a22 a33 ...ann . La permutation
correspondante est (1, 2, ..., n) qui contient 0 inversion et qui est donc une permutation
paire. On a donc bien det(A) = a11 a22 a33 ...ann .
Examinons maintenant ce qui se passe si deux lignes de la matrice sont égales.
Théorème 5.1.3. Soit A une matrice avec deux lignes égales. Alors det(A) = 0.
Preuve. Dans le déterminant d’une telle matrice, tous les produits élémentaires appa-
raissent deux fois, avec des signes opposés. Donc det(A) = 0.
Preuve.
(1) Soit k ∈ R, k ̸= 0. Rappelons que
1 0 ··· ··· ··· ··· 0
.. ..
0 . .
..
..
. 1
.
..
..
Ei (k) = . k .
.. ..
. 1 .
..
.
...
0
0 ··· ··· ··· ··· 0 1
∑
det(Ei (k)) = σ∈Sn sign(σ)a1j1 ...anjn où σ = (j1 , ..., jn ).
61
Le déterminant
Comme il n’y a qu’un seul élément non nul dans chaque ligne et dans chaque colonne,
le seul produit élémentaire non nul est 1 × . . . 1 × k × 1 × · · · × 1 = k.
De plus, la permutation (1, 2, ..., n) n’a pas d’inversion. Sa signature est donc 1. Ainsi
det(Ei (k)) = k.
(2) Sans perte de généralité, on peut supposer que i < j. On a :
1
..
.
0
1 1
..
Eij =
.
1 1
0
1
..
.
1
Comme avant, il y’a un seul produit élémentaire non nul, qui vaut 1. Le déterminant
sera donc ±1. Il reste à déterminer la signature de la permutation
(1, 2, ..., (i − 1), i, (i + 1), (i + 2), ..., (j − 1), j, (j + 1), ..., n)
j a j − i successeurs plus petits. Les nombres compris entre (i + 1) et (j − 1) ont
chacun un successeur plus petit. Or, il y a j − i − 1 nombres entre i et j. Ainsi, le
nombre d’inversions de la permutation est (j − i) + (j − i) − 1 = 2j − 2i − 1.
C’est un nombre impair. La signature est donc −1 et le déterminant de Eij est −1.
(3) En écrivant la matrice Eij (k). On voit que le seul produit élémentaire non nul est 1
et que la signature de la permutation à étudier est celle de (1, 2, ..., n). C’est une
permutation paire, ce qui implique que det(Eij (k)) = 1.
(4) Pour montrer que det(EA) = det(E)det(A), nous allons considérer trois cas, E =
Ei (k), E = Eij et E = Eij (k).
Premier cas : E = Ei (k), k ̸= 0 et A = (aij ).
a11 a12 · · · a1n
a21 a22 · · · a2n
.
. .. ..
. . .
EA =
kai1 kai2 · · · kain
. .. ..
.. . .
an1 an2 · · · ann
Le déterminant est la somme des produits élémentaires signés. Chaque produit élé-
mentaire a exactement un élément de chaque ligne, en particulier un élément de la
i-ème ligne. Ainsi, dans chaque
∑ terme de la somme. On peut mettre k en évidence.
Finalement, det(EA) = k σ∈Sn sign(σ)a1σ(1) . . . anσ(n) = det(E)det(A).
62
Le déterminant
Alors
∑
det(C) = ∑σ∈Sn sign(σ)b1σ(1) . . . bnσ(n)
= ∑σ∈Sn sign(σ)a1σ(1) . . . a(i−1)σ(i−1) (aiσ(i) + kajσ(j) )a(i+1)σ(i+1) . . . anσ(n)
= ∑σ∈Sn sign(σ)a1σ(1) . . . anσ(n)
+ k σ∈Sn sign(σ)a1σ(1) . . ∑ . a(i−1)σ(i−1) ajσ(i) a(i+1)σ(i+1) . . . anσ(n)
= det(A) + kα , avec α = σ∈Sn sign(σ)a1σ(1) . . . a(i−1)σ(i−1) ajσ(i) a(i+1)σ(i+1) . . . anσ(n)
Comme det(Eij (k)) = 1. Pour montrer que det(C) = det(A)det(Eij (k)) , il suffit
63
Le déterminant
et la i-ème ligne de cette matrice est aj1 ..., ajn . Elle a donc deux lignes identiques
(la i-ème et la j-ème), ce qui implique que α = 0.
64
Le déterminant
|A| = det(A).
Théorème 5.2.2. Soit A une matrice carrée. Alors A est inversible si et seulement si
det(A) ̸= 0.
On a, dans ce cas
1
det(A−1 ) =
det(A)
ou det(A−1 ) = (det(A))−1
Preuve. Supposons d’abord que A est inversible. On peut alors écrire A comme produit
de matrices élémentaires A = E1 ...Er . En appliquant successivement le théorème 5.2.1,
on a
Comme le déterminant d’une matrice élémentaire n’est jamais nul, on en déduit que
le déterminant de A n’est pas nul.
Ensuite, A−1 = Er−1 ...E1−1 , et on vérifie aisément que det(E −1 ) = det(E)−1 pour
toute matrice élémentaire E. On a donc
65
Le déterminant
Preuve. Si A et B sont toutes deux inversibles, on les écrit comme produit de matrices
élémentaires : A = E1 ...Er et B = F1 ...Fs . On a alors
Si A ou B n’est pas inversible, alors AB n’est pas inversible non plus ; et det(AB) = 0.
Théorème 5.2.4. Soit A une matrice de taille n×n. Alors, det(A) = det(AT ). Autre-
ment dit, le déterminant d’une matrice est égal à celui de sa transposée.
Preuve. La démonstration se fait comme ci-dessus : supposons d’abord que A est in-
versible. On peut alors l’écrire comme produit de matrices élémentaires A = E1 ...Er .
On a alors AT = ErT . . . E1T et |AT | = |ErT | . . . |E1T | = |Er |...|E1 | = det(A).
D’autre part, si A n’est pas inversible, alors AT n’est pas inversible non plus, et
|A| = |AT | = 0.
Comme la transposition transforme une ligne en une colonne (et réciproquement),
ce théorème nous permet de formuler le principe suivant :
Proposition 5.2.1. Pour toute propriété des déterminants où il est question des lignes
de la matrice, on a une propriété analogue concernant les colonnes de la matrice.
66
Le déterminant
- det(AT ) = det(A)
- A est inversible si et seulement si det(A) ̸= 0.
- Si A est inversible, alors det(A−1 ) = 1/det(A)
Matrices élémentaires :
- det(Ei (k)) = k
- det(Eij ) = −1
- det(Eij (k)) = 1
Si
↓
a11 a12 ··· a1j ··· a1n
a21 a22 ··· a2j ··· a2n
.. .. .. .. .. ..
A= . . . . . .
−→ ai1 ai2 ··· aij ··· ain
.. .. .. .. .. ..
. . . . . .
an1 ai1 ··· anj ··· ann
Les flèches ligne et colonne de la matrice A désignent respectivement la ligne i et la
colonne j à supprimer lors du calcul de Mij .
Alors
a11 · · · a1j−1 a1j+1 · · · an1
.. .. .. ..
. . . .
ai−11 · · · ai−1j−1 ai−1j+1 · · · ai−1n
Mij = det
ai+11 · · · ai+1j−1 ai+1j+1 · · · ai+1n
. .. .. ..
.. . . .
an1 · · · anj−1 anj+1 · · · ann
Exemple 5.3.1. Soit
1 2 3
A= 1 2 1
0 1 1
Calculons M11 , C11 , M32 , C32 :
67
Le déterminant
↓ ( )
−→ 1 2 3
Exemple 5.3.2. M11 = = det 2 1
= 1; C11 = (−1)1+1 M11 =
4 2 1 1 1
0 1 1
1.
↓ ( )
1 2 3
Exemple 5.3.3. M32 = = det 1 3
= −11; C32 = (−1)3+2 M32 =
4 2 1 4 1
−→ 0 1 1
11.
Pour déterminer si Cij = Mij ou Cij = −Mij , on peut utiliser le schéma suivant :
+ − + − ···
− + − + ···
A = + − + − ··· ,
.. .. .. ..
. . . .
Nous savons que det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 −
a33 a21 a12 .
On peut réécrire de la manière suivante :
det(A) = a11 (a22 a33 − a32 a23 ) + a12 (a23 a31 − a33 a21 ) + a31 (a12 a23 − a22 a13 ).
Les termes entre parenthèses sont des cofacteurs des éléments a11 , a12 et a13 . Donc
68
Le déterminant
De manière analogue, on a
det(A) = a11 C11 + a12 C12 + a13 C13
= a21 C21 + a22 C22 + a23 C23
= a31 C31 + a32 C32 + a33 C33
Nous avons vu que les propriétés du déterminant relatives aux lignes conduisant à des
propriétés analogues relatives aux colonnes. On a donc aussi
det(A) = a11 C11 + a21 C21 + a31 C31
= a12 C12 + a22 C22 + a32 C32
= a31 C31 + a23 C23 + a33 C33
Ces expressions sont appelées les développements du déterminant en cofacteurs par
rapport aux lignes, respectivement aux colonnes de la matrice A.
Pour une matrice A de taille n×n, on a des développements en cofacteurs analogues.
Nous résumons ceci dans le théorème suivant :
Théorème 5.3.1. (Déterminants par la méthode des cofacteurs).
Le déterminant par rapport à la i-ème ligne est donné par det(A) = ai1 Ci1 + ai2 Ci2 +
· · · + ain Cin
Le déterminant par rapport à la j-ème colonne est donné par : det(A) = a1j C1j +
a2j C2j + · · · + anj Cnj .
69
Le déterminant
et calculons
a11 a12 ··· a1n
a21 a22 ··· a2n C11 C21 ··· Cn1
.. .. .. C12 C22 ··· Cn2
. . .
AC T = .. .. ..
ai1 Ci2 ··· ain . . .
.. .. ..
. . . C1n C2n ··· Cnn
an1 an2 ··· ann
Dans le produit AC T , l’élément de la i-ème ligne et de la j-ème colonne est : ai1 Ci1 +
ai2 Ci2 + · · · + ain Cin . Par ce qui précède, on a donc
det(A) 0 ··· 0
0 det(A) · · · 0
AC T = .. . . . .. = det(A)I
. .
0 0 · · · det(A)
Exemple 5.3.5.
1 1 0
A= 0 1 1
1 0 1
70
Le déterminant
On a det(A) = 2.
La matrice formée des Mij est
1 −1 −1
M = 1 1 −1
1 0 1
On a donc
1 1 −1
adj(A) = C T = −1 1 1
1 −1 1
Donc
1 −1 1
1
A−1 = −1 1 −1
2
1 1 1
71
Le déterminant
Définissons Aj par
a11 ··· a1j−1 b1 a1j+1 ··· a1n
a21 ··· a2j−1 b2 a1j+1 ··· a2n
Aj = .. ..
. .
an1 ··· anj−1 bn anj+1 ··· ann
où la colonne contenant le vecteur B est la j-ème colonne.
Autrement dit, Aj est la matrice obtenue en remplaçant la j-ème colonne de A par
le second membre B. La règle de Cramer va nous permettre de calculer la solution du
système dans le cas où det(A) ̸= 0 en fonction des déterminants des matrices A et Aj .
Théorème 5.3.4. (Règle de Cramer) Soit
AX = B
un système de n équations linéaires à n inconnues. Supposons que det(A) ̸= 0. Alors
l’unique solution du système est donnée par x1 = det(A1)
det(A)
, x2 = det(A
det(A)
2)
, ...., xn = det(A n)
det(A)
.
Preuve. Nous avons supposé que
det(A) ̸= 0
. Donc A est inversible. Alors
X = A−1 B
est l’unique solution du système. D’autres part, nous avons vu que
1
A−1 = adj(A)
det(A)
Donc
1
X= adj(A)B
det(A)
Autrement dit, .
x1 C11 · · · Cn1 b1
.. ..
X = ... = det(A) .
1 ..
. .
xn C1n · · · Cnn bn
C11 b1 + C21 b2 + ... + Cn1 bn
..
det(A)
1
= .
C1n x1 + C2n x2 + ... + Cnn bn
C’est-à-dire que
C11 b1 +...+Cn1 bn
x1 = det(A)
.. .
. = ..
xi = C1i b1det(A)
+...+Cni bn
.. ..
. .
C1n b1 +C2n b2 +...+Cnn bn
xn = det(A)
72
Le déterminant
Mais C1i b1 + ... + Cni bn est le développement en cofacteurs de det(Ai ) par rapport à sa
i-ème colonne. Donc
det(Ai )
xi =
det(A)
On a
1 6 2 6 0 2
A = −3 4 6 , A1 = 30 4 6
−1 2 3 8 −2 3
1 6 2 1 0 6
A2 = −3 30 6 , A3 = −3 4 30
−1 8 3 −1 −2 8
et det(A) = 44, det(A1 ) = −10, det(A2 ) = 72, det(A3 ) = 152.
La solution est alors
x1 = det(A1 )
det(A)
= − 40
44
= −10
det(A2 ) 72 18
x2 = det(A)
= 14 = 11
det(A3 )
x3 = det(A)
= 152
44
38
= 11
5.4 Exercices
Exercice 1 Calculer les déterminants d’ordre trois suivants, en exprimant le résultat
sous forme factorisée, pour (a, b, c) ∈ R3 .
a b ab 1 a bc 1 1 1 2a a−b−c 2a
a) a c ac b) 1 b ca c) a2 b2 c2 d) b − c − a 2b 2b
b c bc 1 c ab 3 3
a b c 3
2c 2c c−a−b
2
0 a b 1 a a 1 a a 1 2 102
e) −a 0 c f) a 2 a g) a a a2 h) 3 4 304 .
−b −c 0 a a a a2 a2 a2 5 6 506
73
Le déterminant
74
Chapitre 6
Espaces vectoriels
75
Espaces vectoriels
f +g A −→ E
sur K par les lois : si f, g ∈ S et λ ∈ K, alors ,
a 7−→ f (a) + g(a)
λ.f A −→ E
;
a 7−→ λ.f (a)
6) Soient E1 et E2 deux espaces vectoriels sur K. On définit une structure d’espace
vectoriel sur E1 ×E2 par : (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) et λ.(x1 , y1 ) =
(λ.x1 + λ.y1 ), avec λ ∈ K. D’une manière analogue, E1 ×... × En , est un espace
vectoriel sur K si E1 , ..., En le sont.
Preuve.
1) λ.(0 + 0) = λ.0 + λ.0 = λ.0 =⇒ λ.0 = 0 et (0 + 0).x = 0.x + 0.x = 0.x =⇒ 0.x = 0;
2) λ.x = 0, si λ ̸= 0, alors λ−1 λx = 0 =⇒ x = 0;
3) (λ + (−λ))x = λx + (−λ)x = 0 =⇒ (−λx) = −(λx).
76
Espaces vectoriels
Preuve. Exercice.
Remarque 6.2.1. Cette proposition est équivalente à la précédente.
Exemple 6.2.1. 1) Droite vectorielle : Soit E un espace vectoriel et v ∈ E tel que
v ̸= 0, alors F = {y ∈ E/∃λ ∈ K; y =λ.v} est un sous-espace vectoriel de E dit
droite vectorielle engendrée par v ;
2) Soient x1 , x2 ∈ E et F = {y ∈ E/∃λ1 , λ2 ∈ K; y =λ1 .x1 + λ2 .x2 }, F est un sous-
espace vectoriel engendré par x1 et x2 ;
3) Rn [X] = {polynômes P ∈ R[X]; degP 6 n} est un sous espace-vectoriel de R[X];
4) Soit F = {(x, y, z) ∈ R3 /2x + y + 3z = 0} est un sous-espace vectoriel de R3 .
Proposition 6.2.3. Soient F et G deux deux sous-espaces vectoriels de E.
1) F ∩ G est un sous-espace vectoriel de E;
2) F ∪ G n’est pas en général un sous-espace vectoriel de E ;
3) Le complémentaire (E − F) d’un sous-espace vectoriel F n’est pas un sous-espace
vectoriel de E.
Preuve.
1) F ∩ G ̸= ∅, car 0 ∈ F ∩ G. x, y ∈ F ∩ G et λ, µ ∈ K =⇒ (x, y ∈ F, λ, µ ∈ K) et
(x, y ∈ G, λ, µ ∈ K) =⇒ λ.x + µ.y ∈ F ∩ G;
2) On prend F * G et G * F, il existe donc x ∈ F; x ∈ / G, et y ∈ G; y ∈/ F; on a
donc x, y ∈ F ∪ G; si F ∪ G est un sous-espace vectoriel, alors x + y ∈ F ∪ G;
c.à.d x + y ∈ F ou x + y ∈ G. Si x + y ∈ F, alors (x + y) − x ∈ F =⇒y ∈ F;
contradiction. Si x + y ∈ G, alors (x + y) − y ∈ G =⇒x ∈ G; contradiction.
3) Le complément (E − F) ne contient pas 0, donc n’est pas un sous-espace vectoriel.
77
Espaces vectoriels
4) Dans Rn , {(1, 0, ..., 0); ...; (0, ..., 0, 1)} est une famille génératrice.
Définition 6.3.2. Un espace vectoriel est dit de dimension finie s’il existe une famille
génératrice fini. Dans le cas contraire, on dit qu’il est de dimension infinie.
Exemple 6.4.1. 1) Dans R3 , les vecteurs v1 = (1, 2, 1), v2 = (−1, 3, 1) et v3 = (−1, 13, 5)
sont liés car 2v1 + 3v2 − v3 = 0 ;
2) Dans R3 , les vecteurs v1 = (1, 1, −1), v2 = (0, 2, 1) et v3 = (0, 0, 5) sont linéairement
indépendants.
Proposition 6.4.1. Une famille {v1 , ..., vp } est liée si et seulement si l’un au moins des
vecteurs vi s’écrit comme combinaison linéaire des autres vecteurs de la famille.
Proposition 6.4.2. Soit {v1 , ..., vp } une famille libre et x un vecteur quelconque de
l’espace engendré par les vi (c’est-à-dire x est une combinaison linéaire des vi ), alors la
décomposition de x sur les vi est unique.
Proposition 6.4.3. Soit {v1 , ..., vn } une base de E. Tout x ∈ E se∑ décompose d’une
façon unique sur les vi , c.à.d ∀x ∈ E, ∃!(λ1 , ..., λn ) ∈ K tel que x = ni=1 λi vi .
n
78
Espaces vectoriels
Proposition 6.4.4. Soit B = {v1 , ..., vn } une base de E. Il existe alors une bijection
ρB : E ∑ −→ Kn
x = ni=1 λi vi 7−→ (x1 , ..., xn )
79
Espaces vectoriels
b) L1 = {v1 } est une famille libre, si elle est génératrice, alors elle est une base de E.
c) Supposons que L1 est non génératrice. Montrons qu’il existe v∗ ∈ {v1 , ..., vp } tel que
{v1 , v∗ } soit libre.
Supposons le contraire, c-à-d v1 est lié à chacun des vi , i = 2, ..., p ; alors il existe
λ2 , ..., λp tels que v2 = λ2 v1 , ..., vp = λp v1 ; alors
∑i=p
x = i=1 αi∑
vi
i=p
= α1 v1 + i=2 αλv
∑i=p i i 1
= (α1 + i=2 αi λi )v1
ce qui entraîne {v1 } génératrice de E, ce qui est absurde. La famille {v1 , v∗ } est
donc libre, en changeant éventuellement de notation, on peut supposer v∗ = v2 .
d) Si L1 = {v1 , v2 } est génératrice de E, alors on a terminé. Supposons le contraire.
En répétant le même raisonnement que précédemment, on voit qu’il existe v∗ ∈
{v3 , ..., vp } tel que la famille L2 = {v1 , v2 , v∗ } est libre. On construit ainsi une suite :
L1 L2 L3 ... ⊂ G de famille libres et de processus peut être continué étant
donné que Lk n’est pas génératrice. Mais G est une famille finie et pat conséquent
le processus doit s’arrêter, éventuellement pour Lk = G. Il existe donc une famille
Lk libre et génératrice.
Preuve. Soit F = {v1 , ..., vn }une famille génératrice et F ′ = {w1 , ..., wm } une famille
de vecteur (m > n). Montrons que F ′ est liée.
1) Si l’un des wi=0, alors F ′ est liée et on a fini ;
2) Supposons que tous les wi non nuls, w1 = α1 v1 + ... + αn vn , avec w1 ̸= 0 =⇒ ∃αi ̸= 0,
quitte à changer la numérotation, supposons α1 ̸= 0 d’où α11 w1 −( αα21 v2 +...+ ααn1 vn );
Pour x ∈ E, x = λ1 v1 + ... + λn vn , en remplaçant v1 par son expression, on constate
que x est combinaison linéaire de w1 , v2 , ..., vn , d’où {w1 , v2 , ..., vn } est génératrice.
Considérons w2 tel que w2 = β1 w1 + β2 v2 + ... + βn vn . Si β1 = β2 = ... = βn = 0, alors
w2 = β1 w1 . D’où F ′ est liée et la démonstration est terminée.
80
Espaces vectoriels
Supposons que l’un des βi ̸= 0. Pour fixer les idées, disons β2 , on aura v2 = 1
w
β2 2
−
1
β2
(β1 w1 + β3 v3 + ... + βn vn ).
En raisonnant comme ci-dessus, on voit que {w1 , w2 , v3 , ..., vn } est génératrice.
Ainsi, de proche en proche, on arrive à remplacer v1 , ..., vn par w1 , ..., wn et {w1 , w2 , ..., wn }
serait génératrice. En particulier, wn+1 serait combinaison linéaire de w1 , ..., wn et
donc F ′ est liée.
Théorème 6.6.2. Dans un espace vectoriel E sur K de dimension finie, toutes les bases
ont le même nombre d’éléments, ce nombre entier est appelé dimension de E sur K et
est noté dimK (E).
Preuve. Soient B et B ′ deux bases. Si B ′avait plus d’élément que B. Elle ne serait pas
libre car B est génératrice.
Corollaire 6.6.1. Dans un espace vectoriel de dimension finie n, toute famille de plus
de n éléments est liée, et une famille de moins de n éléments ne peut être génératrice.
Preuve. Pour le 2ième point, si la famille était génératrice, on pourrait en extraire
d’après un théorème du paragraphe 5, une base qui aurait moins de n éléments.
Exemple 6.6.1. 1) Si E = {0}, on pose dimK (E) = 0, et E = {0} ⇐⇒ dimK (E) = 0;
2) dimK (Kn ) = n;
3) dimR (Rn [X]) = n + 1;
4) La dimension d’un espace vectoriel dépend non seulement de E mais aussi de K,
dimR C = 2 et dimC C = 1.
Proposition 6.6.1. Soient E1 , ..., Ep des espaces vectoriels de dimension finie sur le
même corps K, alors dimK E1 × ... × Ep = dimK E1 + ... + dimK Ep .
Preuve. Soient {a1 , ..., an1 }, {b1 , ..., bn2 }, ..., {l1 , ..., lnp } des bases de E1 , ..., Ep respec-
tivement. La famille {(ai , 0, ..., 0)i=1,...,n1 , (0, bi , 0, ..., 0)i=1,...,n2 , ..., (0, 0, ..., li )i=1,...,np } est
une base de E1 × ... × Ep .
Exemple 6.6.2. dimR Cn = 2n et dimC Cn = n
Théorème 6.6.3. Soit E un espace vectoriel de dimension finie n. Alors
1) Toute famille génératrice de n éléments est une base,
2) Toute famille libre de n éléments est une base.
Preuve.
1) De cette famille, on peut extraire une base à n élément, et donc elle même.
2) Cette famille peut être complétée pour former une base à n éléments, et donc elle
même.
81
Espaces vectoriels
82
Espaces vectoriels
Preuve. =⇒) Soit B1 = {v1 , ..., vp }, et B2 = {vp+1 , ..., vq } des bases de E1 et E2 res-
pectivement. Alors tout x ∈ E s’écrit de manière unique sous la forme x = α1 v1 + ... +
αp vp + λ1 vp+1∑ vq =⇒ B1 ∪ B2 est une base de E.
+ ... + λq−p ∑
⇐=) x = i=1 αi vi + q−p
p
j=1 λj vp+j ∈ E1 + E2
∈E1 ∈E2
∈E1 ∈E2
λi = 0 ∀i = 1, ..., p et ∀j = 1, ..., n − p, et d’après la proposition précédente E = E1 ⊕ E2 .
Exemple 6.7.1.
Exemple 6.7.2.
1) Dans R2 , E1 = {v}et E2 = {w} où v et w sont deux vecteurs indépendants ;
2) Dans R3 , soit π un plan vectoriel et v ∈ / π. On a R3 = π ⊕ {v}, car si {v1 , v2 } est
une base de de π, alors {e1 , e2 , v} est une base de R3 .
3) E = Rn [X], E1 = R, E2 = {XP (X)/P ∈ Rn−1 [X]}, E1 ∩ E2 = {0} et E = E1 + E2 ,
d’où E = E1 ⊕ E2 .
83
Espaces vectoriels
Exercice 1.
1) Dans chacun des cas suivants, justifier si la partie considérée est un sous-espace
vectoriel.
1.A = {(x, y) ∈ R2 : x2 − y 2 = 0} ; 2.B = {(x, y) ∈ R2 : x2 + y 2 = 0} ;
3.C = {(x, y) ∈ R2 : x − y = 0} ; 4.D = {(a + b, a − b, a) : (a, b) ∈ R2 } ;
5.E = {(1 + x, y) : (x, y) ∈ R2 } ; 6.F = Z2 .
2) On note RR l’ensemble des fonctions numériques. Déterminer si les parties sui-
vantes sont des sous-espaces vectoriels de RR :
1.A = {f ∈ RR : f continue } ; 2.B = {f ∈ RR : f paire } ; 3.C = {f ∈ RR :
f impaire }
3) On note RN l’espace vectoriel des suites réelles. Les parties suivantes sont-elles de
sous-espaces vectoriels de RN :
1.A = {(un )n∈N ∈ RN : (un )n∈N bornée } ; 2.B = {(un )n∈N ∈ RN : (un )n∈N monotone } ;
3.C = {(un )n∈N ∈ RN : (un )n∈N convergente } ; 4.D = {(un )n∈N ∈ RN : (un )n∈N arithmétique } ;
5.E = {(un )n∈N ∈ RN : ∀ n ∈ N, un+2 = −un+1 + n+1 1
un }.
4) Exprimer le polynôme V = X −4X−3 comme combinaison linéaire des polynômes
2
suivants : P1 = X 2 − 2X + 5, P2 = X + 3 et P3 = 2X 2 − 3X.
5) Déterminer les réels a et b pour que(la matrice
) M soit ( combinaison
) linéaire
( des
) ma-
4 7 1 1 1 2
trices A, B et C suivantes : M = ,A = ,B = ,C =
( ) 7 9 1 1 3 4
1 a
4 b
84
Espaces vectoriels
Exercice 2.
Dans R2 , on considère les vecteurs suivants : u1 = (1, −2), u2 = (3, −4), v1 = (1, 3) et
v2 = (3, 8). On pose B = (u1 , u2 ) et B ′ = (v1 , v2 ).
1. Trouver les coordonnées de v = (a, b) dans la base B.
2. Trouver la matrice de passage P de la base B à la base B ′ .
3. Trouver les coordonnées de v = (a, b) dans la base B ′ .
4. Trouver la matrice de passage Q de la base B ′ à la base B.
85
Espaces vectoriels
5. Vérifier que Q = P −1 .
Exercice 3.
Exercice 4.
Exercice 5.
86
Espaces vectoriels
Exercice 6.
Soit λ un paramètre réel. On considère dans l’espace vectoriel R4 les vecteurs sui-
vants : u = (1, −1, 2, 2), v = (1, 1, 0, 2) et wλ = (1, −3, 4, λ).
1. Déterminer, suivant les valeurs de λ, une base et la dimension du sous-espace Fλ
engendré par les vecteurs u, v et wλ .
2. Soit G = {(x, y, z, t) ∈ R4 |x+y−2z+2t = 0}. Déterminer une base et la dimension
de G.
3. Déterminer G ∩ F0 .
4. En déduire G + F0 . Les sous-espaces G et F0 sont-ils supplémentaires ?
5. Existe-t-il une valeur de λ pour laquelle Fλ et G sont supplémentaires ?
6. Déterminer un supplémentaire de G ∩ F0 dans R4 .
Exercice 7.
Exercice 8.
Soit E lesous-ensemble
des matrices
carrées d’ordre 3
défini par :
x − y y − z 2z
E = M = 2x x + y −y : x, y, z ∈ R .
y z x
1. Déterminer trois matrices qui appartiennent à E.
2. Montrer qu’il existe trois matrices A, B et C telles que pour toute matrice M ∈ E,
on ait M = xA + yB + zC.
87
Espaces vectoriels
Exercice 9.
Les familles suivantes sont-elles des familles libres de l’espace vectoriel indiqué ?
1. (f (x) = (x − 1)2 , g(x) = (x − 2)2 , h(x) = (x − 3)2 ) dans RR .
2. (f (x) = cosx, g(x) = cos(3x), h(x) = cos3 x) dans RR .
3. ((1)n∈N , (cos2 (n))n∈N , (cos(2n))n∈N ) dans RN .
4. ((2n )n∈N , (3n )n∈N , (n)n∈N ) dans RN .
Exercice 10.
Montrer que la famille (x 7→ sin(nx))n∈N∗ est libre dans RR (on pourra dériver deux
fois).
Exercice 11.
{ }
∑
Soient E = (x1 , . . . , xn ) ∈ Kn : xk = 0 et F = {(x, x, . . . , x) : x ∈ K}.
16k6n
1. Montrer que E et F sont des sous-espaces vectoriels supplémentaires de Kn .
2. Déterminer une base de E et de F .
Exercice 12.
88
Chapitre 7
Applications linéaires
K désignera un corps.
89
Applications linéaires
Preuve. On sait que f (F) est un sous-espace vectoriel de E′ , il suffit donc de vérifier
de stabilité pour l’opération externe. Soit donc λ ∈ K et f (v) ∈ f (F). Alors λf (v) =
f (λv) ∈ f (F).
90
Applications linéaires
En particulier si f est une application linéaire injective, l’image d’une base de E est
une base de E′ .
Preuve.
∑
1) Comme f est une application linéaire injective, alors on a : ni=1 λi f (vi ) = 0
∑
=⇒ f∑( ni=1 λi f (vi )) = 0 (car f est une application linéaire)
n
=⇒ i=1 λi vi = 0
=⇒ λi = 0 ∀i = 1, ..., n et {vi }16i6n libre
∑n
2) ∀x ∈ E, ∃λi ∈ K; x = i=1 λi v i .
∑ ∑
Soit ∀y ∈ E′ , ∃x ∈ E; y = f (x) = f ( ni=1 λi vi ) (surjective), d’où y = ni=1 λi f (vi ).
Théorème 7.2.1. Deux espaces vectoriels de dimension finie sont isomorphes, si et
seulement si, ils ont même dimension.
Preuve.
=⇒) Si f : E −→ E′ est un isomorphisme, d’après la proposition précédente, l’image
d’une base de E est une base de E′ , et donc E et E′ ont la même dimension.
⇐=) Supposons que dimE = dimE′ , et soit {e1 , ..., en } une base de E, et {e′1 , ..., e′n }
f : E −→ E′
une base de E′ . Considérons l’application ′ .
∑n ∑n ek 7→ ∑nek
Pour x = i=1 λi ei , on pose f (x) = f ( i=1 λi ei ) = i=1 λi e′i , on vérifie que f est
linéaire et bijective.
Corollaire 7.2.1. Soit E un espace vectoriel de dimension finie sur K. Alors E est
isomorphe à Kn , c’est-à-dire que dimK E = n.
Théorème 7.2.2. (théorème de la dimension) : Soient E et E′ deux espaces vectoriels
de dimensions finie et f ∈ L(E, E′ ), alors dimE = dim(kerf ) + dim(Imf ).
Preuve. Supposons que dimE = n, dim(kerf ) = r et montrons que dim(Imf ) = n − r.
Soit donc {w1 , ..., wr } une base de kerf . Complétons la pour obtenir une base de E,
en l’occurrence {w1 , ..., wr , v1 , ..., vn−r }. Montrons que B = {f (v1 ), ..., f (vn−r )} est une
base de Imf .
∑ ∑ ∑n
1) B engendre Imf . En effet, f (x) = f ( ri=1 αi wi + n−r i=1 λi vi ) = i=1 λi f (vi ).
∑n
2) B est libre. En effet, i=1 λi f (vi ) = 0
∑
=⇒ f ( n−r λv) = 0 car est linéaire
∑n−ri=1 i i
=⇒ λ v ∈ kerf
∑i=1n−r
i i
∑r
=⇒ λi v i = i=1 αi wi
∑n−ri=1 ∑r
=⇒ i=1 λi vi − i=1 αi wi = 0
=⇒ λi = 0 ∀i = 1, ..., n − r et αi = 0 ∀i = 1, ..., r
91
Applications linéaires
1) f est injective ;
2) f est surjective ;
3) f est bijective.
D: R[X] −→ R[X]
P 7→ D(P ) = P ′
Définition 7.3.1. On appelle matrice de f dans les bases {e1 , ..., en } et {e′1 , ..., e′p },
la matrice notée par M (f, (ei ), (e′j )) appartenant à Mp,n (K) dont les colonnes sont les
composantes des vecteurs f (e1 ), ..., f (en ) dans la base {e′1 , ..., e′p }.
a11 a21 ... a1n
.. ..
. .
Mp,n (K) = .. ..
. .
ap1 ap2 ... apn
92
Applications linéaires
idE : E −→ E
Exemple 7.3.1. 1) Soit E un espace vectoriel de dimension n et .
x 7−→ x
On considère une base {ei } de E. Alors
1 0 ... ... 0
0 1 0 ... 0
.. ..
M (idE )ei = . . = In
..
. 0
0 0 ··· ··· 1
f: R3 −→ R2
(x, y, z) 7−→ (x − y, z − y)
Alors ( )
1 −1 0
M (f, (ei ), (e′j ) =
0 −1 1
4) On considère la forme linéaire Rn :
f : Rn −→ ∑
R
(x1 , ..., xn ) 7−→ n
i=1 ai xi
93
Applications linéaires
Preuve.
94
Applications linéaires
Proposition 7.4.1. Soient f ∈ L(E, E′ ), {e1 , e2 , ...., en } et {e′1 , e′2 , ...., e′n } deux bases de
E et E′ respectivement. Pour tout x ∈ E, on a ; M (f (x))(e′j ) = M (f, (ei ), (e′j ))M (x)(ei )
a11 a12 ... ... a1n
a21 a2n
Preuve. Soit M (f, (ei ), (ej )) = .. .. , c’est-à-dire que f (ej ) =
. .
a ... ... ... apn
∑p ′
∑np1 ∑n ∑p ∑n
a e . Alors on a f (x) = f ( j=1 j ej ) =
x j=1 x j f (ej ) = ( x a )e′ =
k=1 kj k k=1 j=1 j kj k
y1
∑p ′
∑n .. .
k=1 yk ek , avec yk = j=1 xj akj . Donc M (f (x))(ej ) = .
′
yp
a11 a12 ... ... a1n x1
a21 a2n .
..
D’autre part, M (f, (ei ), (ej ))M (x)(ei ) = .. .. . =
. . ..
ap1 ... ... ... apn xn
∑n
j=1 a1j xj
..
.
. d’où le résultat.
..
∑n
j=1 apj xj
Exemple 7.4.1. Soit le plan rapporté à sa base canonique. Déterminer l’image du vec-
teur x = (3, 2) par la rotation de centre O et d’angle π6 . On a
M (f (x)) = M ( (f )Mπ(x) )( )
cos( 6 ) −sin( π6 ) 3
= π π
( sin(
√ 6
) cos(
) (6 ) ) 2
2
3
−
√2
1
3
= 1 3 2
( 2√ 2)
3 3−2
= √2
2 3+3
2
95
Applications linéaires
idE ↓ ↓ idE′
f
E(εi ) E′ (ε′j )
−→
96
Applications linéaires
On a f ◦ idE = idE′ ◦ f, d’où M (f ◦ idE ) = M (idE′ ◦ f ), c’est-à-dire que M (f, (εi ), (ε′j )) ×
M (idE , (ei ), (εi )) = M (idE ′ , (e′j ), (ε′j )) × M (f, (ei ), (e′j )), c’est-à-dire que A′ P −1 = Q−1 A,
donc A′ = Q−1 AP .
Corollaire 7.6.1. Soient f ∈ L(E) et {e1 , ..., en }, {e′1 , ..., e′p } deux bases de E. Notons
A = M (f, (ei )), A′ = M (f, (e′i )) et P = P(ei )−→(e′i ) . On a alors A′ = P −1 AP .
Définition 7.6.2. Deux matrices A, A′ ∈ Mn (K) sont dites semblables s’il existe une
matrice P ∈ Mn (K) inversible telle que : A′ = P −1 AP.
( de R qui
) dans la base canonique {ei } est
2
Exemple 7.6.2. Soit f un endomorphisme
3 −1
représenté par la matrice : A = M (f )ei = .
0 2
Déterminons la matrice A′ qui représente f dans la base e′1 = (0, −1) et e′2 = (1, 1).
On a
A′ = P −1
( AP ) ( )( )
1 −1 3 −1 0 1
=
( 1 0 ) ( 0 2 ) −1 1
3 −3 0 1
=
( 3 −1 ) −1 1
3 0
=
1 2
97
Applications linéaires
Preuve.
1) rangf = dimf (E) = dimf (g(G)) = dim(f ◦ g)(E) = rang(f ◦ g);
2) Soit {vi } avec vi = g(wi ) une base de Img, alors f (vi ) = (f ◦ g)(wi ). Comme f
est injective, {f (v∑ ∑et engendre Im(f ◦ g) car y ∈ Im(f ◦ g) =⇒ ∃x;
i )} est libre
y = f (g(x)) = f ( αi vi ) = αi f (vi ), donc {f (vi )} est une base de Im(f ◦ g),
∈Img
d’où rangg = rang(f ◦ g).
On en déduit qu’en composant à gauche ou à droite par une application linéaire bijec-
tive, le rang ne change pas.
Preuve. Il suffit de montrer que {v1 , ..., vn } est libre si et seulement si det//v1 , ..., vn //(ei ) ̸=
0. ∑i=n ∑i=n ∑i=n ∑i=n
⇐=)∑n i=1 αi v i = 0, posons v
∑n i = k=1 α ki e ∑n
k . Alors on a i=1 ∑ αi ( k=1 αki ek ) = 0,
n
d’où α α e = 0 =⇒ α α = 0, α α = 0, ..., i=1 αi αni = 0 =⇒
i,k=1 i ki k i 1i
i=1 i=1 i 2i
a11 a12 · · · a1n α1 0
a21 a22 · · · a2n α2 0
.. .. .. = .. (4.1)
. ··· . . .
an1 an2 · · · ann αn 0
d’où αi = 0 ∀i = 1, ..., n.
=⇒) Si det//v1 , ..., vn //(ei ) = 0 =⇒ le système homogène (4.1) admet une infinité de
solutions, d’où {v1 , ..., vn } est liée.
Théorème 7.8.2. Soient {v1 , ..., vn } r vecteurs d’un espace vectoriel E de dimension n
(r 6 n) et A = //v1 , ..., vn //, où A ∈ Mn,r (K).
98
Applications linéaires
Preuve. =⇒) Si l’un des bordant est non nul, la famille {v1 , ..., vn , w} est libre.
..
.a · · · a1,r b1
. 1,1
.. ··· .
.. ..
.
a · · ·
⇐=) On considère la matrice B = a
r,1 a r,r b r
r+1,1 · · · ar+1,r br+1
. . ..
.. · · · .. .
an,1 · · · an,r bn
Quitte à changer l’ordre des lignes et des colonnes, on peut supposer que le mineur δ
non nul est le mineur de la sous matrice (aij )i,j∈[r]×[r] de B. Les r premiers vecteurs lignes
de B sont indépendants, et chacun des autres est lié à ces derniers. Ainsi, rangB = r,
donc les vecteurs colonnes de B forment une famille de rang r et comme {v1 , ..., vr } est
libre, w ∈< v1 , ..., vn > .
α
2
Exemple 7.8.1. Pour quelles valeurs de α, β ∈ R le vecteur w =
1 appartient-il
β
1 0
0
au sous-espace de R4 engendré par les vecteurs v1 = 1
1 et v2 = 0 ?
0 1
1 0 ( ) 1 0 α
0 1 0 1 2
Posons A = , δ = det 1 0 = 1 ̸
= 0 et B =
1 0 0 1 1 0 1 .
0 1 0 1 β
99
Applications linéaires
1 0 α ( )
1 α
Les bordant de δ sont △1 = det 0 1 2 = det = 1 − α et △2 =
1 1
1 0 β
1 0 α ( )
β 2
det 0 1 2 = det = β − 2. Donc w ∈< v1 , v2 > si et seulement si
1 1
0 1 β
α = 1 et β = 2.
Preuve.
a1,1 · · · a1,r · · · a1n
.. . .
. · · · .. · · · ..
ar,1 · · · ar,r · · · arn
⇐=) A = //v1 , ..., vn // = .
ar+1,1 · · · ar+1,r · · · ar+1,n
. . .
.. · · · .. · · · ..
ap,1 · · · ap,r · · · apn
Soit δ le mineur encadré. Les vecteurs {v1 , ..., vr } sont alors indépendants et chaque
vecteurs vs (s > r + 1) appartient à l’espace < v1 , ..., vr >. Donc les vecteurs colonnes
engendrent un espace de dimension r, d’où rangA = r.
=⇒) Quitte à changer l’ordre des colonnes de A, on peut supposer que {v1 , ..., vr } est
libre. On peut alors extraire de la matrice formée par les r premières colonnes de A un
mineur δ d’ordre r non nul. Quitte à changer la numérotation des coordonnées, on peut
supposer que δ soit le mineur formé par les r premières colonnes de A. Or rangA = r,
d’où vs ∈< v1 , ..., vr > pour s > r + 1; d’après le théorème 4.9.3 tous les bordants de δ
sont nuls.
Théorème 7.8.5. Le rang d’une matrice A est l’ordre maximal des mineurs non nuls
extraits de A, c’est-à-dire
{ que :
1) Il existe un mineur d’ordre r non nul
rangA = r ⇔
2) Tous les mineurs d’ordre s > r sont nuls
Preuve.
=⇒) S’il existait un mineur d’ordre s > r non nul, on pourrait extraire des colonnes
de A une famille libre formée de s > r vecteurs, or ce ci est impossible car les vecteurs
colonnes de A engendrent un espace de dimension r.
⇐=) Découle du théorème 4.9.4.
7.9 Exercices
Exercice 22. Notations :
C : ensemble des fonctions numériques continues sur [0, 1].
100
Applications linéaires
Cd : ensemble des fonctions numériques ayant une dérivée continue sur [0, 1].
C(R) et C 1 (R) : définis de façon analogue pour les fonctions définies sur R.
P : ensemble des polynômes sur R.
Pn : ensemble des polynômes sur R, de degré 6 n.
Dire si les applications suivantes sont des applications linéaires :
1. R → R : x 7→ 2x2 .
2. R → R : x 7→ 4x − 3.
√
3. R → R : x 7→ x2 .
4. R2 → R2 : (x, y) 7→ (y, x).
5. C → C : f 7→ {t 7→ f (t)
1+t2
}.
6. C → R : f 7→ f (3/4).
∫1
7. C → R : f 7→ f (1/4) − 1/2
f (t) dt.
8. R2 → R : (x, y) 7→ 3x + 5y.
√
9. R2 → R : (x, y) 7→ 3x2 + 5y 2 .
10. R2 → R : (x, y) 7→ sin(3x + 5y).
Exercice 24. Déterminer si les applications fi suivantes (de Ei dans Fi ) sont linéaires :
f3 : (x, y, z) ∈ R3 7→ (2x + y + z, y − z, x + y) ∈ R3
f4 : P ∈ R[X] 7→ P ′ ∈ R[X], f5 : P ∈ R3 [X] 7→ P ′ ∈ R3 [X]
f6 : P ∈ R3 [X] 7→ (P (−1), P (0), P (1)) ∈ R3 , f7 : P ∈ R[X] 7→ P − (X − 2)P ′ ∈ R[X].
101
Applications linéaires
Exercice 28. Vérifier que les applications suivantes sont linéaires et déterminer leur
noyau et leur image :
φ RN → RN
u = (un )n∈N 7→ φ(u) = (un+1 )n∈N
ψ RN → RN
u = (un )n∈N 7→ ψ(u) = (un+1 − 2un )n∈N
F RR → RR
f 7→ F (f ) = g
où g(x) = f (x) + f (−x)
G RR → R
f 7→ G(f ) = f (1)
Exercice 32. Soit E l’espace vectoriel des polynômes de degré inférieur ou égal à n.
Pour p 6 n on note ep le polynôme x 7→ xp . Soit f l’application définie sur E par
f (P ) = Q avec Q(x) = P (x + 1) + P (x − 1) − 2P (x).
1. Montrer que f est une application linéaire de E dans E.
2. Calculer f (ep ) ; quel est son degré ? En déduire ker f , Im f et le rang de f .
3. Soit Q un polynôme de Im f ; montrer qu’il existe un polynôme unique P tel que :
f (P ) = Q et P (0) = P ′ (0) = 0.
102
Applications linéaires
103
Applications linéaires
Exercice 45. Soit (e⃗1 , e⃗2 , e⃗3 ) une base de R3 , et λ un nombre réel. Démontrer que la
donnée de
ϕ(e⃗1 ) = e⃗1 + e⃗2
ϕ(e⃗2 ) = e⃗1 − e⃗2
ϕ(e⃗3 ) = e⃗1 + λe⃗3
définit une application linéaire de R3 dans R3 . Ecrire l’image du vecteur ⃗v = a1 e⃗1 +
a2 e⃗2 + a3 e⃗3 . Comment choisir λ pour que ϕ soit injective ? surjective ?
Exercice 48. Soit f ∈ L(E) non nul ; montrer que f est injective si et seulement si pour
tout couple (E1 , E2 ) de sous-espaces supplémentaires de E, la somme f (E1 ) + f (E2 ) est
directe (i.e. f (E1 ) et f (E2 ) sont supplémentaires).
Exercice 50. Soit E un C–espace vectoriel et f ∈ L(E) tel que f 2 − 3f + 2Id = 0L(E) .
104
Applications linéaires
Exercice 51. Soient E et F deux espaces vectoriels de dimension finie et φ une ap-
plication linéaire de E dans F . Montrer que φ est un isomorphisme si et seulement si
l’image par φ de toute base de E est une base de F .
105
Applications linéaires
106
Applications linéaires
Exercice 60. Soit h une application linéaire de rang r, de E, espace vectoriel de di-
mension n, dans F , espace vectoriel de dimension m.
1. Préciser comment obtenir une base (ei )ni=1 de E, et une base (fj )m j=1 de F , telles
que h(ek ) = fk pour k = 1, . . . , r et h(ek ) = 0 pour k > r. Quelle est la matrice
de h dans un tel couple de bases ?
2. Déterminer un tel couple de bases pour l’homomorphisme de R4 dans R3 défini
dans les bases canoniques par :
y1 = 2x1 − x2 + x3 − x4
h(x1 , x2 , x3 , x4 ) = (y1 , y2 , y3 ) avec y2 = x2 + x3 − 2x4
y3 = x1 + 2x2 + x3 + x4
Exercice 61. On désigne par P2 l’espace des polynômes sur R de degré inférieur ou
égal à 2. On désigne par (e0 , e1 , e2 ) la base canonique de P2 et on pose
1 1
p0 = e0 , p1 = e1 − e0 , p2 = e2 − e1 + e0 .
2 2
1. Montrer que tout polynôme de P2 peut s’écrire de façon unique sous la forme
p = b 0 p 0 + b 1 p1 + b 2 p 2 .
2. Écrire sous cette forme les polynômes : p′0 , p′1 , p′2 , p′ , Xp′ , p′′ .
3. Montrer que l’application φ : P2 → P2 définie par φ(p) = Xp′ − 21 p′ + 41 p′′ est une
application linéaire. Préciser le noyau et l’image de cette application. Écrire les
matrices de cette application par rapport à la base canonique (ei ) et par rapport
à la base (pi ). Écrire la matrice de passage de la base (ei ) à la base (pi ) ; quelle
relation lie cette matrice aux deux précédentes ?
107
Applications linéaires
Exercice 65. Soit R[X] l’espace vectoriel des polynômes à coefficients réels.
1. Soit n ∈ N. Montrer que Rn [X], ensemble des polynômes à coefficients réels et de
degré inférieur ou égal à n, est un sous-espace vectoriel de R[X]. Montrer que la
famille 1, X, . . . , X n est une base de Rn [X].
2. Soient f , g et h les applications de R[X] dans lui-même définies par :
f (P (X)) = XP (X),
g(P (X)) = P ′ (X),
h(P (X)) = (P (X))2 .
Montrer que les applications f et g sont linéaires, mais que h ne l’est pas. f
et g sont-elles injectives ? Surjectives ? Déterminer la dimension de leurs noyaux
respectifs. Déterminer l’image de f .
3. On désigne par fn et gn les restrictions de f et de g à Rn [X]. Montrer que l’image
de gn est incluse dans Rn [X] et celle de fn est incluse dans Rn+1 [X]. Déterminer la
matrice de gn dans la base 1, X, ..., X n de Rn [X]. Déterminer la matrice de fn de
la base 1, X, ..., X n dans la base 1, X, ..., X n+1 . Calculer les dimensions respectives
des images de fn et de gn .
( )
−1 2
Exercice 66. Soient A = et f l’application de M2 (R) dans lui-même M 7→
1 0
AM. Montrer que f est linéaire. Déterminer sa matrice dans la base canonique de M2 (R).
Exercice 67. Soit φ une application linéaire de R2 dans lui-même telle que φ ̸= 0 et
φ2 = 0.
1. Construire des exemples de telles applications.
108
Applications linéaires
2. Soit x ∈ R2 tel que φ(x) ̸= 0. Montrer que {x, φ(x)} est une base de R2 . Déterminer
la matrice de φ dans cette base.
Exercice 71. Soit f l’application de Rn [X] dans R[X], définie en posant, pour tout
P (X) ∈ Rn [X] : f (P (X)) = P (X + 1) + P (X − 1) − 2P (X).
1. Montrer que f est linéaire et que son image est incluse dans Rn [X].
2. Dans le cas où n = 3, donner la matrice de f dans la base 1, X, X 2 , X 3 . Déterminer
ensuite, pour une valeur de n quelconque, la matrice de f dans la base 1, X, . . . , X n .
3. Déterminer le noyau et l’image de f . Calculer leurs dimensions respectives.
4. Soit Q un élément de l’image de f . Montrer (en utilisant en particulier les résultats
de la deuxième question) qu’il existe un unique P ∈ Rn [X] tel que : f (P ) = Q et
P (0) = P ′ (0) = 0.
Exercice 72. Soit (e1 , e2 , e3 ) une base de l’espace E à trois dimensions sur un corps K.
IE désigne l’application identique de E. On considère l’application linéaire f de E dans
E telle que :
f (e1 ) = 2e2 + 3e3 , f (e2 ) = 2e1 − 5e2 − 8e3 , f (e3 ) = −e1 + 4e2 + 6e3 .
109
Applications linéaires
110
Applications linéaires
3 −1 1
Exercice 77. Soit f ∈ L(R3 ) de matrice 0 2 0 dans la base canonique. Déter-
1 −1 3
miner la matrice de f dans la base (1, 0, −1), (0, 1, 1), (1, 0, 1).
( 2
)
2
Exercice 78. Soit f l’endomorphisme de R de matrice
2 3 dans la base cano-
− 52 − 23
nique. Soient e1 = (−2, 3) et e2 = (−2, 5).
1. Montrer que (e1 , e2 ) est une base de R2 et déterminer mat(f, e).
2. Calculer An pour n ∈ N.
xn+1 = 2xn + 2 yn
3. Déterminer l’ensemble des suites réelles qui vérifient ∀n ∈ N 3 .
5
yn+1 = − xn − yn
2
2 3
( ) {
1 1 M2 (R) → M2 (R)
Exercice 79. Soient A = et Φ : . Montrer que Φ est
0 1 M 7→ AM − M A
linéaire, déterminer sa matrice dans la base canonique et calculer ker Φ et ImΦ.
111