0% ont trouvé ce document utile (0 vote)
56 vues111 pages

Cours Ma 104

Le chapitre traite des polynômes à une indéterminée dans un anneau commutatif, définissant les polynômes, leurs opérations d'addition et de multiplication, ainsi que les propriétés des ensembles de polynômes. Il introduit également des concepts tels que le degré et la valuation d'un polynôme, ainsi que le morphisme d'anneaux reliant un anneau à son ensemble de polynômes. Enfin, il établit des théorèmes sur les structures algébriques des polynômes, notamment leur nature d'anneau commutatif et d'anneau intègre.

Transféré par

hm1460198
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
56 vues111 pages

Cours Ma 104

Le chapitre traite des polynômes à une indéterminée dans un anneau commutatif, définissant les polynômes, leurs opérations d'addition et de multiplication, ainsi que les propriétés des ensembles de polynômes. Il introduit également des concepts tels que le degré et la valuation d'un polynôme, ainsi que le morphisme d'anneaux reliant un anneau à son ensemble de polynômes. Enfin, il établit des théorèmes sur les structures algébriques des polynômes, notamment leur nature d'anneau commutatif et d'anneau intègre.

Transféré par

hm1460198
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1

Polynômes à une indéterminée

1.1 Anneau des polynômes à une indéterminée


1.1.1 Définition
Définition 1.1.1. Soit A un anneau commutatif. On appelle polynôme à une indéter-
minée à éléments ou coefficients dans A, toute suite presque nulle d’éléments de A,
c’est-à-dire toute suite à support fini d’éléments de A.

Supp(Un )n∈N = {k ∈ N : Uk ̸= OA }.

On peut maintenant parler d’une suite qui s’annule à partir d’un certain rang. C’est-à-
dire ∃n ∈ N/∀ k > n Uk = OA .
Un polynôme P sera noté P = (an )n∈N ou P = (a0 ; a1 ; ...; an ; ...).
Les éléments an seront appelés coefficients du polynôme P ; on dit que an est le
coefficient d’indice n de P . La suite nulle est dite polynôme nul. Un polynôme dont tous
les coefficients sont nuls sauf au plus l’un d’entre eux est appelé monôme.
L’ensemble des polynômes à une indéterminée à coefficients dans l’anneau A est noté
A[X].
Exemple 1.1.1. Prenons A = Q et P = (1, 1, 1, 0, 0, 11, 0, 0, ...). Ainsi a0 = 1 ; a1 = 1 ;
a2 = 1 ; a3 = 0 ; a4 = 0 ; a5 = 11 ; a6 = 0 ; et ∀n > 6, an = 0. Q = (1, 0, 0, ...) est un
monôme.
Remarque 1.1.1. De l’égalité de deux applications, deux polynômes P = (an )n∈N et
Q = (bn )n∈N sont égaux si et seulement si ∀n ∈ N , an = bn . En particulier, P = (an )n∈N
est le polynôme nul si et seulement si ∀n ∈ N , an = 0.

1.1.2 Addition et multiplication


Théorème 1.1.1. Soient P = (an )n∈N et Q = (bn )n∈N deux polynômes de A[X]. Alors
les
∑ deux suites ∑ dont les termes d’indice n sont respectivement cn = an + bn et dn =
n
k+l=n ak bl = k=0 ak bn−k sont des polynômes de A[X] respectivement appelés somme
et produit de P et Q. On les note P + Q et P Q.

1
Polynômes à une indéterminée

Preuve. Il revient à justifier que P + Q et P Q sont des polynômes. On sait que ∃N1 ,
N2 ∈ N tel que ∀n ∈ N , n > N1 ⇒ an = 0 et n > N2 ⇒ bn = 0 car P et Q sont des
polynômes. Ainsi, pour N = max(N1 , N2 ), ∀n ∈ N; n > N =⇒ an + bn = 0 + 0 = 0.
D’où (an + bn )n ∈ N est un polynôme. Pour N ′ = N1 + N2 ∀n > N ′ ;
∑N ′ ∑ 1 +N2
ak bN ′ −k = N a b
∑N1k=0 ∑N1 +Nk 2 N1 +N2 −k
k=0
= k=0 ak b(N1 −k)+N2 + k=N1 +1 ak bN1 +N2 −k
= 0 + 0 =∑ 0.
D’où ( lk=0 ak bl−k )l∈N est à support fini, et donc est un polynôme.
Ainsi, A[X] est muni de deux lois de composition internes qui sont l’addition et la
multiplication.

Proposition 1.1.1. (A[X]; +) est un groupe abélien

Preuve. Exercice

Théorème 1.1.2. (A[X]; +, ×) est un anneau commutatif.

Preuve. Exercice

Remarque 1.1.2. Si A est un anneau unitaire, alors A[X] est aussi un anneau unitaire
d’unité U = (1, 0, 0, ...) où 1 est l’unité de A.

Preuve. Soit P = (an )n∈N ∈ A[X]. Montrons que P U = P . Posons U = (bn )n∈N .
Supposons que P U = (cn )n∈N . ∀n ∈ N,
∑ ∑n
cn = nk=0 ak bn−k = k=0 bk
∑ an−k car A anneau commutatif
= b0 an + nk=1 bk an−k
= [Link] + 0
= an ; d’où P U = U P = P

Proposition 1.1.2. Si A est un anneau intègre alors A[X] est aussi un anneau intègre.

Preuve. Soient P = (an )n∈N ∈ A[X], P = (an )n∈N ∈ A[X] tels que P ̸= 0. Montrons
que P Q = 0 =⇒ Q = 0. Par contraposée, supposons plutôt que Q ̸= 0 et montrons que
P Q ̸= 0. Posons T = {n ∈ N/an ̸= 0} et T ′ = {n ∈ N/bn ̸= 0}. T et T ′ sont non vides
et finis, car P ̸= 0 et Q ̸= 0. On désigne par n0 et m0 les plus grands éléments respectif
de T et T ′ . Supposons que P Q = (cn )n∈N
∑n0 +m0
cn0 +m0 = ak bn0 +m0 −k
k=0 ∑ 0 −1 ∑n0 +m0
= an0 bm0 + nk=0 ak b(n0 −k)+m0 + k=n a b
0 +1 k n0 +m0 −k
= an0 bm0 + 0 + 0
= an0 bm0 ̸= 0

2
Polynômes à une indéterminée

1.1.3 Multiplication d’un polynôme par un scalaire


Définition 1.1.2. Soit P = (an )n∈N ∈ A[X] et α ∈ A. La suite dont le coefficient
d’indice n est cn = αan est un polynôme appelé produit du polynôme P par le scalaire
α. On le note αP .

Proposition 1.1.3. a) ∀α, β ∈ A; ∀P ∈ A[X]; (α + β)P = αP + βP et (αβ)P =


α(βP )
b) ∀α ∈ A; ∀P, Q ∈ A[X]; α(P + Q) = αP + αQ
c) Si A est unitaire d’unité 1 alors ∀P ∈ A[X]; 1P = P .

Preuve. Exercice

1.1.4 Plongement de A dans A[X]


Proposition 1.1.4. Soit

i:A −→ A[X]
α 7 → P = (an )n∈N

tel que {
a0 = α
an = 0 ∀n > 1
est un morphisme injectif d’anneaux.

Preuve. Montrons que i est un morphisme


Soient a, b ∈ A, i(a + b) = (a + b, 0, 0, ...) = (a, 0, 0, ...) + (b, 0, 0, ...) = i(a) + i(b).
i(ab) = (ab, 0, 0, ...) =∑(cn )n∈N ; i(a)i(b) = (dn )n∈N = (an )(bn )n∈N .
On a : c0 = ab; d0 = 0k=0 ak b0−k = a0 b0 = ab.∑D’où pour n = 0, on a∑: cn = dn .
Soit n > 1, cn = 0 par définition de i. dn = nk=0 ak bn−k = a0 bn + nk=1 ak bn−k =
0 + 0 = 0. D’où dn = cn . i(ab) = i(a)i(b).
Montrons que i est injectif :
Soit a ∈ A. a ∈ ker(i) ⇔ i(a) = 0, ⇔ (a, 0, 0, ...) = (0, 0, ...), ⇔ a = 0. D’où
ker(i) = {0}.
Suivant un abus de langage classique, on identifie alors l’anneau A et le sous-anneau
i(A) de A[X]. Les polynômes de i(A) portent alors le nom de polynômes constants et
sont notés comme les éléments de l’anneau A dont ils sont l’image par i. En particulier,
le polynôme nul et l’unité de A[X] sont notés 0 et 1.

1.1.5 Degré et valuation d’un polynôme


Les ensembles N ∪ {−∞} et N ∪ {+∞}.
Adjoignons à l’ensemble N, un élément noté −∞ pour constituer l’ensemble N ∪
{−∞} et procédons de même en ajoutant un élément noté +∞ pour constituer N ∪
{+∞}. Chacun de ses deux ensembles est totalement ordonné par la relation 6 définie
sur cet ensemble par :

3
Polynômes à une indéterminée

- ∀n ∈ N ∪ {−∞}, −∞ 6 n
- ∀n ∈ N ∪ {+∞}, n 6 +∞
- ∀n, m ∈ N, n 6 m est l’ordre dans N.
Chacun de ces deux ensembles est ensuite muni d’une loi de composition interne
notée +, compatible avec l’ordre défini sur cet ensemble et défini par :
- ∀n ∈ N ∪ {−∞}, n + (−∞) = (−∞) + n = −∞
- ∀n ∈ N ∪ {+∞}, n + (+∞) = (+∞) + n = +∞
- ∀n, m ∈ N, n + m est la somme dans N.

Définition 1.1.3. Soit P = (an )n∈N


* Si P n’est pas nul alors son support T = {n ∈ N/an ̸= 0} admet un plus grand
élément qui est appelé degré de P et noté deg(P ) ou d◦ P. Ce support admet aussi
un plus petit élément appelé valuation de P et noté val(P ) et on a val(P ) 6 d◦ P.
* Si P est nul, alors on convient que d◦ P = −∞ et val(P ) = +∞.

Exemple 1.1.2. Soient P = (0, 0, 1, 0, 2, 3, 0, 2, 0, 0, ...) ; Q = (1, 0, 0, ...) et R =
(0, 0, 1, 0, 0, ...).
supp(P ) = {2; 4; 5; 7} ; deg(P ) = 7 ; et val(P ) = 2 ;
supp(Q) = {0}, donc deg(Q) = val(Q) = 0
supp(R) = {2}, donc deg(R) = 2 = val(R)
Remarquons qu’on a val(P ) = deg(P ) si et seulement si P est un monôme non nul
et que les polynômes de degré zéro sont les polynômes constants non nuls.

Proposition 1.1.5. ∀P, Q ∈ A[X]; deg(P + Q) 6max(deg(P ) ; deg(Q))


deg(P Q) 6deg(P )+deg(Q)
val(P + Q) >min(val(P ) ;val(Q))
val(P Q) >val(P )+val(Q)
Si deg(P ) ̸= deg(Q), alors deg(P + Q) = max(deg(P ); deg(Q))

Preuve. Supposons P = (an )n∈N et Q = (bn )n∈N . Montrons que deg(P +Q) 6 max(deg(P ), deg(Q))
Si P = 0, alors deg(P ) = −∞ et P + Q = 0 + Q = Q ; deg(P + Q) = deg(Q) 6
max(−∞, deg(Q)).
Si Q = 0, alors on a le même raisonnement
Si P ̸= 0 et Q ̸= 0 alors deg(P ) = sup{n ∈ N/an ̸= 0} et deg(Q) = sup{n ∈ N/bn ̸=
0}. Posons n0 = deg(P ) et m0 = deg(Q). Deux cas s’imposent donc :
a) Si n0 ̸= m0 , alors n0 < m0 ou m0 < n0 . On peut supposer sans nuire à la
généralité que n0 < m0 . P + Q = (an + bn )n∈N = (cn )n∈N . cm0 = am0 + bm0 = 0 + bm0 ,
car n0 = max{n ∈ N/an ̸= 0} et n0 < m0 . Soit n > m0 ; max{deg(P ), deg(Q)} = m0 ;
cn = an +bn = 0+0 = 0. D’où deg(P +Q) = m0 6 max(n0 ; m0 ) = max(deg(P ), deg(Q)).
b) Si n0 = m0 , alors
{
cn0 = 0 si an0 = −bn0
cn0 = an0 + bn0 ⇒
cn0 ̸= 0 si an0 ̸= −bn0

De plus, ∀n > n0 , cn = an + bn = 0. D’où deg(P + Q) 6 n0 =max(deg(P ), deg(Q)).


Montrons que deg(P Q) 6 deg(P )+deg(Q)

4
Polynômes à une indéterminée

Si P = 0, alors P Q = 0 donc deg(P Q) = −∞ 6 −∞+deg(Q)


Si Q = 0 alors on fait le même raisonnement.
Supposons P = (an )n∈N et Q = (bn )n∈N ̸= 0. P Q = (cn )n∈N . Soit n >deg(P )+deg(Q) ;


n ∑
deg(P )

n
cn = ak bn−k = ak bn−k + ak bn−k = 0 + 0 = 0
k=0 k=0 k=deg(P )+1

D’où deg(P Q) 6 deg(P )+deg(Q).

Remarque 1.1.3. Si l’anneau A est intègre, en particulier si A est un corps commutatif


alors pour tous polynômes P et Q,

deg(P Q) =deg(P )+deg(Q)


val(P Q) =val(P )+val(Q)

Preuve. Soient P ∑= (a0 ; a1 ; ...; an ; 0; 0; ...) et Q = (b0 ; b1 ; ...; bm ; 0; 0; ...) tels que P Q =
(cn )n∈N avec cn = nk=0 ak bn−k . Alors


n+m ∑
n−1 ∑
n+m
cn+m = ak bn+m−k = ak bn+m−k + an bm + ak bn+m−k = an bm ̸= 0
k=0 k=0 k=n+1

Proposition 1.1.6. Si l’anneau A est intègre, le groupe des éléments inversibles de


l’anneau A[X] est celui de A. En particulier, si A est un corps commutatif, alors ce
groupe est A\{0}.

Preuve. Soit P ∈ A[X]\{0}.

P ∈ U (A[X]) ⇔ ∃Q ∈ A[X]/P Q = 1
=⇒ ∃Q ∈ A[X]/ deg(P Q) =deg(1)
=⇒ ∃Q ∈ A[X]/ deg(P Q) = 0
=⇒ ∃Q ∈ A[X]/ deg(P )+deg(Q) = 0 (car A intègre)
=⇒ deg(P ) = 0
=⇒ P ∈ A\{0}
=⇒ P ∈ U (A)

Si P ∈ U (A) alors ∃α ∈ A/P α = 1. D’où P est inversible dans A[X].

1.1.6 Génération de A[X] et ordination d’un polynôme


Définition 1.1.4. On appelle indéterminée le polynôme de A[X] dont tous les coeffi-
cients sont nuls sauf le coefficient d’indice 1 qui est l’unité de A. Ce polynôme se note
en général X, avec X = (0, 1, 0, 0, ...), c’est-à-dire deg(X) = 1.

Proposition 1.1.7. ∀n ∈ N∗ , X n est le polynôme dont tous les coefficients sont nuls
sauf le coefficient d’indice n qui est l’unité de l’anneau.

5
Polynômes à une indéterminée

Preuve. Elle se fait par récurrence sur n.


X 1 = X = (0, 1, 0, ...), donc la propriété est vraie au rang 1. Supposons la propriété
vraie au rang n et montrons qu’elle est vraie au rang (n + 1).
Posons X n ={(ank )k∈N et X n+1 = (bk )k∈N { .
1 si k = 1 1 si k = n
On a : a1k = ; ...; ank =
0 sinon 0 sinon
X n+1 =∑ X n X = (bk )k∈N
bn+1 = n+1 1 n 1 n
k=0 ak an+1−k = a1 a∑n = 1.1 = 1 (par définition).
Soit l ∈ N/l ̸= n + 1, bl = lk=0 a1k anl−k = a11 anl−1 = 1.0 = 0. D’où la propriété est
vraie au rang (n + 1). On conclut donc que ∀n ∈ N∗ , X n = (ank )k∈N avec
{
n 1 si k = n
ak = ,
0 sinon
X n = (0, 0, ..., 0, 1, 0, ...), 1 étant placer à la (n + 1)-ème position. Par convention, on
pose X 0 = 1.
Théorème 1.1.3. Tout polynôme de A[X] peut s’exprimer de façon unique comme
combinaison linéaire de la famille (Xn )n∈N . Les coefficients de la combinaison linéaire
sont ceux du polynôme.
Preuve. Si P = 0 alors P = 0 × X 0 , d’où la proposition est vraie pour P = 0.
Si P ̸= 0 alors deg(P ) = n ∈ N. Alors P = (a0 ; a1 ; a2 ; ...; an ; 0; ...), c’est-à-dire
P = (a0 ; 0; 0; ...) + (0; a1 ; 0; ...; ) + ... + (0; 0; ...; an ; 0; ...)
Donc
P = a0 (1; 0; 0; ...) + a1 (0; 1; 0; ...; ) + ... + an (0; 0; ...; 1; 0; ...)
où 1 occupe la position n + 1. ∑
Ainsi, P = a0 X 0 + a1 X 1 + ... + an X n , d’où P = ni=0 ai X i .
Tout polynôme P = (an )n∈N de degré m, m ∈ N peut s’écrire sous l’une des formes
suivantes :
1) P = a0 X 0 + a1 X 1 + a2 X 2 + ... + am X m
2) P = am X m + am−1 X m−1 + am−2 X m−2 + ... + a0 X 0 avec am ∈ A.
On dit que 1) et 2) sont respectivement les ordinations de P suivant les puissances
croissantes et suivants les puissances décroissantes. am est appelé coefficient dominant
de P . Lorsque am = 1, on dit que P est unitaire ou normalisé.
Exemple 1.1.3. Dans Q[X], on considère P = −3X 3 + X 2 + 1. On a deg(P ) = 3 et
le coefficient dominant est −3 ; mais P n’est pas normalisé car −3 ̸= 1. Par contre,
P = −3(X 3 − 31 X 2 − 13 ) = −3Q et Q est normalisé.

1.1.7 Changement de l’anneau de base


Théorème 1.1.4. Soit φ : A −→ B un morphisme non nul d’anneaux, alors il existe
un et un seul morphisme d’anneaux α : A[X] → B[X] qui prolonge φ .
Preuve. Exercice.

6
Polynômes à une indéterminée

1.1.8 Composition de polynôme


∑m ∑
Définition 1.1.5. Soient P = i=0 ai X i et Q = ni=0 bi X i deux polynômes de l’anneau
A[X]. On appelle polynôme composé des deux polynômes P et Q et on note P ◦ Q le
polynôme défini par
∑m ∑m ∑n
P ◦Q= i
ai q = ak ( b i X i )k
i=0 k=0 i=0

Proposition 1.1.8. La composition de polynômes est associative, distributive à droite


par rapport à l’addition et on a P ◦ X = P et X ◦ P = P pour tout polynôme P ∈ A[X].

Remarque 1.1.4. La proprité P ◦ X = P justifie la notation P (X) adoptée parfois


pour le polynôme P .

La composition n’est ni commutative, ni distributive à gauche par rapport à l’ad-


dition. (A[X], +, ◦) n’est pas un anneau car la composition n’est pas distributive par
rapport à l’addition.

1.1.9 Fonction polynôme


∑m
Définition 1.1.6. Soit A un anneau commutatif et P = i=0 ai X i , l’application

Pe : A −→ A

x 7 → Pe(x) = m
i=0 ai x
i

est appelée fonction polynôme associée au polynôme P .

Exemple 1.1.4. P = X 2 + 1
Pe(x) = x2 + 1 et Pe(2) = 22 + 1 = 5.

Proposition 1.1.9. ∀P, Q ∈ A[X]; ∀α ∈ A, on a + Q = Pe + Q


P^ e ; αP
f = αPe;
^
P ◦ Q = Pe ◦ Q;
e PgQ = PeQ.
e

1.2 Division euclidienne et propriétés arithmétiques


de A[X]
1.2.1 Division euclidienne
Théorème 1.2.1. Soit A un anneau commutatif. P et Q deux polynômes de A[X] tels
que Q ̸= 0 et de coefficient dominant inversible dans A. Alors il existe un unique couple
(S, R) ∈ (A[X])2 tels que l’on ait P = SQ + R avec deg(R) < deg(Q). On dit que S et
R sont respectivement le quotient et le reste de la division euclidienne du dividende P
par le diviseur Q. On notera que si A est un corps commutatif, alors la condition Q ̸= 0
suffit.

Preuve.

7
Polynômes à une indéterminée

a) Unicité : Soient (S1 , R1 ) et (S2 , R2 ) deux couples de polynômes vérifiant deg(R1 ) <deg(Q)
et deg(R2 ) <deg(Q), alors (S1 − S2 )Q + (R1 − R2 ) = 0, d’où (S1 − S2 )Q =
(R2 −R1 )(∗). Le coefficient dominant de Q étant inversible, alors il n’est pas un divi-
seur de zéro dans A. Ainsi, deg((S1 −S2 )Q) =deg(S1 −S2 )+deg(Q). D’où deg(R2 −
R1 ) 6max(deg(R1 ) ;deg(R2 )) <deg(Q) par conséquent deg(S1 −S2 )+deg(Q) <deg(Q)
d’où deg(S1 − S2 ) < 0 donc S1 − S2 = 0, c’est-à-dire S1 = S2 . En remontant à
(∗), on montre que R2 = R1 .
b) Existence du couple (S,R) : Posons Q = bm X m +bm−1 X m−1 +bm−2 X m−2 +...+b0
avec bm ̸= 0 et P = an X n + an−1 X n−1 + an−2 X n−2 + ... + a0 avec an ̸= 0. Pour
tout k ∈ N ∪ {−∞}, attachons l’assertion (pk ) de degré k, c’est-à-dire qu’il existe
un couple (Sk , Rk ) tel que Pk = Sk Q + Rk , avec deg(Rk ) < deg(Q). Pour
i) k < m, on a Pk = 0.Q + Pk et deg(Pk ) = k < m =deg(Q), il suffit de prendre
(Sk , Rk ) = (0, Pk ),
ii) Soit l donné avec l > m. Supposons que (pk ) ait été vérifiée pour k 6 m − 1 et
considérons le polynôme de degré l ordonné suivant les puissances décroissantes,
c’est-à-dire Pl = al X l + al−1 X l−1 + ... + a0 , avec al ̸= 0. Formons le polynôme Pk =
Pl − b−1
m al X
l−m
Q. Pk est un polynôme de degré strictement inférieur à l. On peut
donc par hypothèse d’induction trouver un couple (Sk , Rk ) tel que Pk = Sk Q + Rk ,
avec deg(Rk ) <deg(Q). On en déduit que Pk = Pl − b−1 m al X
l−m
Q, c’est-à-dire que
Pl = (Sk +b−1 a
m l X l−m
)Q+R k . Il suffit donc de prendre (S k , R k ) = (Sk +b−1
m al X
l−m
,
Rk ).
Ainsi, pour k ∈ N, la propriété (pk ) est vraie.

Exemple 1.2.1. Effectuer dans Q[X] la division euclidienne de P (X) = 3X 4 + 2X 2 + 1


par Q(X) = 2X 2 + 3. P (X) = ( 23 X 2 − 54 )Q(X) + 19
4
Proposition 1.2.1. Soit P et Q deux polynômes de A[X] tels qu’on puisse effectuer la
division euclidienne de P par Q dans A[X].
p1) Si B est un suranneau de A, c’est-à-dire que A est un sous anneau de B, alors le
quotient et le reste de la division euclidienne de P par Q dans B[X] existent et
sont ceux de la division euclidienne de P par Q dans A[X] ;
P2) Soit (Pi )i∈I une famille de polynômes de A[X], (αi )i∈I une famille d’éléments de
A et Q ∈ A[X] non nul et de coefficient dominant inversible dans A. On désigne
par (Si , Ri ) le couple formé du quotient et du reste de la division euclidienne de
Pi par Q. Alors :

a) Le quotient et le ∑reste de la division
∑ euclidienne de la somme i∈I αi Pi par Q sont
respectivement i∈I αi Si et i∈I αi Ri
b) Le reste de la division euclidienne du produit Πi∈I Pi par Q est celui de la division
euclidienne du produit Πi∈I Ri par Q.
P3) Si dans une division euclidienne, on multiplie (divise dans la mesure où cela est
possible) le dividende et le diviseur par un même polynôme P , alors le quotient ne
change pas et le reste est multiplié (respectivement divisé) par P .
Preuve. Exercice.

8
Polynômes à une indéterminée

1.2.2 Etude des idéaux de A[X]


On suppose que A est un corps commutatif.
Théorème 1.2.2. A[X] est un anneau principal
Preuve. Comme A est un corps commutatif, alors A[X] est un anneau intègre. Soit I
un idéal de A[X]. Deux cas sont possibles :
a) Si I = {0} alors I = (0), idéal engendré par le polynôme nul.
b) Si I ̸= {0}, alors on pose K = {deg(P )/P ∈ I\{0}}. K est un sous ensemble
non vide de N et par conséquent K admet un plus petit élément noté n0 . Soit f ∈ I tel
que deg(f ) = n0 . Montrons que I = (f ), c’est-à-dire I = f A[X]. Comme f ∈ I, alors
(f ) ⊂ I. Soit P ∈ I. D’après le théorème de la division euclidienne, ∃q, r ∈ A[X] tels
que p = qf + r avec deg(r) <deg(f ). Il revient donc à montrer que r = 0. supposons
que r ̸= 0. Alors r = p − qf ∈ I\{0} d’où deg(r) ∈ K et deg(r) < n0 , ce qui est absurde
car n0 = minK. Ainsi r = 0 et p = qf ∈ (f ) = f A[X]. D’où I = (f ).

1.2.3 Plus grand commun diviseur d’une famille de polynômes


de A[X]
Théorème 1.2.3. Etant donné une famille (Pi )i∈I ∈ A[X], l’ensemble des polynômes
de l’anneau A[X] qui divise chacun des polynômes Pi est un idéal de A[X].
On appelle plus grand commun diviseur de la famille Pi , tout générateur de cet idéal,
le plus grand commun diviseur étant le générateur qui est unitaire.
Calcul du pgcd d’une famille finie de polynôme de A[X].
a) Si tous les polynômes sont nuls alors le pgcd est le polynôme nul ;
b) Si un seul polynôme est non nul alors le pgcd est ce polynôme non nul. Sinon, on se
ramène par associativité à deux polynômes non nuls.
Lemme 1.2.1. Soit P et Q deux polynômes non nuls tels que deg(Q) 6deg(P ). Alors
pgcd(P, Q) = pgcd(Q, R) où R désigne le reste de la division euclidienne de P par Q.
Preuve. Exercice
Algorithme d’Euclide
A partir de P et Q non nuls tels que de deg(P ) 6deg(Q), on se ramène au cas
d’un polynôme C et du polynôme nul ; un pgcd est alors C. Pour cela, on définit par
récurrence une suite de couple (Qk , Rk )k>1 . Q1 et R1 sont respectivement le quotient et
le reste de la division euclidienne de P par Q. Pour k > 1, si Rk ̸= 0, alors Qk+1 et
Rk+1 sont respectivement le quotient et le reste de la division euclidienne de Rk−1 par
Rk . Pour k > 1, si Rk = 0, alors on pose Rk+p = 0∀p ∈ N. On ne ne peut avoir Rk ̸= 0,
∀k ∈ N∗ . Sinon la famille des degrés de (Rk )k>1 serait une suite strictement décroissante
d’entiers positifs, ce qui serait absurde. Par conséquent, il existe ∃k ∈ N/Rk ̸= 0 et
Rk+p = 0. D’où Rk est un pgcd(Q, R). On normalise Rk pour avoir le pgcd(Q, R).
Exemple 1.2.2. Dans Q[X] déterminer le pgcd des polynômes P (X) = 3X 3 + 4X 2 +
2X + 1 et Q(X) = 4X 2 + 4X + 1.

9
Polynômes à une indéterminée

En effectuant la division euclidienne de P par Q, on obtient P = Q( 34 X + 14 )+ 14 X + 34 .


De même, en effectuant la division euclidienne de Q par 41 X + 34 , on trouve Q = ( 14 X +
3
4
)(16X − 32) + 25. On résume les résultats dans le tableau suivant :
3
4
X + 1
4
16X − 32 1
100
X + 3
100
1
P Q 4
X + 34 25
1 3
4
X+ 4
25 0

On conclut que pgcd(P, Q) = 1.

1.2.4 Polynômes premiers entre eux


Définition 1.2.1. Soit (Pi )i∈I une famille de polynômes de A[X]. On dit que ces po-
lynômes sont premiers entre eux dans leur ensemble si et seulement si un de leur pgcd
est 1. Il revient au même de dire que leur seul diviseur commun sont les éléments de
A\{0}.

Théorème 1.2.4. (Théorème de Bézout)


Pour que (Pi )i∈I soit une famille de polynômes premiers entre eux, il faut
∑ et il suffit
qu’il existe une famille presque nulle (Ai )i∈I de polynômes de A[X] telle que i∈I Ai Pi =
1.
P ∧ Q = 1 ⇔ ∃f, g ∈ A[X]/ f P + gQ = 1.

Théorème 1.2.5. Soit (Pi )i∈I une famille de polynômes de A[X] non tous nuls. Pour
qu’un polynôme D de A[X] soit un pgcd de la famille (Pi )i∈I , il faut et il suffit que
∀i ∈ I, D divise Pi et que la famille (Pi /D)i∈I de A[X] soit constituée des polynômes
premiers entre eux dans leur ensemble.

Preuve. Exercice

Théorème 1.2.6. (Théorème de Gauss)


Si P divise le produit QR et si P ∧ Q = 1, alors P divise R.

Preuve. Exercice

1.2.5 Plus petit commun multiple d’une famille de polynômes


Théorème 1.2.7. Etant donné une famille de polynômes (Pi )i∈I , l’ensemble des poly-
nômes de l’anneau A[X] qui sont multiples de chacun des polynômes Pi est l’ensemble
des multiples d’un polynôme m unique au produit de la famille (Pi )i∈I . Le plus petit
commun multiple est celui qui est unitaire.

Preuve. Exercice

Remarque 1.2.1. Si P et Q sont des polynômes unitaires avec pgcd(P, Q) = d et


ppcm(P, Q) = m, alors P Q = dm.

10
Polynômes à une indéterminée

1.2.6 Polynômes irréductibles


Définition 1.2.2. Un polynôme P de A[X] est dit irréductible sur le corps A s’il est
non inversible et si les seuls diviseurs dans A[X] sont les polynômes associés à P et les
éléments de A∗ .
Deux polynômes P et Q sont dits associés lorsque P divise Q et Q divise P . Au-
trement dit, il existe un coefficient inversible u ∈ A tel que P = uQ. On sait que
U (A[X]) = U (A).
√ √ √
Exemple√1.2.3. P = X 2 − 2 ∈ R[X]; et P = (X − 2)(X + 2), d’où X − 2 divise
P et X − 2 n’est pas associé à P . Donc P n’est pas irréductible dans R[X]. Par contre
P = X 2 − 2 est irréductible dans Z[X] et dans Q[X].
Remarque 1.2.2. a) Il résulte de la définition que tout polynôme irréductible est non
constant,
b) Tout polynôme associé à un polynôme irréductible est lui-aussi irréductible,
c) Tout polynôme de degré 1 est irréductible.
Proposition 1.2.2. Soit P un polynôme irréductible de A[X] et Q un polynôme de
A[X]. Alors pgcd(P, Q) = 1 si et seulement si P ne divise pas Q.
Preuve. =⇒) On utilise la contraposée si P/Q, alors pgcd(P, Q) = P ̸= 1 car P est un
polynôme irréductible.
⇐=) Supposons que P ne divise pas Q et montrons que pgcd(P, Q) = 1. Soit d =
pgcd(P, Q). Alors d/P et d/Q. Comme P est irréductible, alors ses seuls diviseurs sont
les polynômes associés à P ou les élément de A∗ . Si d est associé à P , alors il existe un
coefficient inversible u tel que d = uP . d/Q =⇒ ∃T ∈ A[X]/Q = dT , d’où Q = (uP )T =
(uT )P ; donc P/Q, ce qui est absurde. D’où d ∈ A∗ et par conséquent pgcd(P, Q) = 1.

Il en résulte que deux polynômes irréductibles non associés sont premiers entre eux
et que plus généralement, si P et Q sont irréductibles et non associés, alors P k et Qk
sont premiers entre eux ; ∀k ∈ N∗ .
Corollaire 1.2.1. Soit P un polynôme irréductible de A[X]. Pour que P divise Πni=1 Pi ,
il faut et il suffit qu’il existe j ∈ {1, ..., n} tel que P/Pj .
Preuve. La condition est évidement suffisante. En effet, P/Pj =⇒ ∃T ∈ A[X]/Pj = P T.
Πni=1 Pi = (Πni=1,i̸=j Pi )Pj = (Πni=1,i̸=j Pi )(P T ) = P (T Πni=1,i̸=j Pi ), d’où le résultat.
La condition est nécessaire car si elle n’est pas remplie alors P est premier avec
chacun des Pi . D’où P ne divise pas le produit des Pi .

1.2.7 Décomposition d’un polynôme en facteurs irréductibles


Nous désignons par P l’ensemble des polynômes irréductibles et unitaires de A[X].
P possède la propriété suivante : tout polynôme irréductible de A[X] est associé à un et
un seul élément de P. Si Q est unitaire, alors Q ∈ P ; sinon Q = aQ1 avec Q1 unitaire,
donc Q1 ∈ P.

11
Polynômes à une indéterminée

Théorème 1.2.8. Théorème de décomposition


A tout polynôme P non nul de A[X], on peut associer un et un seul couple constitué
d’un élément non nul u de A, d’une application presque nulle µ : P −→ N (c’est-à-dire
que l’ensemble des éléments qui ont une image non nulle est fini) tel que P = uΠq∈P q µ(q)
(1).
On dit que la relation (1) est la décomposition de P en facteurs irréductibles. Dans
la pratique (1) s’écrit pour un polynôme non nul P , P = uP1k1 P2k2 ....Pnkn , les Pi étant
des éléments deux à deux distincts de P et les ki étant au moins égaux à 1.
Preuve. Elle se fait par récurrence sur deg(P ).
P ̸= 0 =⇒ d◦ P ∈ N,
Si d◦ P = 0, alors P est constant non nul.
µ : P −→ N
. Ainsi P = P Πq∈P q µ(q) .
Q 7→ µ(Q) = 0
On suppose la propriété vraie pour tout polynôme de degré inférieur ou égal à n.
Soit P un polynôme de d◦ P = n + 1.
Si P est irréductible alors P est associé à 1 élément de P
Si P = P1 P2 avec deg(P1 ) < deg(P ) et deg(P2 ) < deg(P ).
Exemple 1.2.4. P = (X − 1)2 (X − 3)4 .
µ:P −→ N 
 2 si Q = X − 1
Q 7→ µ(Q) = 4 si Q = X − 3

0 ailleurs
Exemple 1.2.5. Dans R[X], P (X) = 2X 2 − 8 = 2(X 2 − 4) = 2(X − 2)(X + 2),
Q(X) = 2X 2 +2X +2 = 2(X 2 +X +1). Dans C[X], P (X) = 2X 2 −8 = 2(X −2)(X +2),
Q(X) = 2(X 2 + X + 1) = 2(X − X1 )(X + X2 ).

1.3 Division suivant les Puissances croissantes


Théorème 1.3.1. Soit n ∈ N. A un anneau commutatif ; Q et R deux polynômes de
e
A[X] tels R(0) = b0 . On suppose que b0 est inversible dans A, alors il existe un et un
seul couple (f, g) de polynômes de A[X] tels que l’on ait Q = Rf + X n+1 g (2) et
deg(f ) 6 n.
Preuve.
a) Unicité d’une solution éventuelle
Soient (f, g) et (f ′ , g ′ ) deux solutions de la relation (2). Alors Q = Rf + X n+1 g =
Rf ′ + X n+1 g ′ . On obtient R(f − f ′ ) = X n+1 (g ′ − g) (3). Compte tenu de val(R) = 0,
la relation (3) donne val(f − f ′ ) > (n + 1) car val(g ′ − g) > 0. De la relation (2),
deg(f − f ′ ) 6 n ce qui est absurde. Ainsi, f − f ′ = 0, c’est-à-dire que f = f ′ et g = g ′ .
b) Existence
Si val(Q) > n + 1, en particulier si Q = 0, alors on peut écrire Q = X n+1 C, où
C ∈ A[X]. Il suffit de prendre f = 0 et g = C. La suite se fait par récurrence en
utilisant l’assertion Pm : pour tout polynôme Qm de valuation m, ∃(fm , gm ) ∈ A[X] tel
que Qm = Rfm + X n+1 gm , et deg(fm ) 6 n.

12
Polynômes à une indéterminée

1.4 Déviation et racine


1.4.1 Polynôme dérivé
Définition 1.4.1. Soit A un anneau et P = an X n + an−1 X n−1 + ... + a0 avec an ̸= 0
un polynôme de A[X] ; on appelle polynôme dérivé ∑ de P , le polynôme noté P ′ et défini
par P ′ = nan X n−1 + (n − 1)an−1 X n−1 + ... + a1 = ni=1 iai X i−1 .

1.4.2 Polynôme primitif


Définition 1.4.2. On appelle primitive de P ∈ A[X] tout polynôme de A[X] dont la
dérivée est P .

1.4.3 Propriété des polynômes dérivés


Proposition 1.4.1. 1) ∀P, Q ∈ A[X] ; ∀α ∈ A; (P + Q)′ = P ′ + Q′ et (αP )′ = αP ′ .
2) ∀P, Q ∈ A[X] ; (P Q)′ = P ′ Q + P Q′ et (P ◦ Q)′ = Q′ × (P ′ ◦ Q)

1.4.4 Dérivation successive d’un polynôme


Définition 1.4.3. Par récurrence, on définit pour k ∈ N l’application Dk : A[X] −→
A[X] par D0 = IdA[X] ; D1 = D et Dk = D ◦ Dk−1 , k > 1. Pour tout polynôme P de
A[X] et ∀k ∈ N, Dk (P ) que l’on note aussi P (k) est appelé dérivé k ième ou d’ordre k du
polynôme P .

1.4.5 Formule de Taylor


Soit

φ:Z −→ A 

 0 si n = 0

 + ... + 1A ; si n ∈ N∗
 1| A + 1A {z }
n 7→ n.1A = nf ois



 −1A − 1A − ... − 1A ; si n ∈ Z∗−
 | {z }
−nf ois

φ est un morphisme d’anneaux, d’où Ker(φ) est un idéal de Z, c’est-à-dire ∃α ∈


N/Ker(φ) = αZ. α est appelé la caractéristique de l’anneau A.
On suppose que A est un corps commutatif de caractéristique 0.

Théorème 1.4.1. Soit P un polynôme de A[X] et a ∈ A . On a alors l’égalité des


∑ (n)
polynômes dite formule de Taylor suivante P = n∈N P n!(a) (X − a)n .

13
Polynômes à une indéterminée

1.4.6 Racine d’un polynôme


Théorème 1.4.2. Soit A un anneau commutatif. P ∈ A[X] et a ∈ A. Les assertions
suivantes sont équivalentes :
(i) P (a) = 0
(ii) Le polynôme X − a divise le polynôme P .
Preuve.
=⇒) Supposons que Pe(a) = 0 et montrons que X − a/P. En effectuant la division
euclidienne de P par X − a, on a P = Q(X − a) + b avec Q ∈ A[X] et b ∈ A. D’où
Pe(a) = Q(a)(a
e − a) + b, donc P = Q(X − a).
⇐=) Supposons (X −a)/P et montrons que Pe(a) = 0. X −a/P =⇒ ∃Q ∈ A[X]/P =
Q(X − a), d’où Pe(a) = Q(a)(a
e − a) = 0.
Remarque 1.4.1. a) Le polynôme nul admet pour racine tout élément de A,
b) Un polynôme constant non nul n’a pas de racine,
c) Soit P ∈ A[X] et B un sur-anneau de A ; toute racine de P dans A est une racine
de P dans B. Mais la réciproque est fausse.
Dans le cas où l’une des assertions du théorème 1.4.2 est vraie, on dit que a est une
racine de P . Tout polynôme P ∈ A[X](A étant un corps) tel que deg(P ) > 2 et tel que
P ait une racine dans A ; n’est pas irréductible dans A[X]. Mais la réciproque est fausse.
Dans toute la suite, A est un corps commutatif.
Théorème 1.4.3. Soient P ∈ A[X], a ∈ A et k ∈ N∗ , alors les assertions suivantes
sont équivalentes :
(i) ∃ Q ∈ A[X]/P = (X − a)k Q et Q(a) ̸= 0.
(ii) (X − a)k divise P et (X − a)k+1 ne divise pas P .
Preuve. Exercice
Dans le cas où l’une de ces assertions est vraie, on dit que a est une racine d’ordre k
et P . On dit aussi que k est l’ordre de multiplicité de la racine a de P . Lorsque k = 1,
on dit que a est une racine simple de P .
Théorème 1.4.4. Soit A un corps commutatif de caractéristique 0, P ∈ A[X], a ∈ A,
et k ∈ N∗ . Pour que a soit une racine d’ordre k de P , il faut et il suffit que Pe(a) = 0,
P ′ (a) = 0,...,P^
f g
(k−1) (a) = 0 et P (k) (a) ̸= 0.

Preuve. Utiliser la formule de Taylor.

1.4.7 Polynôme sur un corps infini


Théorème 1.4.5. Soit P ∈ A[X]. Etant donné les éléments deux à deux distincts
a1 , a2 , ...., ar ∈ A et les entiers naturels non nuls k1 , k2 , ..., kr ; P admet chacun des ai
(1 6 i 6 r) comme racine d’ordre au moins ki si et seulement si P est divisible par
Πri=1 (X − a)ki .

14
Polynômes à une indéterminée

Corollaire 1.4.1. Soit P un polynôme de A[X] de degré inférieur ou égale à n admettant


r racines distinctes à des ordres de multiplicité au moins égaux à k1 , k2 , ..., kr avec k1 +
k2 +...+kr > n alors P est le polynôme nul. Une autre manière de dire que tout polynôme
de degré n ne peut avoir au plus que n racines.

Preuve. Supposons que P ̸= 0. Alors ∃Q/P = Πri=1 (X − a)ki Q. Ainsi, d◦ P = d◦ Q +


∑ r
i=1 ki > n; ce qui est absurde.

Définition 1.4.4. On appelle polynôme scindé sur A, tout polynôme de A[X] constant
ou tel que P admet des racines dont la somme des ordres de multiplicité est le degré de
P . Autrement dit, les polynômes scindés sur A sont : le polynôme nul, les polynômes de
∑r constants non nuls) et les polynômes de la forme P = aΠi=1 (X −ai )
r ki
degré 0 (polynômes
avec a ̸= 0 et i=1 ki = deg(P ).

Exemple 1.4.1. P = X 2 + 1 n’est pas scindé sur R, mais l’est sur C car P = (X −
i)(X + i).

1.5 Etude de R[X] et de C[X]


1.5.1 Corps algébriquement clos
Définition 1.5.1. On appelle corps algébriquement clos tout corps commutatif k tel que
tout polynôme non constant de k[X] admet au moins une racine dans k. Un tel corps
est nécessairement infini.

Exemple 1.5.1. R n’est pas algébriquement clos, mais C l’est. Dans R[X], P = X 2 +
X + 1 n’est pas constant et n’admet pas de racine dans R.

Théorème 1.5.1. Soit k un corps commutatif. k est algébriquement clos si et seulement


si les seuls polynômes irréductibles de k[X] sont ceux de degré 1.

Preuve.
=⇒) Comme k est algébriquement clos, alors tout polynôme non nul de k[X] admet
au moins une racine a dans k et donc un diviseur de la forme X − a. Si son degré excède
1, alors il n’est pas irréductible. D’où les seuls polynômes irréductibles sont ceux de
degré 1.
⇐=) Supposons que tout polynôme irréductible de k[X] est de degré 1 et montrons
que k est algébriquement clos.
Soit donc P un polynôme non constant de k[X]. Il admet une décomposition en
produit de facteurs irréductibles P = aΠq∈P q µ(q) avec a ̸= 0. Donc P = aΠri=1 (X − ai )ki
car dans la décomposition, q est un polynôme irréductible et unitaire. Par conséquent k
est algébriquement clos.

Proposition 1.5.1. Si k est algébriquement clos alors tout polynôme de k[X] est scindé
sur k.

Preuve. Exercice

15
Polynômes à une indéterminée

Corollaire 1.5.1. Soient A et B deux polynômes non constants de k[X]. Pour que B
divise A, il faut et il suffit que toute racine de B d’ordre k soit une racine de A avec un
ordre de multiplicité au moins égal à k.

Exemple 1.5.2. B = (X − 2)2 (X + 1) et A = (X − 2)3 (X + 1)4 (X 2 + X + 1).

Pour que deux polynômes non constants soient associés, il faut et il suffit qu’ils aient
les mêmes racines et les mêmes ordres de multiplicité.

Exemple 1.5.3. B = (X − 2)2 (X + 1) et B ′′ = −2(X − 2)2 (X + 1).

1.5.2 Etude de C[X]


Théorème 1.5.2. (Théorème de D’Alembert)
Le corps C des nombres complexes est algébriquement clos ; A tout polynôme non nul
de C[X], on peut associer un et un seul couple constitué d’un polynôme non nul a ∈ C
et d’une application presque nulle µ : C −→ N tels que P = aΠx∈C (X − x)µ(x) (1).

On dit que (1) est la décomposition de D’Alembert du polynôme P .

Proposition 1.5.2. L’application

φ : C[X]
∑ −→ C[X] ∑
P = ni=0 ai X i 7→ φ(P ) = ni=0 āi X i

est un automorphisme involutif d’anneau.

Les deux polynômes P et φ(P ) sont dit conjugués et on note φ(P ) = P


Preuve. Exercice

1.5.3 Etude de R[X]


Soit P un polynôme non nul de R[X], alors P est un polynôme de C[X]. Par consé-
quent, P admet une décomposition dans C[X] de la forme P = aΠx∈C (X − x)µ(x) . En
utilisant le fait que φ(P ) = P = P , on déduit que P = āΠx∈C (X − x)µ(x) .
Du fait de l’unicité de la décomposition, on conclut que a ∈ R et µ(x) = µ(x).
Il vient donc que :
1) si P ∈ R[X] admet sur C la racine x ∈ C\R à l’ordre µ(x), alors P admet la racine
x à l’ordre µ(x) = µ(x).
2) Tout polynôme admet donc sur C un nombre paire non réelle de racines à condition
de compter chaque racine avec son nombre de multiplicité.

Exemple 1.5.4. P = (X − 2)(X − i)3 (X + i)3 . On a 7 racines dans C et 6 racines dans


C \ R.

Corollaire 1.5.2. Tout polynôme de R[X] de degré impair admet au moins une racine
réelle.

16
Polynômes à une indéterminée

A tout polynôme non nul P ∈ R[X], on peut associer un et un seul triplet constitué
d’un élément non nul a ∈ R et de deux applications presque nulles µ : R −→ N et
ϑ : P −→ N telles que P = aΠx∈R (X − x)µ(x) Πq∈P q ϑ(q) (2), où P est l’ensemble
des polynômes de R[X] unitaires, irréductibles de degré 2.
On dit que (2) est la décomposition de Gauss du polynôme P .

Corollaire 1.5.3. Les polynômes irréductibles de R[X] sont les polynômes de degré 1
et les polynômes de degré 2 sans racine réelle.

Exemple 1.5.5. Décomposons P = (X 5 + 1)2 dans R[X] puis dans C[X].


˜
Dans C[X], on a P (a) = 0 ⇔ (a5 + 1)2 = 0 ⇐⇒ a5 = −1. Posons a = reiθ , alors
a5 = −1 ⇐⇒
{ 5
r =1
(re ) = −1 ⇐⇒
iθ 5

{ 5θ = π + 2kπ, k ∈ Z
r=1
⇐⇒
θ = π5 + 2kπ
5
, k ∈ {0, 1, 2, 3, 4}

On trouve a ∈ {ei 5 , ei 5 ; −1; e−i 5 ; e−i 5 }. Ainsi,


π 3π 3π π

X 5 + 1 = (X + 1)(X − ei 5 )(X − e−i 5 )(X − ei 5 )(X − e−i 5 )


π π 3π 3π

. D’où
P = (X + 1)2 (X − ei 5 )2 (X − e−i 5 )2 (X − ei 5 )2 (X − e−i 5 )2
π π 3π 3π

est la décomposition de P dans C[X]. Par contre,

P = (X + 1)2 [(X − ei 5 )(X − e−i 5 )]2 [(X − ei 5 )(X − e−i 5 )]2


π π 3π 3π

P = (X + 1)2 (X 2 − 2Xcos( π5 ) + 1)2 (X 2 − 2Xcos( 3π


5
) + 1)2 est la décomposition de P
dans R[X].

17
Chapitre 2

Fractions rationnelles à une


indéterminée

2.1 Corps des fractions rationnelles à une indétermi-


née
2.1.1 Le corps k(X)
Soit k un corps commutatif. On définit sur k[X] × k[X]∗ la relation binaire R par
(A1 , B1 )R(A2 , B2 ) ⇐⇒ A1 B2 = A2 B1 . On montre que R est une relation d’équivalence
sur k[X] × k[X]∗ compatible avec les opérations.
L’ensemble quotient k[X] × k[X]∗ /R est noté k(X) et la classe de (A, B) est notée
A
B
. On munit k(X) des opérations + et ×, définies par

A1 A2 A1 B2 + A2 B1
+ = ;
B1 B2 B2 B1
et
A1 A2 A1 A2
× =
B1 B2 B2 B1
Alors (k(X), +, ×) est un corps appelé corps des fractions rationnelles à une indéterminée
sur k. Une fraction rationnelle à une indéterminée sur k est tout simplement un élément
de k(X).

Exemple 2.1.1.
X2 + X + 1 X2 + 1
∈ R(X), ∈ C(X)
X +1 X −i

2.1.2 Changement du corps de base


Théorème 2.1.1. Soit k et k′ deux corps commutatif, et ρ un isomorphisme de k sur
k′ . Alors il existe un unique isomorphisme de k(X) sur k′ (X) qui prolonge ρ et qui
transforme l’indéterminée X en X.

18
Fractions rationnelles à une indéterminée

Preuve. Soit l’application

φ : k(X)
∑n
−→ k′ (X) ∑n
ai X i ρ(ai )X i
F = ∑i=1
m
bi X i
7 → φ(F ) = ∑i=1
m i
i=1 i=1 ρ(bi )X

Exercice : Montrer que φ est un isomorphisme de corps qui prolonge ρ et que φ(X) =
X. De plus montrer que φ est unique.

2.1.3 Représentation irréductible d’une fraction rationnelle


Théorème 2.1.2. Pour toute fraction rationnelle B A
de k(X), il existe un représentant
A1 A2
B1
tel que A1 et B1 soient premier entre eux. Pour qu’un autre représentant B 2
vérifie la
propriété, il faut et il suffit qu’il existe un élément non nul a ∈ k/A2 = aA1 et B2 = aB1 .
Le représentant de la fraction rationnelle unique à constante multiplicative non nul près
est appelé forme irréductible de cette fraction rationnelle

Preuve. Exercice

2.1.4 Degré d’une fraction rationnelle


A
Soit F = B une fraction rationnelle. On appelle degré de F on note deg(F ), la
différence deg(A) − deg(B).

2.1.5 Pôle et racine d’une fraction rationnelle


Soit K un corps commutatif, F ∈ k(X) et BA
un représentant irréductible de F . Toute
racine d’ordre de multiplicité k du polynôme non nul B est dite pole d’ordre k de F .
Toute racine d’ordre de multiplicité k du polynôme A est racine d’ordre de multiplicité
k de F .

Exemple 2.1.2.
X2 − 1
F = ∈ C(X).
X2 + 1
Les poles de F sont i et −i car X 2 + 1 = (X − i)(X + i). Les racines de F sont 1 et −1

X2 − 1
F = ∈ R(X).
X2 + 1
n’a pas de pole, mais admet pour racine −1 et 1.

2.1.6 Fonction rationnelle


Définition 2.1.1. Soit F = B A
une fraction rationnelle de k(X) où B
A
est un représentant
irréductible de F . Le domaine de F noté DF est le complémentaire des pôles de F dans

19
Fractions rationnelles à une indéterminée

k. On appelle fonction rationnelle l’application


˜
F : DF −→ k
˜ ˜

x 7→ F (x) = A(x)
˜
B(x)

2.1.7 Dérivation d’une fraction rationnelle


Théorème 2.1.3. Soit F = B A
∈ k(X), alors la fraction rationnelle représentée par

BA −AB ′ A
B2
est indépendant du choix du représentant B de F. On l’appelle fraction ration-

nelle dérivée de F et on la note F .
A C
F = = ⇒ AD = CB ⇒ A′ D + D′ A = C ′ B + B ′ C.
B D

A ′ C ′ BA′ −AB ′ C ′ D−D′ C


(B ) = (D ) ⇔ B2
= D2
⇒ A′ BD2 − B ′ AD2 = C ′ DB 2 − D′ CB 2
⇒ D2 BA′ − AB ′ D2 = C ′ DB 2 − D′ CB 2
⇒ P = D2 BA′ − AB ′ D2 = C ′ DB 2 − D′ CB 2

2.2 Théorie de décomposition en éléments simples


Dans cette section k est un corps commutatif.

2.2.1 Partie entière d’une fraction rationnelle


Théorème 2.2.1. A toute fraction rationnelle F ∈ k(X), on peut associer un et un
seul polynôme E tel que le degré de F − E soit strictement négatif (d◦ (F − E) < 0). On
dit que E est la partie entière de F .

Preuve. F = B A
∈ k(X) où B A
est un représentant irréductible de F . Soient Q et
R respectivement le quotient et le reste de la division euclidienne de A par B. Alors
F =B A
= BQ+R
B
=Q+ B R
. D’où F − Q = B R R
et deg( B ) = deg(R) − deg(B) < 0. Il suffit
de prendre E = Q.

2.2.2 Etude théorique de la décomposition en éléments simples


Lemme 2.2.1. Soient (B1 , B2 ) un couple de polynômes non nuls et premiers entre eux
sur un corps commutatif k, et A un polynôme tel que deg(A) < deg(B1 B2 ). Alors
A1 A2 A1
il existe un et un seul couple (A1 , A2 ) tel que B1AB2 = B 1
+ B 2
avec deg( B 1
) < 0 et
A2
deg( B2 ) < 0.

Preuve.

20
Fractions rationnelles à une indéterminée

a) Unicité : Soit (A1 , A2 ) et (A′1 , A′2 ) deux tels couples


A′1 A′2 A −A′ A′ −A
A1
B1
+ A2
B2
= B1
+ B2
⇒ 1
B1
1
= 2B2 2
⇒ (A1 − A′1 )B2 = (A′2 − A2 )B1
⇒ B1 /(A1 − A′1 ) et B2 /(A2 − A′2 )
⇒ A1 − A′1 = 0 et A2 − A′2 = 0
⇒ A1 = A′1 et A2 = A′2 .

car deg(A1 − A′1 ) 6 max(deg(A1 ), deg(A′1 )) < deg(B1 ).


b) Existence : D’après le théorème de Bézout, il existe u1 et u2 dans k[X] tels que
u1 B2 + u2 B1 = 1. On obtient donc A = Au1 B2 + Au2 B1 , d’où B1AB2 = Au1 BB21+Au B2
2 B1
=
Au1 Au2 Au1 Au2
B1
+ B2 . En désignant par E1 , E2 les parties entières respectives de B1 et B2 . On
Au1 A1 A1
a B1 = E1 + B 1
avec deg( B 1
) < 0 et Au
B2
2 A2
= E2 + B 2
A2
avec deg( B2
) < 0 ; d’où B1AB2 =
A1 A2 A1 A2
(E1 + E2 ) + B 1
+B 2
. Comme deg( B1AB2 ) < 0, alors E1 + E2 = 0 d’où B1AB2 = B 1
+B 2
A1 A2
avec deg( B 1
) < 0 et deg( B2
) < 0 .

Proposition 2.2.1. Pour toute suite de polynômes A, B1 , ...., Bn dans laquelle les Bi
sont deux à deux premiers entre eux et deg(A) < deg(B1 B2 ...Bn ), il existe une et une
A1 A2 Ai
seule suite de polynômes A1 , ...., An telle que B1 BA2... Bn = B 1
+B 2
An
+...+ B n
, et deg( Bi
) < 0,
1 6 i 6 n.

Preuve. Elle se fait par récurrence sur n.


2
2 (X+3)2 ∈ R(X)
X +1
Exemple 2.2.1. F = (X−1)
Déterminer A1 et A2 tels que
A1 A2
F = (X−1) 2 + (X+3)2

avec deg(A1 ) < 2 et deg(A2 ) < 2 ; C’est-à-dire que

aX + b cX + d
F = +
(X − 1)2 (X + 3)2

Proposition 2.2.2. Soit Q un polynôme non constant, k ∈ N∗ . Pour tout polynôme


Ck tel que deg(Ck ) < deg(Qk ), il existe une et une seule famille (P1 , P2 , ..., Pk ) de
Ck
polynômes telle que Q P1 P2 Pk Pi
k = Q1 + Q2 ... + Qk avec deg( Q ) < 0, 1 6 i 6 k.

Preuve. Elle se fait par récurrence sur k. Soit P (k) la propriété : Pour tout polynôme
Ck tel∑que deg(Ck ) < deg(Qk ), il existe une et une seule famille (P1 , P2 , ..., Pk ) telle que
Ck
Qk
= ki=1 Q Pi Pi
i , avec deg( Q ) < 0.

Montrons d’abord P (1). Comme on a deg(C1 ) < deg(Q), on choisit P1 = C1 et on a


le résultat.
Soit k ∈ N∗ . Supposons la propriété (Pk ) vraie jusqu’au rang k et montrons P (k + 1).
On a deg(Ck+1 ) < deg(Qk+1 ). En effectuant la division euclidienne de Ck+1 par Q on a
Ck+1 = T Q + R avec deg(R) < deg(Q).
Si T = 0, alors R = Ck+1 ; on choisit Pk+1 = Ck+1 et P1 = P2 = · · · = Pk = 0. On a
Ck+1 Ck+1
Qk+1
= Q0 + Q02 + · · · + Q0k + Qk+1 et deg( Q ) < 0, 1 6 i 6 k + 1.
Pi

21
Fractions rationnelles à une indéterminée

Si T ̸= 0, alors deg(T Q) = deg(T ) + deg(Q) > deg(R). D’où deg(Ck+1 = deg(T Q + R) =


deg(T ) + deg(Q). Comme deg(Ck+1 ) < deg(Qk+1 ), on obtient deg(T ) < deg(Qk .
Ck+1 T Q+R
Qk+1
= Qk+1
(avec deg(R) < deg(Q))
T R
= + Qk+1
∑k Ti R
Qk
= i=1 Qi + Qk+1 (avec deg(Ti ) < deg(Q))

On choisit Pi = Ti , 1 6 i 6 k et Pk+1 = R.
D’où (Pk+1 ) est vraie.

Définition 2.2.1. Toute fraction rationnelle de k(X) de la forme QPk où Q est un


polynôme irréductible de k[X] et deg(P ) < deg(Q) est appelé un élément simple. D’une
manière plus précise, si le polynôme Q est de degré n, alors on dit que QPk est un élément
simple de nième espèce.

Théorème 2.2.2. Soit F une fraction rationnelle de k(X) de représentant irréduc-


A
tible B dans lequel B est un polynôme de degré au moins égal à 1. Si l’on désigne par
k1 k2
bQ1 Q2 ...Qknn la décomposition du polynôme B en produit de polynômes irréductibles,
unitaires et non associés, alors il existe une famille unique de polynôme de k[X] noté E
∑ ∑ i Pij P
et (Pij )16i6n,16j6k telle que F = E + ni=1 ( kj=1 Qji
) et deg( Qiji ) < 0. Cette décomposi-
tion porte le nom de la décomposition de F en éléments simples.

Preuve.
a) Existence d’une décomposition
D’après le théorème 2.2.1, il existe un unique couple (E, A1 ) tel que F = E + AB1 avec
deg( AB1 ) < 0. Q1 , Q2 , ..., Qn étant irréductibles et non associés, il sont premiers
entre eux deux à deux. Par conséquent les polynômes Qk11 , Qk22 , ..., Qknn sont aussi
premiers entre eux deux à deux.
D’après la proposition 2.2.1 ci-dessus, on peut écrire d’une et une seule façon

A1 A1 b−1 A1 C1 C2 Cn
= k k
= k k
= k1 + k2 + ... + kn ,
B 1 2 k
bQ1 Q2 ...Qnn Q1 Q2 ...Qnn
1 2 k Q1 Q2 Qn
Ci
avec deg( k ) < 0.
Qi i

Pour tout i ∈ {1, 2, ..., n}, la proposition 2.2.2 ci-dessus permet d’écrire d’une seule
façon.
C1 ∑ k
Pij
=
Qk11 i=1
Qji
Il en résulte la décomposition annoncée.
b) Unicité : Elle résulte des résultats suivants : théorème 2.2.1, proposition 2.2.1 et
proposition 2.2.2.

22
Fractions rationnelles à une indéterminée

2.2.3 Cas d’un corps algébriquement clos


Les polynômes irréductibles de k[X] sont les polynômes de degré 1. Les seuls éléments
simples sont de premiere espèce et le numérateur d’un élément ∑ simple∑est un élément de
αij
k. Le théorème de décomposition s’écrit comme suit : P = E + ni=1 ( kj=1 i
(X−ai )j
) avec
∑ki αij
αij ∈ k. On dit que la somme j=1 (X−a i)
j est la partie polaire de F ou encore partie

principale de F associée au pôle ai d’ordre de multiplicité ki .


Soit a∑un pôle d’ordre k de F ∈ k[X], dans la partie polaire associée à a qui est de
αj
la forme kj=1 (X−a) j . Le coefficient α1 est appelé résidu de F au pôle a et on le note

Res(F, a).

2.2.4 Détermination de la partie polaire d’une fraction ration-


nelle F de k(X) associée au pôle a d’ordre de multiplicité
k.
Soit F = XPα Q(X)
(X)
une fraction rationnelle irréductible de k(X) admettant zéro comme
pôle d’ordre k, avec P (0) ̸= 0 et Q(0) ̸= 0.
On a P (X) = (a0 + a1 X + ... + ak−1 X k−1 )Q(X) + X k R(X) qui s’obtient en faisant
la division suivant les puissances croissantes de l’indéterminé X du polynôme P par le
polynôme Q à l’ordre k − 1. Alors la partie polaire de la fraction rationnelle considérée
relative au pôle 0 est Xa0k + Xak−1
1
+ ... + ak−1
X
.
P (X) (a0 +a1 X+...+ak−1 X k−1 )Q(X)+X k R(X)
F = X k Q(X)
= X k Q(X)
= a0
Xk
+ X k−1 + ... + ak−1
a1
X
R(X)
+ Q(X) .

Exemple 2.2.2. Donnons la décomposition en éléments simples de


X2 + X + 1
F = ∈ C(X).
X 3 (X − 1)(X + 1)

Par division suivant les puissances croissantes de X de 1 + X + X 2 par X 2 − 1 à l’ordre


2, on obtient :

1 + X + X 2 = (−1 + X 2 )(−1 − X − 2X 2 ) + X 3 + 2X 4
2 2 3 4 2 3 4
F = (−1+X )(−1−X−2X
X 3 (X 2 −1)
)+X +2X
= (−1−X−2X
X3
)
+ (X +2X )
X 3 (X 2 −1)
= XA
+ XB2 + XC3 + 2X+1
X 2 −1
=
− X2 − X12 − X13 + 2X+1
X 2 −1
.
La partie polaire relative à 0 est − X2 − X12 − X13 .
On a aussi 2X+1
X 2 −1
2X+1
= (X−1)(X+1) a
= X−1 + X+1b
, avec a = 23 , b = 21 .
F = − X2 − X12 − X13 + 2(X−1) 3 1
+ 2(X+1) . Res(F, 0) = −2, Res(F, 1) = 23 , Res(F, −1) =
+ 21 .
Application
k C(X) une fraction rationnelle irréductible de k(X) admettant a pour
A(X)
Soit F = (X−a)
pôle d’ordre k. On pose P (Y ) = A(Y + a), Q(Y ) = C(Y + a). On a le quotient a0 +

23
Fractions rationnelles à une indéterminée

a1 Y +...+ak−1 Y k−1 de P (Y ) par Q(Y ) suivant les puissances croissantes d’indéterminée


Y à l’ordre k − 1. Dans ces conditions, la partie polaire de la fraction considérée au pôle
a0 a1 ak−1
a est (X−a) k + (X−a)k−1 + ... + X−a .

Exemple 2.2.3.
X2 + X − 1
F = ∈ C(X)
(X − 1)3 (X + 1)3
a b c d e f
On veut écrire F de la forme F = X+1 + (X+1) 2 + (X+1)3 + X+2 + (X+2)2
+ (X+2)3
. On
fait le changement d’indéterminée Y = X + 1; ⇒ X = 1 − Y , d’où
(Y − 1)2 − Y
F = ∈ C(Y )
Y 3 (Y + 1)3
Continuer la décomposition en éléments simples de F .
Proposition 2.2.3. Si A
B
est une fraction rationnelle irréductible de R(X) présentant
e
le pôle simple a, alors la partie polaire relative au pôle a est A(a)
f
B ′ (a)
× 1
X−a

X+1
Exemple 2.2.4. Décomposons en éléments simples F = (X−2)(X+3) .

On a A(X) = X + 1, B(X) = X + X − 6 et B (X) = 2X + 1. On a alors
2
e e
A(2)
F = Bf′ (2)
× X−2
1 A(−3)
+ Bf′ (−3)
× X+3
1
= 53 X−2
1
+ −2 1
−5 X+3
= 35 X−2
1
+ 25 X+3
1
.

2.2.5 Cas du corps R


Les polynômes irréductibles de R[X] sont d’une part les polynômes de degré 1 et
d’autre part les polynômes de degré 2 donc le discriminant est négatif.
Les éléments simples sont donc de deux types à savoir :
- Les éléments simples de première espèce.
- Les éléments simples de deuxième espèce.
Pour les facteurs irréductibles de degré 1, les éléments simples de première espèce
sont ceux dont les numérateurs sont réels.
Pour les facteurs irréductibles de degré 2, les éléments simples de deuxième espèce
sont ceux dont les numérateurs sont des polynômes de degré 1 au plus. Dans ce cas, la
décomposition en éléments simples est


n ∑ ki
Xir ∑m ∑ l1
βjs + γjs
F =E+ ( ) + ( )
i=1 r=1
(X − a)r j=1 s=1
(X 2 + p X + q )s
j j

avec p2j − 4qj < 0. Pour trouver les coefficients de cette décomposition, on peut :
- Faire la décomposition sur C puis regrouper les pôles conjugués pour avoir la décom-
position sur R.
- Ecrire la décomposition inconnue sur R et procéder par identification.
- Utiliser les considérations de parité ou de limite

24
Fractions rationnelles à une indéterminée

Exemple 2.2.5. Décomposer sur R, puis sur C les fractions rationnelles suivantes :
X +1 X
F = et G =
(X − 2)2 (X 2
+ X + 1) (X + 1)2
2

Dans R, on a :
a b cX+d
F = X−2
+ (X−2)2
+ X 2 +X+1
(I)

En multipliant (I) par (X − 2)2 et en substituant 2 à X on obtient b = 37 .


j+1
En multipliant (I) par X 2 +X +1 et en substituant j à X on obtient cj +d = (j−2) 2 . D’où

(cj + d)(j − 2) = j + 1. On développe et on identifie les parties réelles et imaginaires


2

pour trouver les valeurs de c et d. Ensuite on substitue 0 à X pour calculer a.


−aX+b
G = (X 2X+1)2 = X 2 +1 + (X 2 +1)2 . G étant impair, G(−X) = −G(X). Donc
aX+b cX+d
X 2 +1
+
−cX+d
(X 2 +1)2
= − X 2 +1 − (X 2 +1)2 d’où
aX+b cX+d

{ {
b = −b b=0
donc
d = −d d=0

D’où G = XaX cX
2 +1 + (X 2 +1)2 (2).

En multipliant (2) par (X 2 + 1)2 et en substituant i à X, on a


i = ci ⇒ c = 1
1 a
En substituant 1 à X, on a a = 0, car 4
= 2
+ 14 , d’où G = X
(X+1)2
.

F = a
X−2
+ b
(X−2)2
+ c
(X−j)
+ d
(X−j)
(1) où j = − 12 + i 23 .

A(X) = X + 1
B(X) = (X − 2)2 (X 2 − X + 1) = (X − 2)2 (X − j)(X − j)
B ′ (X) = 2(X − 2)(X 2 − X + 1) + (2X + 1)(X − 2)2

En multipliant (1) par (X − 2)2 et substituant 2 à X. On a b = 73 .


En multipliant (1) par (X − j) et en substituant j à X. On a
√ √
j+1 − 21 + i 3
+1 1
+i 3
=c⇒c= √
2
√ = √
2
√ 2
(j − 2)2 (j − j) (− 12 + i 2
3
− 2) i 3
2 5 3 2
(− 2 + i 2 ) i 3

En multipliant (1) par (X − j) et en substituant j à X. On obtient


√ √
j+1 1
− i 23 − 12 + i 23
=d⇒d= 2
√ √ = 5 √ √
(j − 2)2 (j − j) −(− 25 − i 23 )2 i 3 ( 2 + i 23 )2 i 3

En substituant 0 à X dans (1), on a 1


4
= a
2
+ 4b − jc − dj , d’où 1
2
= −a + 4b − 2cj − 2d
j
d’où

1 b 2c 2d 1 b 2cj − 2dj
a=− + − − =− + − .
2 4 j j 2 4 1
On obtient la décomposition cherchée.

25
Fractions rationnelles à une indéterminée

2.3 Travaux dirigés sur les polynômes et les fractions


rationnelles
Exercice1 Effectuer la division euclidienne du polynôme P = X 5 −X 4 +2X 3 +X 2 +4
par Q = X 2 − 1. Même exercice pour lorsque P = X 4 − 2Xcos(φ) + 1.

Exercice2 Soit P un polynôme. Sachant que le reste de la division euclidienne de P


par X − a est 1 et celui de la division de P par X − b est −1, (a ̸= b), quel est le reste
de la division euclidienne de P par (X − a)(X − b) ?

Exercice3 Calculer le reste de la division euclidienne du polynôme X n + X + 1 par


le polynôme (X − 1)2 .

Exercice4 Pour quelles valeurs de m le polynôme (X + 1)m + X m − 1 est-il divisible


par le polynôme Q = X 2 + X + 1 ?

Exercice5 Déterminer a, b ∈ Z de façon à ce que le polynôme aX n+1 − bX n + 1


soit divisible par le polynôme (X − 1)2 . Calculer alors le quotient des deux polynômes.

Exercice6 Pour n ∈ N, montrer que le polynôme (X − 1)n+2 + X 2n+1 est divisible


par X 2 + X + 1. Pour le quotient si n = 2.

Exercice7 Trouver les polynômes P tels que P + 1 soit divisible par (X − 1)4 et
P − 1 par (X + 1)4 :
a) en utilisant la relation de Bézout
b) en considérant le polynôme dérivé P ′.
Combien y’a t-il de solution de degré inférieur à 7 ?

Exercice8 Déterminer le reste de la division euclidienne de (sinaX + cosa)n par


2
X + 1.

Exercice9 Calculer pgcd(P, Q) lorsque :


a) P = X 3 − X 2 − X − 2 et Q = X 5 − 2X 4 + X 2 − X − 2
b) P = X 4 + X 3 − 2X + 1 et Q = X 3 + X + 1.

Exercice10 Déterminer A, B ∈ R[X] tels que (X 3 + 1)A + (X 2 + X + 1)B = 1

Exercice11 Soit n un entier strictement positif.


1) Démontrer qu’il existe un unique couple de polynômes P et Q de degrés stricte-
ment inférieurs à n tels que (1 − X)n P (X) + X n Q(X) = 1
2) Démontrer que P (1 − X) = Q(X) et Q(1 − X) = P (X)
3) Démontrer qu’il existe une constante a telle que (1 − X)P ′(X) − nP (X) = aX n−1 .
En déduire les coefficients de P et la valeur de a. (Réponse : a = −(2n − 1)C2n−2
,n−1
.

Exercice12 Soit P (X) = an Xn +....+a0 un polynôme à coefficients entiers premiers


entre eux (c’est-à-dire tels que les seuls diviseurs communs à tous les ai soient −1 et 1).

26
Fractions rationnelles à une indéterminée

P
Montrer que si r = Q avec P et Q premier entre eux est une racine rationnelle de P ,
alors p divise a0 et q divise an .

Exercice13 Montrer que le polynôme nX n+2 − (n + 2)X n+1 + (n + 2)X − n admet


une racine multiple.
Application : Déterminer les racines du polynôme 3X 5 − 5X 4 + 5X − 3

Exercice14 Soit P = (X 2 − X + 1)2 + 1


1) Vérifier que i est racine de de P ,
2) En déduire alors la décomposition en produit de facteurs irréductibles de P sur
R[X],
3) Factoriser sur C[X] et sur R[X] les polynômes suivants en produit de polynômes
irréductibles : P = X 4 + X 2 + 1, Q = X 2n + 1, R = X 6 − X 5 + X 4 + X 2 − X + 1,
S = X 5 − 13X 4 + 67X 3 − 171X 2 + 216X − 108 (On cherchera la racine double de S).

Exercice15 Décomposer X 12 − 1 en produit de facteurs irréductibles dans R[X].

Exercice16 Prouver que B divise A, où :


a) A = X 3n+2 + X 3m+1 + X 3p et B = X 2 + X + 1,
b) (X + 1)2n − X 2n − 2X − 1 et B = X(X + 1)(2X + 1)
c) nX n+1 − (n + 1)X n + 1 et B = (X − 1)2 .
{
∗ Rn [X] −→ Rn [X]
Exercice17 Soit n ∈ N fixé et △ :
P (X) 7→ P (X + 1) − P (X)
a) Montrer que △ est linéaire, ie que ∀(a, b) ∈ R2 , et (P, Q) ∈ Rn [X], △(aP + bQ) =
a△(P ) + b△(Q),
b) Déterminer ker△ = {P ∈ Rn [X]/△(P ) = 0},
c) Soient H0 = 1 et pour k ∈ {1, ..., n}, Hk = k!1 X(X − 1)...(X − k + 1). Calculer
△(Hk ),
d) Soit Q ∈ Rn−1 [X] : comment trouver P ∈ Rn [X] tel que △(P ) = Q,
e) Déterminer P pour Q = X 2 tel que P (1) = 0,
f) En déduire la somme 12 + 22 + ... + n2 .

Exercice18 Décomposer les fractions rationnelles suivantes :


a) X 33+1 sur C, puis sur R;
3
b) XX3 −1 sur R;
X 2 +X+1
c) (X−1) 2 (X+1)2 sur R;

d) P (X) = (X 33−1)2 sur C en remarquant que F (jX) = F (X)


X 7 +1
e) (X 2 +1)(X 2 +X+1)
sur R;
5 4 2
f) 3X +2X +X +3X+2
X 4 +1
sur R;
g) 1
X 2n −1
sur C, puis sur R;
X 3 +X
h) (X 2 +X+1)2
sur R.

2x4 +x3 +3x2 −6x+1


Exercice19 Décomposition en éléments simples de Φ = 2x3 −x2

27
Fractions rationnelles à une indéterminée

2x5 −8x3 +8x2 −4x+1


Exercice20 Décomposition en éléments simples de Φ = x3 (x−1)2

4x6 −2x5 +11x4 −x3 +11x2 +2x+3


Exercice21 Décomposition en éléments simples de Φ = x(x2 +1)3

Exercice22 Soient a et b deux réels distincts de F (X) = (X−a)n1(X−1)n . En utilisant


la formule de Taylor en a pour f (X) = (X − a)n F (X), décomposer F sur R.

28
Chapitre 3

Systèmes d’équations linéaires et


matrices

L’algèbre linéaire est un outil essentiel pour toutes les branches de mathématiques
appliquées, en particulier lorsqu’il s’agit de modéliser puis de résoudre numériquement
des problèmes issus de divers domaines : des sciences physiques ou mécaniques, des
sciences du vivant, de la chimie, de l’économie, des sciences de l’ingénieur...
Par exemple, la physique abonde de relations linéaires : les lois fondamentales du
mouvement sont presque toutes linéaires, ou se déduisent de lois linéaires. Les systèmes
électriques sont fondamentalement décrits par des lois linéaires (U = RI, etc. ). C’est
pourquoi, le présent cours commence avec une étude des équations linéaires et de leur
résolution.

3.1 Introduction aux systèmes d’équations linéaires


L’équation d’une droite dans le plan (xOy) s’écrit a1 x + a2 y = b où a1 , a2 et b
sont des paramètres réels. Cette équation s’appelle équation linéaire dans les variables
(ou inconnues) x et y.

Exemple 3.1.1. 2x + 3y = 6

Exemple 3.1.2. les équations suivantes ne sont pas des équations linéaires : 2x+y 2 = 1;

y = sin(x); x = y.

Définition 3.1.1. De manière générale, on appelle équation linéaire dans les variables
x1 , x2 , ..., xn toute relation de la forme a1 x1 + ... + an xn = b (1.1) où a1 , ..., an et b sont
des nombres réels.

Il importe d’insister ici que ces équations linéaires sont implicites, c’est-à-dire qu’elles
décrivent des relations entre variables, mais ne donnent pas directement les valeurs que
peuvent prendre les variables.
Résoudre une équation signifie donc la rendre explicite, c’est-à-dire rendre plus ap-
parentes les valeurs que les variables peuvent prendre.

29
Systèmes d’équations linéaires et matrices

Une solution de l’équation linéaire (1.1) est un n-uplet s1 , ..., sn de valeurs des
variables x1 , ..., xn qui satisfont à l’équation (1.1). Autrement dit, a1 s1 + ... + an sn = b.
Par la suite, nous étudierons l’ensemble des solutions d’une équation linéaire.

Exemple 3.1.3. Trouvons l’ensemble des solutions de l’équation x1 − 4x2 + 13x3 = 5.

Nous donnons des valeurs arbitraires s et t à x2 et x3 respectivement et résolvons


l’équation par rapport à x1 : x2 = s, x3 = t et x1 = 4s − 13t + 5, où s et t sont des
nombres réel quelconques.

Définition 3.1.2. Un ensemble fini d’équations linéaires dans les variables x1 , ..., xn
s’appelle un système d’équations linéaires. Tout n-uplet de nombres (s1 , ..., sn ) satisfai-
sant chacune des équations s’appelle solution du système d’équations linéaires.
{
x1 − 3x2 + x3 = 1
Exemple 3.1.4. le système admet comme solution x1 =
−2x1 + 4x2 − 3x3 = 9
−18, x2 = −6, x3 = 1. par contre x1 = 7, x2 = 2, x3 = 0 ne satisfait que la première
équation. Ce n’est donc pas une solution du système.

Définition 3.1.3. Un système d’équations est dit incompatible ou inconsistant s’il n’ad-
met pas de solutions.
{
x1 + x2 = 1
Exemple 3.1.5. Le système linéaire est clairement incompatible.
2x1 + 2x2 = 1

3.1.1 Systèmes d’équations linéaires à deux variables


{
a11 x1 + x12 x2 = b1
Considérons le système (1.2) avec a11 .a22 ̸= 0 et a21 .a22 ̸=
a21 x1 + a22 x2 = b2
0.
Ces deux équations représentent deux droites d1 et d2 dans le plan x1 x2 et une solu-
tion du système est un point (s1 , s2 ) qui est sur les deux droites. Trois cas se présentent
alors :
(1) Les droites d1 et d2 se coupent en un seul point. Dans ce cas, le système (1.2) a une
seule solution.
(2) Les droites d1 et d2 sont parallèles. Alors le système est incompatible et n’a pas de
solution.
(3) Les droites d1 et d2 sont confondues et dans ce cas, le système a une infinité de
solutions.
Nous verrons plus loin que ces trois cas de figures (aucune solution, une seule solution,
une infinité de solutions) sont les seuls cas qui peuvent se présenter pour n’importe quel
système d’équation linéaires.

30
Systèmes d’équations linéaires et matrices

3.1.2 Systèmes linéaires et matrices


Considérons un système quelconque de m équations à n inconnues,


 a11 x1 + a12 x2 + ... + a1n xn = b1

 a21 x1 + a22 x2 + ... + a2n xn = b2
.. ..

 . .

 a x + a x + ... + a x
m1 1 m2 2 mn n = bm

(1.3)
où le nombre réel aij est le coefficient de la j-ème inconnue dans la i-ème équation.
Définition 3.1.4. (Matrice augmentée). Nous obtenons la matrice augmentée associée
au système en "oubliant" les variables xi et les signes ” + ” et ” = ”. La matrice
augmentée associée au système (1.3) est alors
 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
 
 .. .. .. .. .. 
 . . . . . 
am1 am2 · · · amn bm

On appelle matrice du système (1.3) la matrice suivante :


 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
 .. .. .. .. 
 . . . . 
am1 am2 · · · amn

Exemple 3.1.6. Considérons le système linéaire



 x1 + x2 + 7x3 = −1
2x1 − x2 + 5x3 = −5

−x1 − 3x2 − 9x3 = −5

Sa matrice augmentée est


 
1 1 7 −1
 2 −1 5 −5 
−1 −3 −9 −5

et sa matrice est  
1 1 7
 2 −1 5 
−1 −3 −9
La méthode de base pour résoudre un système d’équations linéaires est de remplacer
le système par un autre plus simple, ayant le même ensemble de solutions. Ceci se fait
par une succession d’opérations, appelées opérations élémentaires :

31
Systèmes d’équations linéaires et matrices

(1) multiplier une équation par une constante non nulle ;


(2) permuter deux équations ;
(3) ajouter un multiple d’une équation à une autre équation.
Les opérations (1), (2) et (3) ne changent pas l’ensemble des solutions. Elles cor-
respondent à des opérations élémentaires sur les lignes de la matrice augmentée. Ces
opérations sont les suivantes (nommées (∗)) :
(1) multiplier une ligne par une constante non nulle ;
(2) permuter deux lignes ;
(3) ajouter un multiple d’une ligne à une autre ligne.
Exemple 3.1.7. Utilisons ces opérations élémentaires pour résoudre le système suivant :

 x1 + x2 + 7x3 = −1
2x1 − x2 + 5x3 = −5

−x1 − 3x2 − 9x3 = −5

Nous écrivons la matrice augmentée associée au système :


 
1 1 7 −1
 2 −1 5 −5 
−1 −3 −9 −5
puis faisons les opérations élémentaires nécessaires sur le système et sur la matrice
augmentée
(1) l2 −→ l2 − 2l1

 x + y + 7z = −1
−3y − 9z = −3

−x − 3y − 9z = −5
(1) l2 −→ l2 − 2l1  
1 1 7 −1
 0 −3 −9 −3 
−1 −3 −9 −5
Nous remarquons que les opérations élémentaires peuvent être faites uniquement sur
la matrice augmentée pour revenir à la fin au système d’équations. C’est dire que nous
faisons dans le suite.
(2) l3 −→ l3 + l1  
1 1 7 −1
 0 −3 −9 −3 
0 −2 −2 −6
(3) l3 −→ − 31 l2  
1 1 7 −1
 0 1 3 1 
0 −2 −2 −6

32
Systèmes d’équations linéaires et matrices

(4) l3 −→ l3 + 2l1  
1 1 7 −1
 0 1 3 1 
0 0 4 −4
(5) l3 −→ 14 l3  
1 1 7 −1
 0 1 3 1 
0 0 1 −1
(6) l1 −→ l1 − 7l3  
1 1 0 6
 0 1 3 1 
0 0 1 −1
(7) l2 −→ l2 − 3l3  
1 1 0 6
 0 1 0 4 
0 0 1 −1
(8) l1 −→ l1 − l2  
1 0 0 2
 0 1 0 4 
0 0 1 −1
Cette matrice augmentée correspond au système

 x = 2
y = 4

z = −1

On obtient ainsi l’unique solution du système x = 2, y = 4 et z = −1.


Cet exemple est généralisé dans le paragraphe suivant.

3.2 Elimination gaussienne


Il s’agit d’une méthode qui permet de trouver l’ensemble des solutions de n’importe
quel système d’équations linéaires. La méthode consiste à mettre la matrice augmen-
tée du système sous une forme simple, dite forme échelonnée (réduite) par une série
d’opérations élémentaires (1), (2), (3) et (∗).
Commençons par poser la définition suivante :

Définition 3.2.1. (matrice échelonnée). Une matrice est appelée matrice échelonnée si
elle a les propriétés suivantes :
(i) Dans toute ligne non nulle, le premier élément non nul vaut 1. Il est appelé le 1
directeur ;
(ii) Les lignes dont tous les éléments sont nuls sont regroupées en bas de la matrice ;

33
Systèmes d’équations linéaires et matrices

(iii) Dans deux lignes successives (contiguës) ayant des éléments non nuls, le 1 directeur
de la ligne inférieure se trouve à droite du 1 directeur de la ligne supérieure.
Exemple 3.2.1. La matrice
 
0 1 −3 −6 0
 1 3 1 0 2 
0 0 1 1 7

satisfait la propriété (i) mais pas la propriété (iii), alors que la matrice suivante
( )
0 −3 1
1 −1 0

ne satisfait pas la propriété (i). En revanche, la matrice


 
0 1 7 −6
 0 0 0 1 
0 0 0 0

satisfait (i), (ii) et (iii) : elle est donc sous forme échelonnée. Finalement, la matrice
 
0 0 1 −1 −1
 0 1 0 0 3 
0 0 0 0 0

satisfait (i), (ii) mais pas (iii).


On peut raffiner un peut la définition précédente en posant :
Définition 3.2.2. (matrice échelonnée réduite). Si en plus des propriétés (i) − (iii) ci-
dessus, la matrice satisfait la propriété (iv) ci-dessous, on parle de matrice échelonnée
réduite.
(iv) Toute colonne contenant un 1 directeur a des zéros partout ailleurs.
Exemple 3.2.2. La matrice  
1 0 0 −3
 0 0 1 1 
0 0 0 0
est échelonnée réduite, alors que la matrice
 
1 0 1 2
 0 0 1 1 
0 0 0 0

est sous forme échelonnée non réduite (à cause de la 3ième colonne).


On peut transformer n’importe quelle matrice en une matrice échelonnée (réduite)
en utilisant l’algorithme de Gauss.

34
Systèmes d’équations linéaires et matrices

3.2.1 Algorithme d’élimination de Gauss


Cet algorithme permet de transformer n’importe quelle matrice sous la forme éche-
lonnée réduite à l’aide des opérations élémentaires (1) − (3) de (∗) . Voici la marche à
suivre illustrée par un exemple.
(1) Identifier la colonne se trouvant le plus à gauche contenant au moins un élément
non nul.
Exemple : la deuxième colonne de la matrice suivante
 
0 0 1 3
 0 3 0 1 
0 3 1 2

(2) Permuter s’il le faut, la première ligne avec une autre, pour que l’élément en haut
de la colonne identifiée en (1) devienne non nul.
Exemples (suite) : En permuttant les deux premières ligne de la matrice suivante,
 
0 0 1 3
 0 3 0 1 
0 3 1 2

on obtient la matrice  
0 3 0 1
 0 0 1 3 
0 3 1 2
(3) Si l’élément se trouvant en haut de la dite colonne vaut a, multiplier la première
ligne par a1 pour y faire apparaître le 1 directeur.
Exemple (suite) :  
0 3 0 1
 0 0 1 3 
0 3 1 2
l1 −→ 13 l1 donne la matrice  
1
0 1 0 3
 0 0 1 3 
0 3 1 2
(4) Ajouter des multiples adéquats de la première ligne aux lignes en-dessous pour
annuler les éléments en dessous du 1 directeur.
Exemple (suite) : De la matrice
 1

0 1 0 3
 0 0 1 3 
0 3 1 2

35
Systèmes d’équations linéaires et matrices

l3 −→ l3 − 3l1 donne  
1
0 1 0 3
 0 0 1 3 
0 0 1 1
(5) Couvrir la première ligne de la matrice, et aller à (1)
Exemple (suite) : ( )
0 0 1 3
0 0 1 1
l2 −→ l2 − l1 ( )
0 0 1 3
0 0 0 −2
l2 −→ − 12 l2 ( )
0 0 1 3
0 0 0 1
(6) La matrice entière est échelonnée.
Exemple (suite) : On remet la première ligne en place
 
0 1 0 13
 0 0 1 3 
0 0 0 1

(7) Pour la mettre sous la forme échelonnée réduite, il faut ajouter à une ligne des
multiples adéquats des lignes situées en-dessous d’elle en allant du bas vers le
haut.
Exemple (suite) : En partant de la matrice
 1

0 1 0 3
 0 0 1 3 
0 0 0 1

l2 −→ l2 − 3l3  
1
0 1 0 3
 0 0 1 0 
0 0 0 1
l1 −→ l1 − 13 l3  
0 1 0 0
 0 0 1 0 
0 0 0 1
Les deux exemples ci-dessous illustrent encore l’algorithme.

36
Systèmes d’équations linéaires et matrices

Exemple 3.2.3.  
0 (4) 0 −1
 0 1 (2) 1 
0 0 1 −3
l3 −→ l2 − 2l3  
0 4 0 −1
 0 1 (0) 7 
0 0 1 −3
 
0 (4) 0 −1
 0 1 0 7 
0 0 1 −3
l1 −→ l1 − 4l2  
0 (0) 0 −29
 0 1 0 7 
0 0 1 −3
Exemple 3.2.4.  
0 1 −1 5 −1
 0 1 −2 0 3 
1 −3 2 0 −1
l1 ←→ l3  
1 −3 2 0 −1
 0 1 −2 0 3 
0 1 −1 5 −1
l2 −→ l2 − l1
 
1 −3 2 0 −1
 0 1 −2 0 −3 
0 0 1 5 −4
La matrice est maintenant sous forme échelonnée. Il reste à la mettre sous la forme
échelonnée réduite.
l2 −→ l2 + 2l3  
1 −3 2 0 −1
 0 1 0 10 −5 
0 0 1 5 −4
l1 −→ l1 + 2l3  
1 −3 0 −10 7
 0 1 0 10 −5 
0 0 1 5 −4
l1 −→ l1 + 2l2  
1 0 0 20 −8
 0 1 0 10 −5 
0 0 1 5 −4

37
Systèmes d’équations linéaires et matrices

La matrice est sous forme échelonnée réduite. Un système dont la matrice augmentée
est sous forme échelonnée réduite est très simple à résoudre comme nous allons le voir
ci-après.

3.2.2 Méthode de résolution d’un système d’équations linéaires


Après avoir mis la matrice augmentée du système sous forme échelonnée réduite, on
procède selon les deux étapes suivantes :
(1) Donner une valeur arbitraire à chaque variable dont la colonne ne contient pas de
1 directeur. Ces variables sont les variables libres.
(2) Résoudre chaque équation en exprimant la correspondance au 1 directeur, appelée
variable directrice, en fonction des autres variables.

Exemple 3.2.5. La matrice  


1 0 0 −2
 0 1 0 4 
0 0 1 1
est échelonnée réduite. Elle correspond au système

 x = −2
y = 4

z = 1

Toutes les variables sont des variables directrices. La solution est donc x = −2, y =
4, z = 1.

Exemple 3.2.6. La matrice


 
0 1 3 0 −1
 0 0 0 1 5 
0 0 0 0 0

est échelonnée réduite. Elle correspond au système


{
0x1 + x2 + 3x3 + 0x4 = −1
x4 = 5

Les variables directrices sont x2 et x4 car les colonnes 2 et 4 de la matrice contiennent


un 1 directeur, alors que x1 et x3 sont les variables libres.
Posons x1 = s, x3 = t ; on obtient x2 = −1 − 3t, x4 = 5 ; et l’ensemble des solutions
du système est x1 = s, x2 = −1 − 3t, x3 = t, x4 = 5 pour tout t, s ∈ R.

38
Systèmes d’équations linéaires et matrices

3.2.3 Systèmes homogènes d’équations linéaires


Un système homogène est un système dont les termes constants sont tous nuls. Il est
donc de la forme 

 a11 x1 + a12 x2 + ... + a1n xn = 0

a21 x1 + a22 x2 + ... + a2n xn = 0

 ··· ···

am1 x1 + am2 x2 + ... + amn xn = 0
Tout système homogène d’équations linéaires est consistant, car il a au moins une
solution dite triviale x1 = x2 = ... = xn = 0. Un système homogène d’équations linéaires
a ou bien une seule solution ( la solution triviale), ou bien une infinité de solutions. En
effet, supposons que le système admette la solution :

x1 = t1 , · · · , xn = tn .

avec au moins l’un des ti ̸= 0. Alors, pour un nombre réel k quelconque,

x1 = kt1 , · · · , xn = ktn .

est aussi solution du système.


Théorème 3.2.1. Tout système homogène d’équations linéaires dont le nombre d’in-
connues est plus grand que le nombre d’équations à une infinité de solutions.
Preuve. Soit m le nombre de colonnes et n le nombre d’équations. La matrice augmentée
du système est alors m+1 colonnes et n lignes. Il s’ensuit que sa forme échelonnée réduite
doit comporter au moins une colonne dans 1 directeur. Supposons que ce soit la j ième
avec 1 6 j 6 m. Cette colonne correspond à une variable libre xj = s et il y’a donc une
infinité de solutions puisque le système est compatible.
Exemple 3.2.7. Considérons le système homogène


 3x1 + 3x2 − 2x3 − x5 = 0

−x1 − x2 + x3 + 3x4 + x5 = 0

 2x1 + 2x2 − x3 + 2x4 + 2x5 = 0

x1 + 8x4 + 4x5 = 0
Sa matrice augmentée est
 
3 3 −2 0 −1 0
 −1 −1 1 3 1 0 
 
 2 2 −1 2 2 0 
0 0 1 8 4 0
et la forme échelonnée réduite est
 
1 1 0 0 13 0
 0 0 1 0 20 0 
 
 0 0 0 1 −2 0 
0 0 0 0 0 0

39
Systèmes d’équations linéaires et matrices

Cette matrice correspond donc au système



 x1 + x2 + 13x5 = 0
x3 + 20x5 = 0

x4 − 2x5 = 0

Les variable directrices sont x1 , x3 et x4 alors que les variables libres sont x2 et x5 .
Posons alors x2 = s et x5 = t. On obtient x1 = −s − 13t, x3 = −20t, x4 = 2t.
L’ensemble des solutions est donc x1 = −s − 13t, x2 = s, x3 = −20t, x4 = 2t, x5 = t
qui est bien infini.

3.3 Exercices sur les systèmes d’équations linéaires


Exercice 1
 réel, la solution dans R des systèmes suivants :
3
Discuter, selon m paramètre
{ 
x + my + z = 0 x + y + mz = 0
a) b) x + my + z = 0
mx + y + mz = 0 

mx + y + z = 0
Exercice 2
On considère, pour m paramètre réel, les sous-ensembles de R3 :
F = {(x, y, z) ∈ R3 | x + my + z = 0 et mx + y − mz = 0} et G = {(x, y, z) ∈
R3 | x − my + z = 0}
a) Ecrire F et G sans utiliser des équations.
b) Ecrire, selon la valeur de m, le sous-ensemble F ∩ G sans utiliser des équations.

Exercice 3
Résoudre en fonction du paramètre m ∈ C, les systèmes suivantes d’inconnues com-
plexes
 :  
x − y + z = m
 
mx + y + z = 1 
mx + y + z + t = 1
a) x + my − z = 1 b) x + my + z = m c) x + my + z + t = m

 
 

x−y−z =1 x + y + mz = m 2
x + y + mz + t = m + 1
Exercice 4
Soit a, b ∈ C. Résoudre le système :


ax + by + z = 1
x + aby + z = b


x + by + az = 1

Exercice 5
Résoudre le système d’équations suivant d’inconnues complexes :

40
Systèmes d’équations linéaires et matrices



x 1 + x2 + x3 + · · · + xn =1



x1 + 2x2 + 2x3 + · · · + 2xn
 =1
x1 + 2x2 + 3x3 + · · · + 3xn =1

 .. .. ..




. . .

x1 + 2x2 + 3x3 + · · · + nxn =1

Exercice 6
Résoudre le système d’équations suivant d’inconnues complexes :



 x1 + x2 =0




x 1 + x 2 + x 3 =0
x2 + x3 + x4 =0




.. .. ..
. . .



xn−1 + xn =0

Exercice 7
Soient A1 , ..., An des points du plan complexe d’affixes a1 , ..., an et M1 , ..., Mn des
points du plan complexe d’affixes z1 , ..., zn .
Déterminer à quelle(s) condition(s) il existe au moins un polygone à n sommets M1 , ..., Mn
tel que :
Ai est le milieu de [Mi , Mi+1 ] et Mn est le milieu de [Mn , Mi ].

Exercice 8
Discuter suivant a et b la solution dans R3 de :


ax + 2by + 2z = 1
2x + aby + 2z = b


2x + 2by + az = 1

Exercice 9
Résoudre, en discutant selon a, b ∈ R le système


 ax + y + z + t = 1

x + ay + z + t = b

 x + y + az + t = b2


x + y + Z + at = b3

41
Chapitre 4

Calcul matriciel

4.1 Quelques définitions et opérations


Définition 4.1.1. (Matrice). Soit K un anneau. Une matrice à coefficients dans K, A
est un tableau rectangulaire d’éléments de K. Elle est dite de taille m × n si le tableau
possède m lignes et n colonnes. Les éléments du tableau sont appelés les éléments de
A. L’élément situé à la iième ligne et à la j ième colonne est noté aij . La matrice A est
également notée A = (aij )16i6n,16j6m , ou plus simplement A = (aij )i,j si le nombre de
lignes et le nombre de colonnes est connu par ailleurs.

Exemple 4.1.1. ( )
1 −2 5
0 3 7
est une matrice 2 × 3 avec, par exemple a11 = 1 et a23 = 7.
si n = m, la matrice est dite carrée
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
 .. .. ... .. 
 . . . 
an1 an2 ··· ann

Dans le cas d’une matrice carrée, les éléments a11 , a22 , ..., ann sont appelés les élé-
ments diagonaux.  
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 
 .. .. ... .. 
 . . . 
an1 an2 ··· ann
L’ensemble des matrices de taille m × n à coefficients dans K est noté Mm,n (K) ou
Km×n .
Deux matrices sont égales lorsqu’elles ont la même taille et que les éléments corres-
pondants sont égaux.

42
Calcul matriciel

Définition 4.1.2. (somme de deux matrices). On peut définir la somme de deux ma-
trices si elles sont de même taille. Soient A et B deux matrices de taille m × n. On
définit leur somme C = A + B, de taille m × n, par cij = aij + bij .
En d’autres termes, on somme composante par composante.
( ) ( ) ( )
3 −2 0 5 3 3
Exemple 4.1.2. A = ,B= , A+B =
( ) 1 (7 ) 2 −1 3 6
4 1 −2
A= ,B= , A + B n’est pas définie.
−3 2 8
La matrice (de taille m × n) dont tous les éléments sont des zéros est appelée la
matrice nulle et notée 0mn ou plus simplement 0. C’est l’élément neutre pour l’addition,
c’est-à-dire que A + 0 = A.
Définition 4.1.3. (produit d’une matrice par un scalaire). Le produit d’une matrice A
par un scalaire k est formé en multipliant chaque élément de A par k. Il est noté kA.
( ) ( )
3 −2 −9 6
Exemple 4.1.3. Soient A = , et k = −3, alors kA = .
0 6 0 −18
La matrice (−1)A est notée −A et la différence A − B est définie par A + (−B).
( ) ( ) ( )
2 −1 0 −1 4 2 3 −5 −2
Exemple 4.1.4. A = ,B = , A−B =
1 −5 2 7 −5 3 -6 0 −1

4.2 Le produit matriciel


Le produit AB de deux matrices A et B est défini seulement si le nombre de colonnes
de A est égal au nombre de lignes de B.
Définition 4.2.1. (produit de deux matrices). Soit A = (aij ) une matrice m × n et
B = (bij ) une matrice n × p. Alors le produit C = AB est une matrice ∑n m × p dont les
éléments cij sont définis par cij = ai1 b1j + ai2 b2j + ... + aim bmj = k=1 aik bkj .

      
··· ···
( a11 · · · · · · a1m ) b11 b1r c11 c1r
 a21 a22 · · · a2m    b21  ..   .. 
    ··· .   (c21 ) ··· . 
AB =  .. ..    ..  .. = .. .. 
 . ··· ··· .   .  ··· .   . ··· . 
an1 · · · · · · anm bm1 ··· bmr cn1 ··· cnr

c21 = a21 b11 + a22 b21 + ... + a2m bm1 .


Exemple 4.2.1.
 
( ) 4
2 3 −1  −2  = (8 − 6 − 3) = (−1)
3
3×1 3×1 1×1

43
Calcul matriciel

Exemple 4.2.2.
   
3 ( ) −3 6 9 0
 −2  −1 2 3 0 = 2 −1 −6 0 
1 −1 2 3 0
3×1 1×4 3×4

4.2.1 Matrice identité


Définition 4.2.2. La matrice carrée n × n ;
 
1 0 ··· 0
 0 1 ··· 0 
 
In =  .. .. .. .. 
 . . . . 
0 0 ··· 1

s’appelle la matrice identité d’ordre n. Ses éléments diagonaux sont égaux à 1 et tous
ses autres éléments sont égaux à 0. C’est l’élément neutre pour la multiplication des
matrices carrées d’ordre n. En d’autres termes, si A une matrice m × n, alors In .A = A
et [Link] = A.

4.2.2 Règles du calcul matriciel


Sous l’hypothèse que les taille des matrices soient compatibles avec les opérations
indiquées, on a les règles suivantes :
(a) Commutativité de la somme : A + B = B + A;
(b) Associativité de la somme : A + (B + C) = (A + B) + C;
(c) Associativité du produit : A(BC) = (AB)C;
(d) Distributivité du produit par rapport à la somme : A(B + C) = AB + AC, (B +
C)A = BA + CA;
(e) A + 0 = A ;
(f ) AI = IA = A ;
(g) A0 = 0A = 0.
ATTENTION !
Le produit des matrices n’est pas nécessairement commutatif. On peut avoir AB ̸=
BA.
( ) ( )
1 0 2 −1
Exemple 4.2.3. A = ;B= .
( ) 2 5 ( )3 0
2 −1 1 −5
AB = ; BA = .
11 2 3 0
Attention ! Il peut arriver que le produit de deux matrices non nulles soit nul. En
d’autres termes, on peut avoir A, B ̸= 0 et AB = 0.

44
Calcul matriciel

( ) ( ) ( )
0 −1 2 −3 0 0
Exemple 4.2.4. A = ,B= et AB =
0 5 0 0 0 0
Ce qui précède implique que, par distributivité, que l’on peut avoir AB = AC, et
B ̸= C.
( ) ( ) ( )
0 −1 4 −1 2 5
Exemple 4.2.5. A = ,B = ,C = AB = AC =
( ) 0 3 5 4 5 4
−5 −1
.
15 12

4.3 Ecriture matricielle des systèmes d’équations li-


néaires
Le système linéaire
Exemple 4.3.1. 

 a11 x1 + a12 x2 + ... + a1n xn = b1

 a21 x1 + a22 x2 + ... + a2n xn = b2
.. .

 . = ..

 a x + a x + ... + a x
m1 1 m2 2 mn n = bm
peut s’écrire sous forme matricielle :
     
a11 · · · · · · a1n x1 b1
 a21 · · · · · · a2n   x2   b2 
     
 .. .. .. ..   .. =  .. 
 . . . .   .   . 
am1 am2 · · · amn xn bm
| {z } | {z } | {z }
A X B

On appelle A la matrice des coefficients du système. Le vecteur X est une solution


du système si et seulement si AX = B.

4.4 L’inversion des matrices


Définition 4.4.1. (Matrice inverse). Soit A une matrice carrée de taille n × n. S’il
existe une matrice carrée B de taille n × n telle que AB = I et BA = I. On dit que A
est inversible et on appelle B un inverse de A. (On verra plus tard qu’il suffit de vérifier
une seule des conditions AB = I, BA = I).
( ) ( )
2 1 3 −1
Exemple 4.4.1. La matrice est inversible et un de ses inverses est .
( )( 5 3 ) ( ) ( ) ( −5 )2
2 1 3 −1 1 0 3 −1 2 1
En effet, on a = et =
( ) 5 3 −5 2 0 1 −5 2 5 3
1 0
.
0 1

45
Calcul matriciel

( )
3 0
Exemple 4.4.2. La matrice A = n’est pas inversible. En effet, soit B =
( ) 5 0 ( )( )
b11 b12 b11 b12 3 0
une matrice quelconque. Alors le produit BA = =
( b21 b)
22 b21 b22 5 0
∗ 0
ne peut jamais être égal à la matrice identité.
∗ 0
Théorème 4.4.1. Si B et C sont des inverses de A, alors B = C.

Preuve. On a I = AC = BA du fait que B et C sont des inverses de A ; donc B =


BI = B(AC) = (BA)C = IC = C.
Si A est une matrice inversible, son inverse est noté A−1 . On a donc AA−1 = I et
A−1 A = I.

4.4.1 Matrice 2 × 2
( ) ( )
a b d −b
Considérons les matrices 2 × 2 A = et B = . On vérifie que
( ) c d −c a
1 0
AB = BA = (ad − bc) . Donc A est inversible si ad − bc ̸= 0, et on a alors
( )0 1
d −b
A−1 = ad−bc
1
.
−c a

4.4.2 Puissance d’une matrice


Soit A une matrice n × n. On définit Am = AA · · · A}. Si A est inversible, on définit
| {z
m facteurs
−m −1 m −1 −1 −1
A | A{z · · · A} .
= (A ) = A
m facteurs

Théorème 4.4.2. Soit A une matrice inversible. Alors


(a) A−1 est inversible et (A−1 )−1 = A ;
−1 −1 −1
(b) Am est inversible et (Am )−1 = A
| A{z · · · A} = (A−1 )m = A−m .
m facteurs

(c) kA est inversible si k ̸= 0 et (kA)−1 = k1 A−1 .

Théorème 4.4.3. Soient A et B deux matrices n × n inversibles. Alors


(a) AB est inversible ;
(b) (AB)−1 = B −1 A−1 .

Preuve. Il suffit de montrer (B −1 A−1 )(AB) = (AB)(B −1 A−1 ) = I.


Cela suit de (B −1 A−1 )(AB) = B −1 (A−1 A)B = B −1 IB = B −1 B = I, et (AB)(B −1 A−1 ) =
A(BB −1 )A−1 = AIA−1 = AA−1 = I.
De façon analogue, on montre que si A1 , ..., Am sont inversibles, alors (A1 ...Am )−1 =
−1
−1
Am .Am−1 ...A−1
1 .

46
Calcul matriciel

( ) ( ) ( )
2 1 3
−1 −1 −9 −4
Exemple 4.4.3. A = ,A = ; B= ; B −1 =
( ) 5 (3 )( −5 2) ( 2 )1
−1 −4 2 1 −9 −4 −16 −7
. Alors AB = =
2 9 ( 5 3
)( )2 (1 −39
) −17
−1 −1 −1 −4 3 −1 17 −7
B A = = .
2 9 −5
( 2 ) −39
( 16 ) ( )
−1 −1 −16 −7 17 −7 −272 + 273 0
On a alors (AB)(B A ) = = =
( ) −39 −17 −39 16 0 273 − 272
1 0
.
0 1

4.5 Matrices élémentaires


Définition 4.5.1. (Matrice élémentaire). On dit qu’une matrice E est élémentaire si
elle peut être obtenue par une seule opération élémentaire sur les lignes de la matrice
identité pour la définition des opérations élémentaires).
Il existe donc trois types de matrices élémentaires correspondant aux trois opérations
élémentaires.
(1) La matrice Ei (c) est la matrice élémentaire obtenue en multipliant par c la i − ème
ligne de In , où le c est un nombre réel non nul.
 
1 0 0 0
 0 5 0 0 
Exemple 4.5.1. E2 (5) =   0 0 1 0 

0 0 0 1
(2) La matrice Eij est la matrice élémentaire obtenue en permutant les i − ème ligne
et j − ème ligne de In .
 
1 0 0 0
 0 0 0 1 
Exemple 4.5.2. E42 =   0 0 1 0 

0 1 0 0
(3) La matrice Eij (c) est la matrice élémentaire obtenue en ajoutant c fois la j − ème
ligne de In à la i − ème ligne.
 
1 0 0 0
 −5 1 0 0 
Exemple 4.5.3. E21 (−5) =   0

0 1 0 
0 0 0 1
L’opération élémantaire "permuter les lignes i et j" correspond à multiplier une
matrice sur la gauche par la matrice élémentaire Eij ; et de même pour toutes autres
opérations élémentaires. C’est ce qu’indique le théorème suivant :
Théorème 4.5.1. Si la matrice élémentaire E est le résultat d’une opération élémentaire
effectuée sur Im , alors pour toute matrice A de taille m × n, le produit matriciel EA est
égal à la matrice obtenue en effectuant la même opération élémentaire sur A.

47
Calcul matriciel

Ainsi, multiplier une matrice A sur la gauche par Eij revient à échanger les lignes i
et j de A ; multiplier A sur la gauche par Ei (c) revient à multiplier la ligne i de A par
c ; et multiplier A sur la gauche par Eij (c) revient à ajouter c fois la ligne j à la ligne i.
( )( ) ( )
2 0 a11 a12 a13 2a11 2a12 2a13
Exemple 4.5.4. (1) E1 (2).A = =
0 1 a21 a22 a23 a21 a22 a23
    
1 0 0 a11 a12 a11 a12
(2) E23 .A =  0 0 1   a21 a22  =  a31 a32 
0 1 0 a31 a32 a21 a22
    
1 0 0 a11 a11
(3) E21 (9).A =  9 1 0   a21  =  9a11 + a21 
0 0 1 a31 a31
Les opérations élémentaires sur les lignes sont réversibles. Ceci entraîne l’inversibilité
des matrices élémentaires.

Théorème 4.5.2. Toute matrice élémentaire est inversible. En particulier, on a : [Eij (c)]−1 =
Eij (−c); Eij −1 = Eij ; [Ei (c)]−1 = Ei ( 1c )
( ) ( )
1 0 1 0
Exemple 4.5.5. On a E21 (−4) = et E21 (4) = ; et
( )( ) ( )−4 ( 1 )( )4 1
1 0 1 0 1 0 1 0 1 0
= =
−4 1 4 1 0 1 4 1 −4 1
Définition 4.5.2. On dit que deux matrices sont équivalentes par lignes si l’une peut
être obtenue à partir de l’autre par une suite d’opérations élémentaires sur les lignes.

Théorème 4.5.3. Pour toute matrice A de taille n × n, les affirmations suivantes sont
équivalentes :
(a) A est inversible
(b) Le système AX = B a une et une seule solution pour toute matrice B de taille
n × 1. Cette solution est donnée par X = A−1 B ;
(c) AX = 0 n’a que la solution triviale X = 0 ;
(d) A est équivalente par lignes à In ;
(e) A est un produit de matrices élémentaires.

Preuve. (a) =⇒ (b) : Si A est inversible, on a les équivalences suivantes : AX = B ⇐⇒


A−1 AX = A−1 B ⇐⇒ X = A−1 B; ce qui prouve (b).
(b) =⇒ (c) : c’est évident car (c) est un cas particulier de (b) avec B = 0.
(c) =⇒ (d) : par hypothèse, le système AX = 0 est équivalent au système


 X1 = 0

 X2 = 0
.. .

 . = ..

 X = 0n

48
Calcul matriciel

La matrice associée à ce dernier système est la matrice identité. La matrice A est


donc équivalente par lignes à In et ceci prouve le point (d).
(d) =⇒ (e) : on sait par hypothèse, qu’une succession de d’opérations élémentaires
sur A conduit à la matrice In . Par le théorème 5.5.1, ceci signifie qu’il existe des matrices
élémentaires E1 , · · · , Er telles que Er Er−1 ...E1 .A = In . Comme une matrice élémentaire
est inversible, ceci implique que A = E1−1 E2−1 ...Er−1 . Mais l’inverse d’une matrice élé-
mentaire est encore une matrice élémentaire et l’on a le résultat cherché.
(e) =⇒ (a) : ceci découle du fait que toute matrice élémentaire est inversible et que
le produit de matrices inversibles est encore inversible.

4.6 Calcul de l’inverse d’une matrice


Le théorème précédent donne une méthode pour déterminer l’inverse d’une matrice
inversible. La méthode consiste à faire les opérations élémentaires mettant la matrice
A sous la forme échelonnée réduite, qui est In . On fait ensuite les mêmes opérations
élémentaires sur la matrice In . On aboutit alors à A−1 . En pratique, on fait les deux
opérations en même temps selon la procédure suivante : former la matrice (A : I) et
effectuer sur cette matrice augmentée les opérations élémentaires mettant A sous la
forme échelonnée réduite. On obtient alors la matrice (I : A−1 ).
 
1 2 1
Exemple 4.6.1. Calculons l’inverse de A =  4 0 −1  .
  −1 2 2
1 2 1 : 1 0 0
(A : I) =  4 0 −1 : 0 1 0  ;
−1 2 2 : 0 0 1
l 2 := l2 − 4l1 
1 2 1 : 1 0 0
 0 −8 −5 : −4 1 0 
−1 2 2 : 0 0 1
l3 := l3 + l1 
1 2 1 : 1 0 0
 0 −8 −5 : −4 1 0 
0 4 3 : 1 0 1
1
l2 := 8 l2 
1 2 1 : 1 0 0
 0 1 5 : 1 −1 0 
8 2 8
0 4 3 : 1 0 1
l 3 := l3 − 4l 2 
1 2 1 : 1 0 0
 0 1 5 : 1 − 18 0 
8 2
0 0 1 : −2 21 1
l3 := 2l3

49
Calcul matriciel

 
1 2 1 : 1 0 0
 0 1 5 : 1 − 18 0 
8 2
0 0 1 : −2 1 2
2 := l2 − 8 l3
5
l 
1 2 1 : 1 0 0
 0 1 0 : 7 − 43 − 54 
4
0 0 1 : −2 1 2
1 := l1 − 2l2 − l3
l 
1 0 0 : − 12 1
2
1
2
 0 1 0 : 7 − 43 − 54 
4
0 0 1 : −2 1 2
−2 2 2
−1 1 
A =4 7 −3 −5
−8 4 8

4.7 Matrices triangulaires


Définition 4.7.1. Soit A une matrice de taille n × n. On dit que A est triangulaire
inférieure si ses éléments au dessus de la diagonale sont nuls, autrement dit : i < j =⇒
aij = 0.  
a11 0 ··· ··· 0
 .. .. 
 a21 a22 . . 
 . 
Une matrice triangulaire inférieure a donc la forme  .
.
.
.
.
. . .
. . .
.
.
. 

 . .. ... 
 .. . 0 
a21 an2 · · · · · · ann
On dit que A est triangulaire supérieure si ses éléments en dessous de la diagonale
sont nuls, autrement dit : i > j =⇒ aij = 0.  
a11 a12 · · · · · · a1n
 ... 
 0 a22 a2n 
 . 
Une matrice triangulaire supérieure a donc la forme suivante :  ..
..
.
..
.
..
.
..
. 

 . . . 
 .. .. .. 0 
0 ··· ··· 0 ann
 
4 0 0 ( )
5 0
Exemple 4.7.1. Matrices triangulaires inférieures :  0 −1 0  , .
1 2
3 −2 0
 
1 1 −1 ( )
  1 −3
Exemple 4.7.2. Matrices triangulaires supérieures : 0 −1 −1 , .
0 6
0 0 −1
Définition 4.7.2. Une matrice qui est triangulaire inférieure et triangulaire supérieure
est dite diagonale.

50
Calcul matriciel

 
−1 0 0 ( )
  2 0
Exemple 4.7.3. matrices diagonales : 0 6 0 , .
0 3
0 0 0
Théorème 4.7.1. Une matrice A de taille n×n, triangulaire est inversible si et seule-
ment si ses éléments diagonaux sont tous non nuls.
Preuve. Supposons que A est triangulaire supérieure.
Si les éléments de la diagonale sont tous non nuls, alors en multipliant chaque ligne
de i par l’inverse de l’élément diagonal aii , on obtient la forme échelonnée de A. Elle ne
contient que des 1 sur la diagonale. De ce fait, la forme échelonnée réduite de A sera la
matrice identité. Le théorème 5.5.3 permet de conclure que A est inversible.
Inversement, supposons qu’au moins l’un des éléments diagonaux soit nul et notons
amm le premier élément nul de la diagonale. En multipliant les lignes 1 à m − 1 par
l’inverse de leur élément diagonal, on obtient une matrice de la forme
 
1 ∗ ··· ··· ∗
 . 
 0 .. ∗ ··· ∗ 
 
 0 0 1 ∗ ··· ∗ 
 
 0 ··· 0 0 ∗ ··· ∗ 
 
 0 ··· 0 0 all · · · ∗ 
 . . .. . . . .. 
 .. .. . ··· 0 . 
0 ··· 0 ann
où l = m + 1.
Il est alors clair que la colonne m de la forme échelonnée réduite de A ne contiendra
pas un 1 directeur. La forme échelonnée réduite de A ne peut donc pas être In et par le
théorème 5.5.1, A n’est pas inversible.
Dans le cas d’une matrice triangulaire inférieure, on utilise la transposition qui fait
l’objet de la section suivante et on obtient une matrice triangulaire supérieure. On
applique alors la démonstration ci-dessus.

4.8 La transposition
Soit A la matrice de taille m × n définie par
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
A =  .. .. .. 
 . . . 
am1 am2 · · · amn
Définition 4.8.1. On appelle matrice transposée de A, la matrice notée AT ou t A de
taille n × m définie par :
 
a11 a21 · · · am1
 a12 a22 · · · am2 
 
A =  .. .. .. 
 . . . 
a1n a2n · · · amn

51
Calcul matriciel

Autrement dit, la i-ème ligne de AT , ou encore aTij = aji .


   T
1 0 3 ( )
0 1 −1
Exemple 4.8.1. (1 − 2 5)T =  −2  ;  1 −5  = ;
3 −5 2
5 −1 2
( )T ( )
−1 0 −1 0
= ; (4)T = 4.
0 2 0 2
Théorème 4.8.1. L’opération de transposition obéit aux règles suivantes :
(a) (A + B)T = AT + B T
(b) (kA)T = kAT
(c) (AB)T = B T AT
(d) (AT )T = A
(e) Si A est inversible, alors AT l’est aussi et on a (AT )−1 = (A−1 )T qui sera notée
A−T .

4.9 La trace et rang


Soit la matrice n × n  
a11 ··· a1n
 .. .. 
A= . . 
an1 ··· ann

Définition 4.9.1. On appelle trace de A et on note trace(A) ou tr(A), le nombre obtenu


en additionnant les éléments diagonaux de A. Autrement dit, trace(A) = a11 + ... + ann .
On appelle rang d’une matrice A et on note rg(A), le nombre de lignes non nulles
de la matrice échelonnée réduite équivalente à A(en utilisant des opérations élémentaires
sur les lignes de A).

Exemple 4.9.1. Soient


 
( ) 1 1 2
2 1
A= et B =  5 2 8 .
0 5
11 0 −10

Alors trace(A) = 2 + 5 = 7 et trace(B) = 1 + 2 − 10 = −7.


Déterminer le rang de A.

Théorème 4.9.1. Soient A et B deux matrices n × n. Alors


(a) trace(A + B)=trace(A)+trace(B)
(b) trace(λA) = λtrace(A) pour tout λ ∈ R.
(c) trace(AT )=trace(A)
(d) trace(AB)=trace(BA).

52
Calcul matriciel

(e) A est inversible si et seulement si rg(A) = n.

Preuve.
(a) Pour tout 1 6 i 6 n, (A+B)ii = Aii +Bii . Ainsi, on a trace(A+B)=trace(A)+trace(B) ;
(b) On a trace(λA) = λA11 + λA22 + ... + λAnn = λ(A11 + A22 + ... + Ann );
(c) Etant donné que la transposition ne change pas les éléments diagonaux, la trace de
A est égale à la trace de AT ;
(d) On a ABii = Ai1 B1i + Ai2 A2i + ... + Ain Bni .
Ainsi,
A11 B11 + A12 A21 + ... + A1n Bn1
+ A12 B21 + A22 A22 + ... + An2 B2n
trace(AB) = .. ..
. .
+ A1n Bn1 + A2n An2 + ... + Ann Bnn
On peut réarranger les termes pour obtenir :

A11 B11 + A21 A12 + ... + An1 B1n


+ A12 B21 + A22 A22 + ... + An2 B2n
.. ..
. .
+ A1n Bn1 + A2n Bn2 + ... + Ann Bnn

En utilisant la commutativité de la multiplication dans R, la première ligne devient


B11 A11 + B12 A21 + ... + B1n An1 qui vaut BA11 . En faisant de même avec les autres
lignes. On voit finalement que trace(AB) = BA11 + ... + BAnn =trace(BA).
e) Exercice.

4.10 Matrices symétriques


Définition 4.10.1. Une matrice A de taille n × n est dite symétrique si elle est égale
à sa transposée, c’est-à-dire si AT = A ; ou aij = aji pour tout i, j = 1, ..., n.
 
−1 0 5 ( )
0 2
Exemple 4.10.1. Les matrices  0 2 −1  ; ; In et 0n,n sont symé-
2 4
5 −1 0
triques.

Théorème 4.10.1. Pour une matrice B quelconque, les matrices BB T et B T B sont


symétriques.

Preuve. Par le théorème 5.8.1, on a (BB T )T = (B T )T B T = BB T , (B T B)T =


B T (B T )T = B T B.

53
Calcul matriciel

4.11 Matrice antisymétrique


Définition 4.11.1. Une matrice A de taille n × n est dite antisymétrique si AT = −A ;
c’est-à-dire si aij = −aji pour tout i, j = 1, ..., n.

Exemple 4.11.1.
 
( ) ( ) 0 4 2
0 −1 0 0
; ;  −4 0 −5 
1 0 0 0
−2 5 0

Remarquons que les éléments diagonaux d’une matrice antisymétrique sont toujours
tous nuls.

Théorème 4.11.1. Toute matrice A de taille n × n est la somme d’une matrice symé-
trique B et d’une matrice antisymétrique C.
T T
Preuve. Posons B = A+A 2
; C = A−A2
. On a alors ; A = B + C ; et B est symétrique,
= B; et C est antisymétrique, car C T = (A −(A
T +(AT ))T T T ))T
car B T = (A
2 2
= −C.
( ) ( ) ( )
2 10 2 9 0 1
Exemple 4.11.2. Soit A = . Alors A = +
8 −3 9 −3 −1 0
| {z } | {z }
symétrique antisymétrique

4.12 Exercices
Exercice 1. Effectuer le produit des matrices :
     
( ) ( ) ( ) −1 −1 0 a b c 1 a c
2 1 1 −1 1 2 0
× ; × 1 4 −1  ;  c b a × 1 b b 
3 2 1 1 3 1 4
2 1 2 1 1 1 1 c a

Exercice 2. On considère la matrice suivante :


 
0 a b c
 0 0 d e 
M =  0 0

0 f 
0 0 0 0

Calculer M 2 , M 3 , M 4 , M 5 .

Exercice 3. On considère les deux matrices suivantes :


   
2 3 −4 1 3 −1 −3 7
 5 2 1 0   4 0 2 1 
A=  3 1 −6 7  ,
 B=  2

3 0 −5 
2 4 0 1 1 6 6 1

54
Calcul matriciel

1. Calculer AB.

2. Calculer BA.

3. Que remarque-t-on ?
 
1 0 0
Exercice 4. Trouver les matrices qui commutent avec A =  0 1 1  . De même
( ) 3 1 2
a b
avec A = .
0 a
 
0 1 1
Exercice 5. Soit A =  1 0 1  . Calculer A2 et vérifier que A2 = A + 2I3 , où I3
1 1 0
est la matrice identité 3 × 3. En déduire que A est inversible et calculer son inverse.
 
1 1 0
Exercice 6. 1. Soit A =  0 1 1  et soit B = A − I3 .
0 0 1
(a) Calculer B 2 , B 3 en déduire une formule de récurrence que l’on démontrera
pour B n , pour tout entier n.
(b) Développer (B + I3 )n par la formule du binome et simplifier.
(c) En déduire An Pour tout entier n.
 
1 1 1 1
 0 1 1 1 
2. Soit A =  
 0 0 1 1  . Pour tout entier n, calculer A en utilisant A − I4 .
n

0 0 0 1
 
1 0 0
Exercice 7. 1. On considère la matrice A =  0 1 1  .
3 1 1
   
1 1 1 1 1 1
(a) Soient B =  0 1 0  et C =  1 2 1 
1 0 0 0 −1 −1
Montrer que AB = AC, a-t-on A = C ? A peut-elle être inversible ?
(b) Déterminer toutes les matrices F telles que A × F = O (O étant la matrice
dont tous les coefficients sont nuls).
 
1 2
2. Soit A =  3 4 . Déterminer toutes les matrices B telles que BA = I2 .
−1 4
3. Soient A et B deux matrices carrées n × n telles que AB = A + In .
Montrer que A est inversible et déterminer son inverse (en fonction de B).

55
Calcul matriciel

Exercice 8. Calculer le rang des matrices suivantes.


       
1 1 2 1 1 1 0 0 0 1 1 1 1 1 3 1 1 1 1 2
 2 1 1 1 1   1 1  
0 0 0   0 2 1 1 2   0 2 1 1 2 
     
 1 1 1 2 1 ,  1 0 1 0 0   ,  
   ,  1 1 1 2 2   1 1 1 2 2 
 2 1 1 1 1   1 0 0 1 0   2 1 1 1 3   2 1 1 1 3 
1 1 1 1 2 1 0 0 0 1 1 −1 1 1 0 1 −1 1 1 0
Exercice 9. Soit A une matrice carrée d’ordre n ; on suppose que A2 est une combinaison
linéaire de A et In : A2 = αA + βIn .
1. Montrer que An est également une combinaison linéaire de A et In pour tout
n ∈ N∗ .

2. Montrer que si β est non nul, alors A est inversible et que A−1 est encore combi-
naison linéaire de A et In .

3. Application 1 : soit A = Jn − In , où Jn est la matrice Attila (envahie par les


uns...), avec n > 1. Montrer que A2 = (n − 2) A + (n − 1) In ; en déduire que A
est inversible, et déterminer son inverse.

4. Application 2 : montrer que si n = 2, A2 est toujours une combinaison linéaire de


A et I2 , et retrouver la formule donnant A−1 en utilisant 2.
 
−1 1 1
Exercice 10. Soit A =  1 −1 1 
1 1 −1
Calculer A et montrer que A2 = 2I − A, en déduire que A est inversible et calculer
2
−1
A .
 
1 0 2
Exercice 11. Soit A = 0 −1 1 . Calculer A3 − A. En déduire que A est inversible
1 −2 0
−1
puis déterminer A .
Exercice 12. Déterminer deux éléments A et B de M2 (R) tels que : AB = 0 et BA ̸= 0.
Exercice 13. Soient A et B ∈ Mn (K) deux matrices triangulaires supérieures.
1. Montrer (en calculant les coefficients) que AB est triangulaire supérieure.
2. Soit φ un endomorphisme bijectif de Kn et F un sous-espace vectoriel de Kn tel
que φ(F ) ⊂ F. Montrer que que φ−1 (F ) ⊂ F.
3. En déduire une nouvelle démonstration de 1. Montrer que si A est inversible, A−1
est triangulaire supérieure.
 x  
 2 0 0 
Exercice 14. Soit G =  0 1 x , x ∈ R . Montrer que G est un groupe multi-
 
0 0 1
plicatif.

56
Calcul matriciel

( )
cos θ − sin θ
Exercice 15. Soit A(θ) = pour θ ∈ R. Calculer An (θ) pour n ∈ Z.
sin θ cos θ
 
0 0 0
Exercice 16. Soit A = −2 1 −1.
2 0 2
[Link] A3 − 3A2 + 2A.
[Link] est le reste de la division euclidienne de X n par X 3 − 3X 2 + 2X ?
[Link] An pour n ∈ N.
4.A est-elle inversible ?
 1 1

1 2 3

Exercice 17. Discuter suivant les valeurs de λ ∈ R le rang de la matrice 12 1 1
.
3 4
1 1
3 4
λ
 
1 2 1
Exercice 18. Calculer l’inverse de  1 2 −1.
−2 −2 −1
Exercice 19. Déterminer l’ensemble des matrices M ∈ Mn (R) telles que :
∀H ∈ Mn (R), M H = HM.
Exercice 20. Soit J ∈ Mn (R) une matrice telle que : J 2 = I et
E = {A ∈ Mn (R)|∃(a, b) ∈ R2 ; A = aI + bJ}.
1. Montrer que E est un espace vectoriel stable par multiplication (Est-ce une al-
gèbre ?). En déduire que :
∀A ∈ E, ∀n ∈ N, ∃(an , bn ) ∈ R2 ; An = an I + bn J
et calculer les coefficients an et bn .
∑n
Ak
2. Soit Sn = k!
. Calculer (un , vn ) tel que Sn = un I + vn J en fonction de a et de b.
k=0
Calculer les limites de (un )n∈N et de (vn )n∈N . On pose eA = uI +vJ où u = lim un ,
n→∞
v = lim vn . Calculer e−A et le produit e−A eA .
n→∞
3. Application : ( ) ( )
0 1 a b
J= ,A = .
1 0 b a
Calculer eA .
Exercice 21. Calculer les puissances de :
 
( ) ( ) 1 1 1
a b a b
, ,  0 1 1 .
0 a b a
0 0 1

57
Chapitre 5

Le déterminant

5.1 Permutations et déterminants


Nous allons construire dans ce chapitre une fonction appelée déterminant qui associe
un nombre réel à chaque matrice carrée et qui permettra de caractériser facilement les
matrices inversibles puisque ce sont celles dont le déterminant est non nul.
Exemple 5.1.1. Soit ( )
a b
A= .
c d
On a vu que si ad − bc ̸= 0, alors A est inversible. On a alors
( )
−1 1 a −b
A = .
ad − bc −c d

On définit alors le déterminant de A comme étant det(A) = ad − bc.


On va maintenant généraliser cette notion à des matrices carrées de taille n × n.
Définition 5.1.1. On appelle permutation de l’ensemble d’entiers {1, ..., n} un arran-
gement de ceux-ci sans omissions ni répétitions i.e une bijection de {1, . . . , n} dans
{1, . . . , n}.
Une permutation quelconque σ de {1, ..., n} sera notée σ = (j1 , j2 , ..., jn ) où j1 =
σ(1), j2 = σ(2), ..., jn = σ(n).
L’ensemble des permutations de n éléments sera noté Sn .
Exemple 5.1.2. Il y a deux permutations de l’ensemble {1, 2} : σ1 = (1, 2) et σ2 = (2, 1).
(1, 2) est l’identité car σ1 (1) = 1, σ1 (2) = 2.
Exemple 5.1.3. Il y a 6 permutations de l’ensemble {1, 2, 3}.
Plus généralement, l’ensemble {1, ..., n} a n! = 1 × 2 × ... × n permutations.
Définition 5.1.2. Dans une permutation, on a une inversion si un nombre plus grand
précède un nombre plus petit.

58
Le déterminant

De manière plus précise, le nombre d’inversions d’une permutation (j1 , j2 , ..., jn ) est
la somme du nombre de successeurs de j1 plus petits que j1 , plus le nombre de successeurs
de j2 plus petit que j2 , plus · · · , plus le nombre de successeurs de jn−1 plus petit que
jn−1 .
Exemple 5.1.4. La permutation (4, 2, 5, 3, 1) contient 7 inversions.
En effet, il y a 3 successeurs de 4 plus petit que 4, 1 successeur de 2 plus petit que 2,
2 successeurs de 5 plus petits que 5, 1 successeur de 3 plus que 3. En additionnant ces
nombres, on obtient bien 7.
Exemple 5.1.5. La permutation (6, 1, 3, 4, 5, 2) contient 5 + 0 + 1 + 1 + 1 = 8 inversions.
Définition 5.1.3. Une permutation ayant un nombre pair d’inversions est appelée une
permutation paire, sinon elle est appelée permutation impaire.
On définit {
la signature de la permutation σ comme suit :
1 si σ est paire
sign(σ) =
−1 si σ est impaire
Exemple 5.1.6. Classification des permutations de {1, 2, 3} :

Permutation Nbre d’inversion Parité


(1, 2, 3) 0 Paire
(1, 3, 2) 1 Impaire
(2, 1, 3) 1 Impaire
(2, 3, 1) 2 Paire
(3, 1, 2) 2 Paire
(3, 2, 1) 3 Impaire
Définition 5.1.4. Soit  
a11 ··· a1n
 .. .. 
A= . . 
an1 ··· ann
une matrice carrée de taille n × n. Un produit élémentaire de A est le produit de n
éléments de A, choisis de façon qu’aucun d’entre eux ne provienne de la même ligne ou
de la même colonne. Autrement dit, tous les éléments du produit sont dans des lignes et
des colonnes différentes.
Exemple 5.1.7. Les produits élémentaires de la matrice
( )
a11 a12
A=
a21 a22
sont a11 a22 et a12 a21 . Les produits élémentaires de
 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
sont : a11 a22 a33 , a11 a32 a23 , a21 a12 a33 , a21 a32 a13 , a31 a12 a23 , a31 a22 a13 .

59
Le déterminant

Plus généralement, à partir d’une matrice de taille n × n, on peut former n! produits


élémentaires. En effet, on constate qu’un produit élémentaire de A n’est rien d’autre
qu’un produit a1j1 × a2j2 × ... × anjn où (j1 , j2 , ..., jn ) est un élément de Sn .

Définition 5.1.5. Un produit élémentaire signé d’une matrice A est un produit sign(σ) =
a1j1 × a2j2 × ... × anjn , où σ = (j1 , j2 , ..., jn ) est une permutation à n éléments.

Exemple 5.1.8. Les produits élémentaires signés de


( )
a11 a12
A=
a21 a22

sont a11 a22 (la permutation (1, 2) est paire) et −a21 a12 (la permutation (2, 1) est impaire).
Les produits élémentaires signés de
 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33

sont a11 a22 a33 , −a11 a23 a32 , −a12 a21 a32 , a12 a23 a31 , a13 a21 a32 et −a13 a22 a31 .

Définition 5.1.6. Le déterminant d’une matrice A est le nombre obtenu en effectuant


la somme de tous
∑ les produits élémentaires signés de A. Il est noté det(A). Autrement
dit ; det(A) = σ∈Sn sign(σ)a1i1 a2i2 . . . anin , où σ = (i1 , ..., in ).

Exemple 5.1.9. ( )
a11 a12
A=
a21 a22
det(A) = a11 a22 − a12 a21 .

Exemple 5.1.10.  
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
det(A) = sign((1, 2, 3))a11 a12 a33 + sign((2, 3, 1))a12 a23 a31 + sign((3, 1, 2))a13 a21 a32 +
sign((3, 2, 1))a13 a12 a31 + sign((2, 1, 3))a12 a21 a33 + sign((1, 3, 2))a11 a23 a32
= a11 a22 a33 + a12 a23 a33 − a12 a21 a33 − a11 a23 a32 .

Théorème 5.1.1. Si A est une matrice ayant une ligne de zéros, alors det(A) = 0.

Preuve. Par définition, le déterminant est la somme des produits élémentaires signés
de A. Mais chacun de ces produits élémentaires contient un élément nul provenant de
la ligne de zéros de A. Donc det(A) = 0.

Théorème 5.1.2. Le déterminant d’une matrice A triangulaire (inférieure ou supé-


rieure) est égal au produit a11 a22 a33 ...ann des éléments diagonaux.

60
Le déterminant

Preuve. Le seul produit élémentaire signé non nul est a11 a22 a33 ...ann . La permutation
correspondante est (1, 2, ..., n) qui contient 0 inversion et qui est donc une permutation
paire. On a donc bien det(A) = a11 a22 a33 ...ann .
Examinons maintenant ce qui se passe si deux lignes de la matrice sont égales.

Exemple 5.1.11. Soit  


a b c
A=  a b c 
d e f
On a det(A) = abf − abf + ace − ace + bcd − bcd = 0, et on remarque que tous les
produits élémentaires apparaissent deux fois avec des signes opposés.

Ceci nous amène au théorème suivant :

Théorème 5.1.3. Soit A une matrice avec deux lignes égales. Alors det(A) = 0.

Preuve. Dans le déterminant d’une telle matrice, tous les produits élémentaires appa-
raissent deux fois, avec des signes opposés. Donc det(A) = 0.

5.2 Déterminants et opérations élémentaires


Nous allons voir que la réduction d’une matrice à la forme échelonnée nous fournit
une méthode efficace pour calculer son déterminant.

Théorème 5.2.1. Soit A une matrice de taille n × n et une matrice élémentaire de


taille n × n. Alors
(1) det(Ei (k)) = k
(2) det(Eij ) = −1
(3) det(Eij (k)) = 1
(4) det(EA) = det(E)det(A)

Preuve.
(1) Soit k ∈ R, k ̸= 0. Rappelons que
 
1 0 ··· ··· ··· ··· 0
 .. ..
 0 . .
 .. 
..
 . 1 
.
 
 .. 
..
Ei (k) =  . k .
 
 .. ..
 . 1  .
 .. 
 .
...
0 
0 ··· ··· ··· ··· 0 1

det(Ei (k)) = σ∈Sn sign(σ)a1j1 ...anjn où σ = (j1 , ..., jn ).

61
Le déterminant

Comme il n’y a qu’un seul élément non nul dans chaque ligne et dans chaque colonne,
le seul produit élémentaire non nul est 1 × . . . 1 × k × 1 × · · · × 1 = k.
De plus, la permutation (1, 2, ..., n) n’a pas d’inversion. Sa signature est donc 1. Ainsi
det(Ei (k)) = k.
(2) Sans perte de généralité, on peut supposer que i < j. On a :
 
1
 .. 
 . 
 
 0 
 
 1 1 
 
 .. 
Eij = 

. 

 1 1 
 
 0 
 
 1 
 .. 
 . 
1

Comme avant, il y’a un seul produit élémentaire non nul, qui vaut 1. Le déterminant
sera donc ±1. Il reste à déterminer la signature de la permutation
(1, 2, ..., (i − 1), i, (i + 1), (i + 2), ..., (j − 1), j, (j + 1), ..., n)
j a j − i successeurs plus petits. Les nombres compris entre (i + 1) et (j − 1) ont
chacun un successeur plus petit. Or, il y a j − i − 1 nombres entre i et j. Ainsi, le
nombre d’inversions de la permutation est (j − i) + (j − i) − 1 = 2j − 2i − 1.
C’est un nombre impair. La signature est donc −1 et le déterminant de Eij est −1.
(3) En écrivant la matrice Eij (k). On voit que le seul produit élémentaire non nul est 1
et que la signature de la permutation à étudier est celle de (1, 2, ..., n). C’est une
permutation paire, ce qui implique que det(Eij (k)) = 1.
(4) Pour montrer que det(EA) = det(E)det(A), nous allons considérer trois cas, E =
Ei (k), E = Eij et E = Eij (k).
Premier cas : E = Ei (k), k ̸= 0 et A = (aij ).
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 . 
 . .. .. 
 . . . 
EA =  
 kai1 kai2 · · · kain 
 . .. .. 
 .. . . 
an1 an2 · · · ann

Le déterminant est la somme des produits élémentaires signés. Chaque produit élé-
mentaire a exactement un élément de chaque ligne, en particulier un élément de la
i-ème ligne. Ainsi, dans chaque
∑ terme de la somme. On peut mettre k en évidence.
Finalement, det(EA) = k σ∈Sn sign(σ)a1σ(1) . . . anσ(n) = det(E)det(A).

62
Le déterminant

Deuxième cas : E = Eij . On peut supposer que i < j. Posons B = Eij A. On a


 
a11 a12 · · · a1n
 .. .. 
 . . 
 
 aj1 aj1 · · · ajn 
 . 
Eij A = 
 ..
..
. 

 a · · · ain 
 i1 ai2 
 . .. 
 .. . 
an1 a11 · · · a11

Les produits élémentaires de B et de A sont les mêmes. Comme det(Eij ) = −1,


pour montrer que det(Eij A) = det(Eij )det(A), il faux montrer que les produits
élémentaires
∑ signés de A et de B sont opposés. Par définition du déterminant,
det(B) = σ∈Sn sign(σ)b1σ(1) . . . biσ(i) . . . bjσ(j) . . . bnσ(n)

= σ∈Sn sign(σ)a1σ(1) . . . ajσ(i) . . . aiσ(j) . . . bnσ(n) .
La deuxième égalité vient du fait que la i-ème ligne de B est la j-ème ligne de A (et réci-
proquement). Posons σ ′ = (σ(1), ..., σ(i − 1), σ(j), σ(i + 1), ..., σ(j − 1), σ(i), σ(j +
1), ..., σ(n)). σ ′ est la composition de σ par∑ la permutation qui échange i et j.
On∑a sign(σ ) = −sign(σ). Ainsi det(B) = σ′ ∈Sn (−sign(σ ′ ))a1σ′ (1) . . . anσ′ (n) =

− σ′ ∈Sn sign(σ ′ )a1σ′ (1) . . . anσ′ (n) = −det(A).


Troisième cas : E = Eij (k). On peut supposer que i < j. Posons C = Eij (k)A. On a
 
a11 · · · a1n
 .. .. 
 . . 
 
 ai1 + kaj1 · · · ain + kajn 
 . 
C=  ..
..
. 

 a · · · ain 
 j1 
 . . 
 .
. .
. 
an1 · · · ann

Alors

det(C) = ∑σ∈Sn sign(σ)b1σ(1) . . . bnσ(n)
= ∑σ∈Sn sign(σ)a1σ(1) . . . a(i−1)σ(i−1) (aiσ(i) + kajσ(j) )a(i+1)σ(i+1) . . . anσ(n)
= ∑σ∈Sn sign(σ)a1σ(1) . . . anσ(n)
+ k σ∈Sn sign(σ)a1σ(1) . . ∑ . a(i−1)σ(i−1) ajσ(i) a(i+1)σ(i+1) . . . anσ(n)
= det(A) + kα , avec α = σ∈Sn sign(σ)a1σ(1) . . . a(i−1)σ(i−1) ajσ(i) a(i+1)σ(i+1) . . . anσ(n)

Comme det(Eij (k)) = 1. Pour montrer que det(C) = det(A)det(Eij (k)) , il suffit

63
Le déterminant

de montrer que α = 0. Mais


 
a11 ··· a1n
 .. .. 
 . . 
 
 a(i−1)1 ··· a(i−1)n 
 
α = det  aj1 ··· an1 
 
 a(j+1)1 ··· a(j+1)n 
 . .. 
 .. . 
an1 ··· ann

et la i-ème ligne de cette matrice est aj1 ..., ajn . Elle a donc deux lignes identiques
(la i-ème et la j-ème), ce qui implique que α = 0.

Ce théorème nous permet de calculer le déterminant d’une matrice de façon relati-


vement simple, en utilisant l’algorithme de Gauss pour réduire la matrice à la forme
échelonnée (qui est triangulaire) et en utilisant les théorèmes 5.1.2 et 5.2.1. En ef-
fet, si A = E1 ...Er D, où D = (dij ) est une matrice échelonnée triangulaire). Alors
det(A) = det(E1 ) . . . det(Er )det(D) = det(E1 ) . . . det(Er )d11 d22 . . . dnn .

Exemple 5.2.1. Calculer det(A), où


 
0 1 5
A =  3 −6 9 
2 6 1
 
0 1 5
det(A) = 
det 3 −6 9 
2 6 1 
3 −6 9
= 
(−1)det 0 1 5 
 2 6 1 
1 −2 3
= 
(−3)det 0 1 5 
 2 6 1 
1 −2 3
= (−3)det 0 1 5 
 0 10 −5 
1 −2 3
= (−3)det 0 1 5 
0 0 −55 
1 −2 3
= (−3)(−55)det 0 1 5 
0 0 1
= (−3)(−55) = 165

64
Le déterminant

Exemple 5.2.2. Soit  


1 3 −2 4
 2 6 −4 8 
A=
 3

9 1 5 
1 1 4 8
Alors, en soustrayant deux fois la ligne 1 à la ligne 2, on obtient
 
1 3 −2 4
 0 0 0 0 
det(A) = det   3
=0
9 1 5 
1 1 4 8

Notation 5.2.1. Pour toute matrice carrée A, on note

|A| = det(A).

Théorème 5.2.2. Soit A une matrice carrée. Alors A est inversible si et seulement si
det(A) ̸= 0.
On a, dans ce cas
1
det(A−1 ) =
det(A)
ou det(A−1 ) = (det(A))−1

Preuve. Supposons d’abord que A est inversible. On peut alors écrire A comme produit
de matrices élémentaires A = E1 ...Er . En appliquant successivement le théorème 5.2.1,
on a

det(A) = det(E1 ...Er ) = det(E1 )det(E2 ...Er ) = ... = det(E1 )...det(Er ).

Comme le déterminant d’une matrice élémentaire n’est jamais nul, on en déduit que
le déterminant de A n’est pas nul.
Ensuite, A−1 = Er−1 ...E1−1 , et on vérifie aisément que det(E −1 ) = det(E)−1 pour
toute matrice élémentaire E. On a donc

det(A−1 ) = det(Er )−1 . . . det(E1 )−1 et donc det(A) = det(A)−1

Réciproquement, supposons que det(A) ̸= 0. Nous montrerons qu’alors A est équivalente


par lignes à I, ce qui implique que A est inversible.
Soit R la forme échelonnée réduite de A. On peut donc trouver des matrices élémen-
taires E1 , ..., Ek telles que Ek . . . E1 A = R ou encore A = E1−1 ...Ek−1 R. On en déduit que
|A| = |E1−1 | . . . |Ek−1 ||R|.
Mais par hypothèse, |A| ̸= 0 donc |R| ̸= 0.
On en déduit que chaque ligne de R contient un 1 directeur, donc R = I.
Le théorème suivant est essentiel et nous affirme que le déterminant est multiplicatif :

65
Le déterminant

Théorème 5.2.3. Soient A et B deux matrices de taille n × n. Alors det(AB) =


det(A)det(B).

Preuve. Si A et B sont toutes deux inversibles, on les écrit comme produit de matrices
élémentaires : A = E1 ...Er et B = F1 ...Fs . On a alors

det(AB) = det(E1 . . . Er F1 ...Fs )


= det(E1 )det(E2 . . . Er F1 . . . Fs )
= det(E1 ) . . . det(Er )det(F1 . . . Fs )
= det(E1 . . . Er )det(F1 . . . Fs )
= det(A)det(B)

Si A ou B n’est pas inversible, alors AB n’est pas inversible non plus ; et det(AB) = 0.

Le déterminant est invariant par transposition :

Théorème 5.2.4. Soit A une matrice de taille n×n. Alors, det(A) = det(AT ). Autre-
ment dit, le déterminant d’une matrice est égal à celui de sa transposée.

Preuve. La démonstration se fait comme ci-dessus : supposons d’abord que A est in-
versible. On peut alors l’écrire comme produit de matrices élémentaires A = E1 ...Er .
On a alors AT = ErT . . . E1T et |AT | = |ErT | . . . |E1T | = |Er |...|E1 | = det(A).
D’autre part, si A n’est pas inversible, alors AT n’est pas inversible non plus, et
|A| = |AT | = 0.
Comme la transposition transforme une ligne en une colonne (et réciproquement),
ce théorème nous permet de formuler le principe suivant :

Proposition 5.2.1. Pour toute propriété des déterminants où il est question des lignes
de la matrice, on a une propriété analogue concernant les colonnes de la matrice.

Résumé des résultats sur les déterminants :


Soit A matrice carrée de taille n × n :

- det(A) = σ∈Sn sign(σ)a1j1 ...anjn où σ = (j1 , ..., jn )
- Si A a une ligne nulle, alors det(A) = 0
- Si A a deux lignes égale alors det(A) = 0
- Si A est une matrice triangulaire (inférieure ou supérieure) alors det(A) est produit
de ses éléments diagonaux ; si
   
a11 · · · ∗ a11 · · · 0
   . 
A =  ... ..
.  ou  .. ..
. 
0 · · · ann 0 · · · ann

alors det(A) = a11 ...ann .


- det(AB) = det(A)det(B)
- Pour tout scalaire λ, det(λA) = λn det(A).

66
Le déterminant

- det(AT ) = det(A)
- A est inversible si et seulement si det(A) ̸= 0.
- Si A est inversible, alors det(A−1 ) = 1/det(A)
Matrices élémentaires :
- det(Ei (k)) = k
- det(Eij ) = −1
- det(Eij (k)) = 1

5.3 Les cofacteurs et la règle de cramer


Définition 5.3.1. (Mineurs et cofacteurs). Soit A = (aij ) une matrice de taille n×n. On
appelle mineur de l’élément aij le déterminant de la sous-matrice obtenue en éliminant
la i-ème ligne et la j-ème colonne de la matrice A. On le note Mij . On appelle cofacteur
de aij la quantité
cij = (−1)i+j Mij

Si  

 a11 a12 ··· a1j ··· a1n 
 
 a21 a22 ··· a2j ··· a2n 
 
 .. .. .. .. .. .. 
A= . . . . . . 
 
 −→ ai1 ai2 ··· aij ··· ain 
 .. .. .. .. .. .. 
 . . . . . . 
an1 ai1 ··· anj ··· ann
Les flèches ligne et colonne de la matrice A désignent respectivement la ligne i et la
colonne j à supprimer lors du calcul de Mij .
Alors  
a11 · · · a1j−1 a1j+1 · · · an1
 .. .. .. .. 
 . . . . 
 
 ai−11 · · · ai−1j−1 ai−1j+1 · · · ai−1n 
Mij = det  
 ai+11 · · · ai+1j−1 ai+1j+1 · · · ai+1n 
 . .. .. .. 
 .. . . . 
an1 · · · anj−1 anj+1 · · · ann
Exemple 5.3.1. Soit  
1 2 3
A=  1 2 1 
0 1 1
Calculons M11 , C11 , M32 , C32 :

67
Le déterminant

 
↓ ( )
 −→ 1 2 3 
Exemple 5.3.2. M11 =  = det 2 1
= 1; C11 = (−1)1+1 M11 =
 4 2 1  1 1
0 1 1
1.
 
↓ ( )
 1 2 3 
Exemple 5.3.3. M32 =  = det 1 3
= −11; C32 = (−1)3+2 M32 =
 4 2 1  4 1
−→ 0 1 1
11.
Pour déterminer si Cij = Mij ou Cij = −Mij , on peut utiliser le schéma suivant :
 
+ − + − ···
 − + − + ··· 
 
A =  + − + − ··· ,
 
.. .. .. ..
. . . .

C11 = M11 , C12 = −M12 , C21 = −M21 , etc....

5.3.1 Calcul du déterminant par la méthode des cofacteurs


Soit A une matrice de taille 3 × 3, c’est-à-dire que
 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33

Nous savons que det(A) = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a31 a22 a13 − a32 a23 a11 −
a33 a21 a12 .
On peut réécrire de la manière suivante :

det(A) = a11 (a22 a33 − a32 a23 ) + a12 (a23 a31 − a33 a21 ) + a31 (a12 a23 − a22 a13 ).

Les termes entre parenthèses sont des cofacteurs des éléments a11 , a12 et a13 . Donc

det(A) = a11 C11 + a12 C12 + a13 C13 .

Exemple 5.3.4. Soit  


1 2 3
A=  1 2 1 
0 1 1
det(A) = 1C11(+ 2C12 +
) 3C13 ( ) ( )
2 1 4 1 4 2
= 1det + 2(−1)det + 3det
1 1 0 1 0 1
= 1 − 8 + 12
= 5

68
Le déterminant

De manière analogue, on a
det(A) = a11 C11 + a12 C12 + a13 C13
= a21 C21 + a22 C22 + a23 C23
= a31 C31 + a32 C32 + a33 C33
Nous avons vu que les propriétés du déterminant relatives aux lignes conduisant à des
propriétés analogues relatives aux colonnes. On a donc aussi
det(A) = a11 C11 + a21 C21 + a31 C31
= a12 C12 + a22 C22 + a32 C32
= a31 C31 + a23 C23 + a33 C33
Ces expressions sont appelées les développements du déterminant en cofacteurs par
rapport aux lignes, respectivement aux colonnes de la matrice A.
Pour une matrice A de taille n×n, on a des développements en cofacteurs analogues.
Nous résumons ceci dans le théorème suivant :
Théorème 5.3.1. (Déterminants par la méthode des cofacteurs).
Le déterminant par rapport à la i-ème ligne est donné par det(A) = ai1 Ci1 + ai2 Ci2 +
· · · + ain Cin
Le déterminant par rapport à la j-ème colonne est donné par : det(A) = a1j C1j +
a2j C2j + · · · + anj Cnj .

5.3.2 Calcul de l’inverse par la méthode des cofacteurs


Reprenons la formule du déterminant développé selon la i-ème ligne : ai1 Ci1 +ai2 Ci2 +
· · · + ain Cin .
Remplaçons les éléments aij par ceux d’une ligne, disons la k-ème, avec k ̸= i. Nous
obtenons ak1 Ci1 + ak2 Ci2 + · · · + akn Cin . Cette expression est égale à zéro. Autrement
dit :
Théorème 5.3.2. ak1 Ci1 + ak2 Ci2 + · · · + akn Cin = 0 si k ̸= i.
Preuve. Nous allons vérifier dans le cas particulier où n = 3. La démonstration est
analogue dans le cas général. Soit
 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33

Remplaçons la 3-ème ligne par la 1ère . On obtient


 
a11 a12 a13
A =  a21 a22 a23 
a11 a12 a13
On a det(A′ ) = 0. Car A′ a deux lignes égale. Calculons det(A′) par développement
en cofacteurs par rapport à la 3-ème ligne. On a det(A′ ) = a11 C31
′ ′
+ a12 C32 ′
+ a13 C33 où
′ ′ ′ ′ ′
Cij sont les cofacteurs de la matrice A . Mais C31 = C31 , C32 = C32 , C33 = C33 .

69
Le déterminant

On a donc det(A′ ) = a11 C31 + a12 C32 + a13 C33 = 0


En résumé, on a
{
det(A) si i=k
ak1 Ci1 + ak2 Ci2 + · · · + akn Cin =
0 sinon

Considérons maintenant la matrice des cofacteurs


 
C11 C12 · · · C1n
 C21 C22 · · · C2n 
 
C =  .. .. .. 
 . . . 
Cn1 Cn2 · · · Cnn

et calculons
 
a11 a12 ··· a1n
 
 a21 a22 ··· a2n  C11 C21 ··· Cn1
 
 .. .. ..  C12 C22 ··· Cn2 
 . . .  
AC T =   .. .. .. 
 ai1 Ci2 ··· ain  . . . 
 .. .. .. 
 . . .  C1n C2n ··· Cnn
an1 an2 ··· ann

Dans le produit AC T , l’élément de la i-ème ligne et de la j-ème colonne est : ai1 Ci1 +
ai2 Ci2 + · · · + ain Cin . Par ce qui précède, on a donc
 
det(A) 0 ··· 0
 0 det(A) · · · 0 
 
AC T =  .. . . . ..  = det(A)I
 . . 
0 0 · · · det(A)

On en déduit que si det(A) ̸= 0, c’est-à-dire si A est inversible, alors on a


1
A−1 = CT
det(A)

On a ainsi formule explicite pour calculer A−1 . On appelle C T la matrice adjointe de A.


Elle est notée adj(A).

Théorème 5.3.3. Soit A une matrice carrée avec det(A) ̸= 0. On a alors


1
A−1 = adj(A)
det(A)

Exemple 5.3.5.  
1 1 0
A= 0 1 1 
1 0 1

70
Le déterminant

On a det(A) = 2.
La matrice formée des Mij est
 
1 −1 −1
M = 1 1 −1 
1 0 1

La matrice des signes est  


+ − +
A=  − + − 
+ − +
La matrice des cofacteurs est
 
1 1 −1
C =  −1 1 1 
1 −1 1

On a donc  
1 1 −1
adj(A) = C T =  −1 1 1 
1 −1 1
Donc  
1 −1 1
1
A−1 =  −1 1 −1 
2
1 1 1

5.3.3 Systèmes linéaires : règle de cramer


Le théorème suivant, appelé règle de Cramer, donne une formule explicite pour trou-
ver la solution de certains systèmes d’équations linéaires :
Soit 

 a11 x1 + a12 x2 + ... + a1n xn = b1

 a21 x1 + a22 x2 + ... + a2n xn = b2
.. ..

 . = .

 a x + a x + ... + a x = b
n1 1 n2 2 nn n n

Un système d’équations linéaires à n équations et n inconnues. Ce système peut aussi


s’écrire AX = B, où
     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
     
A =  .. .. ..  , X =  ..  , et B =  .. .
 . . .   .   . 
an1 an2 · · · ann xn bn

La matrice A est appelée matrice des coefficients du système et la matrice B est


appelée le second membre.

71
Le déterminant

Définissons Aj par
 
a11 ··· a1j−1 b1 a1j+1 ··· a1n
 a21 ··· a2j−1 b2 a1j+1 ··· a2n 
 
Aj =  .. .. 
 . . 
an1 ··· anj−1 bn anj+1 ··· ann
où la colonne contenant le vecteur B est la j-ème colonne.
Autrement dit, Aj est la matrice obtenue en remplaçant la j-ème colonne de A par
le second membre B. La règle de Cramer va nous permettre de calculer la solution du
système dans le cas où det(A) ̸= 0 en fonction des déterminants des matrices A et Aj .
Théorème 5.3.4. (Règle de Cramer) Soit
AX = B
un système de n équations linéaires à n inconnues. Supposons que det(A) ̸= 0. Alors
l’unique solution du système est donnée par x1 = det(A1)
det(A)
, x2 = det(A
det(A)
2)
, ...., xn = det(A n)
det(A)
.
Preuve. Nous avons supposé que
det(A) ̸= 0
. Donc A est inversible. Alors
X = A−1 B
est l’unique solution du système. D’autres part, nous avons vu que
1
A−1 = adj(A)
det(A)
Donc
1
X= adj(A)B
det(A)
Autrement dit, .
    
x1 C11 · · · Cn1 b1
   ..   .. 
X =  ...  = det(A)  .
1 ..
.  . 
xn  C1n · · · Cnn bn 
C11 b1 + C21 b2 + ... + Cn1 bn
 .. 
det(A)  
1
= .
C1n x1 + C2n x2 + ... + Cnn bn
C’est-à-dire que
C11 b1 +...+Cn1 bn
x1 = det(A)
.. .
. = ..
xi = C1i b1det(A)
+...+Cni bn

.. ..
. .
C1n b1 +C2n b2 +...+Cnn bn
xn = det(A)

72
Le déterminant

Mais C1i b1 + ... + Cni bn est le développement en cofacteurs de det(Ai ) par rapport à sa
i-ème colonne. Donc
det(Ai )
xi =
det(A)

Exemple 5.3.6. Résolvons le système suivant :



 x1 + 6x2 + 2x3 = 6
−3x1 + 4x2 + 6x3 = 30

−x1 + 2x2 + 3x3 = 8

On a    
1 6 2 6 0 2
A =  −3 4 6  , A1 =  30 4 6 
−1 2 3 8 −2 3
   
1 6 2 1 0 6
A2 =  −3 30 6  , A3 =  −3 4 30 
−1 8 3 −1 −2 8
et det(A) = 44, det(A1 ) = −10, det(A2 ) = 72, det(A3 ) = 152.
La solution est alors

x1 = det(A1 )
det(A)
= − 40
44
= −10
det(A2 ) 72 18
x2 = det(A)
= 14 = 11
det(A3 )
x3 = det(A)
= 152
44
38
= 11

5.4 Exercices
Exercice 1 Calculer les déterminants d’ordre trois suivants, en exprimant le résultat
sous forme factorisée, pour (a, b, c) ∈ R3 .
a b ab 1 a bc 1 1 1 2a a−b−c 2a
a) a c ac b) 1 b ca c) a2 b2 c2 d) b − c − a 2b 2b
b c bc 1 c ab 3 3
a b c 3
2c 2c c−a−b
2
0 a b 1 a a 1 a a 1 2 102
e) −a 0 c f) a 2 a g) a a a2 h) 3 4 304 .
−b −c 0 a a a a2 a2 a2 5 6 506

Exercice 2 En utilisant le déterminant, résoudre le système d’équations, d’inconnues


(x, y, z) ∈ R3 ; m ∈ R. 
 mx + y + z = 1
(S) x + my + z = m

x + y + mz = m2

73
Le déterminant

Exercice 3 En utilisant le déterminant, déterminer l’ensemble des couples (a, b) ∈ R2


tels que le système d’équations, d’inconnue (x, y) ∈ R2 suivant :


 x+y =1

ax + by = 1
(S)

 a2 x + b 2 y = 2
 3
a x + b3 y = 3
admette une solution et une seule.
Exercice 4 On considère, pour (a, b, c) ∈ R3 tel que a ̸= b, le système d’équations
(S) suivant, d’inconnue (u, v, x, y) ∈ R4 .

 u + av + x + by = 1
(S) au + a2 v + bx + b2 y = c
 2
a u + a3 v + b2 x + b3 y = c2
Démontrer que l’ensemble S des solutions de (S) n’est pas vide si et seulement si c ∈
{a, b}.
Exercice 5 Dans chacun des cas suivants dire si la matrice est inversible et utiliser
le déterminant pour calculer son inverse :  
( ) ( ) 1 0 2
1 0 1 2  1 1 −1 
a) A = b) B = c) C = d) D =
0 1 0 0
     0
 2 1  
2 0 1 2 1 1 3 1 1 0 1 0
 1 1 2  e) E =  0 2 1  f) F =  0 1 1  g) G =  0 0 0 
1 −2 −1  0 0 1 0 0 1 0 2 1
1 0 1
h) H =  0 2 1 
0 0 2
Exercice 6 Soient a, b, c, d quatre nombres complexes. On considère :
 
−a b c d
 b −a d c 
M =  c

d −a b 
d c b −a
( )
A B
Ecrire M sous la forme M = où A et B sont des matrices carrées d’ordre 2.
B A
Montrer que det(M ) = det(A − B)det(A + B).
Exercice 7 Soit (λ, µ) ∈ C2 . Résoudre dans C le système suivant :


 λx + y + z + t = 1

x + λy + z + t = µ

 x + y + λz + t = µ2

x + y + z + λt = µ3

74
Chapitre 6

Espaces vectoriels

Dans ce chapitre, K désignera un corps.

6.1 Espace vectoriels


On appelle espace vectoriel sur K (ou K-espace vectoriel) un ensemble non vide E
muni d’une loi notée + et d’une autre loi notée ., noté (E, +, .), telles que les conditions
suivantes sont satisfaites :
1) Pour tous x, y ∈ E, x + y ∈ E; ( on dit que + est une loi de composition interne)
2) Pour tous x, y ∈ E, x + y = y + x; ( on dit que + est commutative)
3) Pour tout x ∈ E, x + 0E = x; ( on dit que 0 est élément neutre pour +)
4) Pour tout x ∈ E, −x ∈ E; ( on dit que −x est le symétrique de x pour +)
5) Pour tous x, y, z ∈ E, (x + y) + z = x + (y + z); ( on dit que + est associative)
6) Pour tous λ ∈ K, x ∈ E, λ.x ∈ E; ( on dit que . est une loi de composition externe)
7) λ.(µ.x) = (λ.µ).x ∀λ, µ ∈ K et ∀x ∈ E;
8) (λ + µ).x = λx + µ.x ∀λ, µ ∈ K, et ∀x ∈ E;
9) λ.(x + y) = λx + λ.y ∀λ ∈ K, et ∀x, y ∈ E;
10) 1.x = x ∀x ∈ E.
Les éléments de K sont appelés scalaires et ceux de E sont appelés vecteurs.

Exemple 6.1.1. 1) K est un K-espace vectoriel sur lui même ;


2) C est un espace vectoriel sur R;
3) C est un espace vectoriel sur C;
4) R[X] est un espace vectoriel sur R muni des lois : (a0 X + a1 X 2 + ... + an X n ) +
(b1 X + b2 X 2 + ... + bn X n ) = (a0 + b0 )X + (a1 + b1 )X 2 + ... + (an + bn )X n et
λ.(a0 X + a1 X 2 + ... + an X n ) = λ.a0 X + λ.a1 X 2 + ... + λ.an X n ;
5) Soit E un espace vectoriel sur K, A un ensemble quelconque non vide, et S =
{applications f : A −→ E}. On peut définir sur S une structure d’espace vectoriel

75
Espaces vectoriels

f +g A −→ E
sur K par les lois : si f, g ∈ S et λ ∈ K, alors ,
a 7−→ f (a) + g(a)
λ.f A −→ E
;
a 7−→ λ.f (a)
6) Soient E1 et E2 deux espaces vectoriels sur K. On définit une structure d’espace
vectoriel sur E1 ×E2 par : (x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 ) et λ.(x1 , y1 ) =
(λ.x1 + λ.y1 ), avec λ ∈ K. D’une manière analogue, E1 ×... × En , est un espace
vectoriel sur K si E1 , ..., En le sont.

Proposition 6.1.1. Pour tout λ ∈ K, et pour tout ∀x ∈ E, on a :


1) λ.0 = 0 et x.0 = 0;
2) λ.x = 0 ⇒ λ = 0 ou x = 0;
3) (−λ)x = λ(−x) = −λ.x.

Preuve.
1) λ.(0 + 0) = λ.0 + λ.0 = λ.0 =⇒ λ.0 = 0 et (0 + 0).x = 0.x + 0.x = 0.x =⇒ 0.x = 0;
2) λ.x = 0, si λ ̸= 0, alors λ−1 λx = 0 =⇒ x = 0;
3) (λ + (−λ))x = λx + (−λ)x = 0 =⇒ (−λx) = −(λx).

Dans la suite, (−λ)x sera noté −λx et x + (−y) sera noté x − y.

6.2 Sous-espaces vectoriels


Définition 6.2.1. Soit E un espace vectoriel et F une partie non vide de E. On dit
que F est un sous-espace vectoriel de E, si la restriction des lois de E à F fait de F un
espace vectoriel.

Proposition 6.2.1. Soit E un espace vectoriel et F ⊂ E. Alors F est un sous-espace


vectoriel de E si et seulement si :
1) F ̸= ∅
2) x, y ∈ F =⇒ x + y ∈ F; x ∈ F, λ ∈ K =⇒ λ.x ∈ F.

Preuve. =⇒) Exercice.


⇐=) λ = −1 et y ∈ F =⇒ −y ∈ F d’après b) ; x ∈ F =⇒ x−y ∈ F d’après a) ; d’où
F est un sous-groupe de E.
Les autres axiomes sont vérifiés pour tous les éléments de E et donc à fortiori pour
les éléments de F.

Proposition 6.2.2. F est un sous-espace vectoriel de E si et seulement si :


1) F ̸= ∅
2) x, y ∈ F; µ, λ ∈ K =⇒ λ.x + µ.y ∈ F.

76
Espaces vectoriels

Preuve. Exercice.
Remarque 6.2.1. Cette proposition est équivalente à la précédente.
Exemple 6.2.1. 1) Droite vectorielle : Soit E un espace vectoriel et v ∈ E tel que
v ̸= 0, alors F = {y ∈ E/∃λ ∈ K; y =λ.v} est un sous-espace vectoriel de E dit
droite vectorielle engendrée par v ;
2) Soient x1 , x2 ∈ E et F = {y ∈ E/∃λ1 , λ2 ∈ K; y =λ1 .x1 + λ2 .x2 }, F est un sous-
espace vectoriel engendré par x1 et x2 ;
3) Rn [X] = {polynômes P ∈ R[X]; degP 6 n} est un sous espace-vectoriel de R[X];
4) Soit F = {(x, y, z) ∈ R3 /2x + y + 3z = 0} est un sous-espace vectoriel de R3 .
Proposition 6.2.3. Soient F et G deux deux sous-espaces vectoriels de E.
1) F ∩ G est un sous-espace vectoriel de E;
2) F ∪ G n’est pas en général un sous-espace vectoriel de E ;
3) Le complémentaire (E − F) d’un sous-espace vectoriel F n’est pas un sous-espace
vectoriel de E.
Preuve.
1) F ∩ G ̸= ∅, car 0 ∈ F ∩ G. x, y ∈ F ∩ G et λ, µ ∈ K =⇒ (x, y ∈ F, λ, µ ∈ K) et
(x, y ∈ G, λ, µ ∈ K) =⇒ λ.x + µ.y ∈ F ∩ G;
2) On prend F * G et G * F, il existe donc x ∈ F; x ∈ / G, et y ∈ G; y ∈/ F; on a
donc x, y ∈ F ∪ G; si F ∪ G est un sous-espace vectoriel, alors x + y ∈ F ∪ G;
c.à.d x + y ∈ F ou x + y ∈ G. Si x + y ∈ F, alors (x + y) − x ∈ F =⇒y ∈ F;
contradiction. Si x + y ∈ G, alors (x + y) − y ∈ G =⇒x ∈ G; contradiction.
3) Le complément (E − F) ne contient pas 0, donc n’est pas un sous-espace vectoriel.

6.3 Famille génératrice


Définition 6.3.1. Une famille de vecteurs {v1 , ..., vp } d’un espace vectoriel E est dite
génératrice si : ∀x, ∃λ1 , λ2 ..., λp ∈ K tel que x = λ1 v1 + λ2 v2 + ... + λp vp , on dit que tout
x ∈ E est une combinaison linéaire des vecteurs vi .
Remarque 6.3.1. Une telle famille (finie) de vecteurs n’existe pas toujours. Considé-
rons R[X] et {P1 , ..., Pp } une famille finie de polynômes, elle ne peut pas être géné-
ratrice, car par combinaisons linéaires, on n’obtiendra que des polynômes de degré 6
Sup(deg Pi ). Par contre, pour Rn [X], la famille {1, X, ..., X n } est une famille généra-
trice.
Exemple 6.3.1. 1) Dans R2 , {(1, 0); (0, 1)} est une famille génératrice ;
2) Dans R2 , {(1, 0); (0, 1); {(1, 2)} est une famille génératrice ;
3) Dans R2 , {(1, 1); {1, −1)} est une famille génératrice ;

77
Espaces vectoriels

4) Dans Rn , {(1, 0, ..., 0); ...; (0, ..., 0, 1)} est une famille génératrice.

Définition 6.3.2. Un espace vectoriel est dit de dimension finie s’il existe une famille
génératrice fini. Dans le cas contraire, on dit qu’il est de dimension infinie.

Exemple 6.3.2. 1) Rn et Rn sont de dimension finie ;


2) R[X] est de dimension infinie ;
3) L’ensemble des combinaisons linéaires des vecteurs v1 , v2 , ..., vp noté {v1 , ..., vp } ou
⟨v1 , ..., vp ⟩ ou vect{v1 , ..., vp } ou ⟨v1 , ..., vp ⟩ est un sous-espace vectoriel de E de di-
mension finie appelé sous-espace vectoriel de E engendré par les vecteurs v1 , ..., vp .

6.4 Dépendance et indépendance linéaires-Bases


Définition 6.4.1. Soit v1 , v2 , ..., vp une famille finie d’éléments de E. On dit qu’elle est
libre si : λ1 v1 + λ2 v2 , ... + λn vp = 0 =⇒ λ1 = λ2 = ... = λn = 0. On dit que les vecteurs
v1 , v2 , ..., vp sont linéairement indépendants. Une famille qui n’est pas libre, est dite liée
(on dit aussi que ses vecteurs sont liés ou linéairement dépendants).

Exemple 6.4.1. 1) Dans R3 , les vecteurs v1 = (1, 2, 1), v2 = (−1, 3, 1) et v3 = (−1, 13, 5)
sont liés car 2v1 + 3v2 − v3 = 0 ;
2) Dans R3 , les vecteurs v1 = (1, 1, −1), v2 = (0, 2, 1) et v3 = (0, 0, 5) sont linéairement
indépendants.

Proposition 6.4.1. Une famille {v1 , ..., vp } est liée si et seulement si l’un au moins des
vecteurs vi s’écrit comme combinaison linéaire des autres vecteurs de la famille.

Preuve. =⇒)∃λ1 , ..., λp non tous nuls tels que λ1 v1 + λ2 v2 + ... + λp vp = 0, si λi ̸= 0,


alors vi = −λ 1
λi 1
v + ... + −λλi−1 vi+1 + ... + −λ p
λi p
v.
i
⇐=)∃vi tel que vi = α1 v1 + ... + αi−1 vi−1 + αi+1 vi+1 + ... + αp vp , c.à.d α1 v1 + ... +
αi−1 vi−1 − vi + αi+1 vi+1 + ... + αp vp = 0.

Proposition 6.4.2. Soit {v1 , ..., vp } une famille libre et x un vecteur quelconque de
l’espace engendré par les vi (c’est-à-dire x est une combinaison linéaire des vi ), alors la
décomposition de x sur les vi est unique.

Preuve. x = α1 v1 + .... + αp vp = λ1 v1 + .... + λp vp =⇒ (α1 − λ1 )v1 + ... + (αp − λp )vp =


0, =⇒ αi = λi ∀i = 1, ..., p.

Définition 6.4.2. On appelle base une famille à la fois libre et génératrice.

Proposition 6.4.3. Soit {v1 , ..., vn } une base de E. Tout x ∈ E se∑ décompose d’une
façon unique sur les vi , c.à.d ∀x ∈ E, ∃!(λ1 , ..., λn ) ∈ K tel que x = ni=1 λi vi .
n

Preuve. Proposition précédente

78
Espaces vectoriels

Proposition 6.4.4. Soit B = {v1 , ..., vn } une base de E. Il existe alors une bijection

ρB : E ∑ −→ Kn
x = ni=1 λi vi 7−→ (x1 , ..., xn )

Les scalaires xi sont dits composantes de x dans la base B.


Exemple 6.4.2. 1) La base canonique de Kn , {ek = (0, ..., 1, 0...0)/k = 1, ..., n};
2) La base canonique de Rn [X], {1, X, ...., X n };
3) Soit F = {(x, y, z) ∈ Rn ; 2x + y + 3z = 0}. F est un sous-espace vectoriel de R3 .
On a v = (x, y, z) ∈ F ⇐⇒ y = −2x − 3z. Donc v ∈ F ⇐⇒ v = (x, −2x − 3z, z) =
x(1, −2, 0) + z(0, −3, 1), donc (1, −2, 0) et (0, −3, 1) engendre F. On vérifie qu’ils
forment une famille libre, donc c’est une base de F.
Proposition 6.4.5. 1) {x} est une famille libre ⇐⇒ x ̸= 0;
2) Toute famille contenant une famille génératrice est une famille génératrice ;
3) Toute sous-famille d’une famille libre est libre ;
4) Toute famille contenant une famille liée est liée ;
5) Toute famille {v1 , ..., vn } dont l’un des vecteurs vi est nul, est liée.
Preuve.
1) =⇒) Si x = 0, alors λx = 0 pour tout λ, d’où {x} est liée.
⇐=) λx = 0 =⇒ λ = 0, car x ̸= 0.
2) Soit {v1 , ..., vp } ∑
une famille génératrice
∑ et {v1 , ..., vp , w1 , ..., wq } une sur-famille. Alors
∀x ∈ E, x = pi=1 λi vi = pi=1 λi vi + 0w1 + ... + 0wq ;
3) Soit F = {v1 , ..., vp } une famille libre et F ′ une sous-famille de F, quitte à changer
la numérotation F’ = {v1 , ..., vk } avec k 6 p. Si F’ est liée, l’un des vi serait
combinaison linéaire des autres.
4) Soit F = {v1 , ..., vp } et G = {v1 , ..., vp , w1 , ..., wq }, l’un des vecteurs vi est combinaison
linéaire des autres vecteurs de F, et donc de G, d’où G est liée.
5) {0} étant liée, toute sur-famille est liée.

6.5 Existence de Bases (en dimension finie)


Théorème 6.5.1. Dans un espace vectoriel E ̸= {0}, de dimension finie, il existe
toujours des bases.
Preuve. Soit G = {v1 , ..., vp } une famille génératrice. Pour tout x ∈ E, il existe
α1 , ..., αp ∈ K tels que x = α1 v1 + ... + αp vp .
a) Si tous les vi étaient nuls, alors on aurait E = {0}, ce qui est exclu. Quitte à changer
de numérotation on peut supposer v1 ̸= 0.

79
Espaces vectoriels

b) L1 = {v1 } est une famille libre, si elle est génératrice, alors elle est une base de E.
c) Supposons que L1 est non génératrice. Montrons qu’il existe v∗ ∈ {v1 , ..., vp } tel que
{v1 , v∗ } soit libre.
Supposons le contraire, c-à-d v1 est lié à chacun des vi , i = 2, ..., p ; alors il existe
λ2 , ..., λp tels que v2 = λ2 v1 , ..., vp = λp v1 ; alors
∑i=p
x = i=1 αi∑
vi
i=p
= α1 v1 + i=2 αλv
∑i=p i i 1
= (α1 + i=2 αi λi )v1

ce qui entraîne {v1 } génératrice de E, ce qui est absurde. La famille {v1 , v∗ } est
donc libre, en changeant éventuellement de notation, on peut supposer v∗ = v2 .
d) Si L1 = {v1 , v2 } est génératrice de E, alors on a terminé. Supposons le contraire.
En répétant le même raisonnement que précédemment, on voit qu’il existe v∗ ∈
{v3 , ..., vp } tel que la famille L2 = {v1 , v2 , v∗ } est libre. On construit ainsi une suite :
L1 L2 L3 ... ⊂ G de famille libres et de processus peut être continué étant
donné que Lk n’est pas génératrice. Mais G est une famille finie et pat conséquent
le processus doit s’arrêter, éventuellement pour Lk = G. Il existe donc une famille
Lk libre et génératrice.

Cette démonstration nous permet d’obtenir une version du théorème précédent.

Théorème 6.5.2. Soit E ̸= {0} un espace vectoriel de dimension finie. Alors :


1) De toute famille génératrice, on peut extraire une base ;
2) (Théorème de la base incomplète). Toute famille libre peut être complétée de manière
à former une base.

6.6 Les théorèmes fondamentaux sur la dimension


Théorème 6.6.1. Dans un espace vectoriel engendré par n éléments, toute famille de
plus de n éléments est liée.

Preuve. Soit F = {v1 , ..., vn }une famille génératrice et F ′ = {w1 , ..., wm } une famille
de vecteur (m > n). Montrons que F ′ est liée.
1) Si l’un des wi=0, alors F ′ est liée et on a fini ;
2) Supposons que tous les wi non nuls, w1 = α1 v1 + ... + αn vn , avec w1 ̸= 0 =⇒ ∃αi ̸= 0,
quitte à changer la numérotation, supposons α1 ̸= 0 d’où α11 w1 −( αα21 v2 +...+ ααn1 vn );
Pour x ∈ E, x = λ1 v1 + ... + λn vn , en remplaçant v1 par son expression, on constate
que x est combinaison linéaire de w1 , v2 , ..., vn , d’où {w1 , v2 , ..., vn } est génératrice.
Considérons w2 tel que w2 = β1 w1 + β2 v2 + ... + βn vn . Si β1 = β2 = ... = βn = 0, alors
w2 = β1 w1 . D’où F ′ est liée et la démonstration est terminée.

80
Espaces vectoriels

Supposons que l’un des βi ̸= 0. Pour fixer les idées, disons β2 , on aura v2 = 1
w
β2 2

1
β2
(β1 w1 + β3 v3 + ... + βn vn ).
En raisonnant comme ci-dessus, on voit que {w1 , w2 , v3 , ..., vn } est génératrice.
Ainsi, de proche en proche, on arrive à remplacer v1 , ..., vn par w1 , ..., wn et {w1 , w2 , ..., wn }
serait génératrice. En particulier, wn+1 serait combinaison linéaire de w1 , ..., wn et
donc F ′ est liée.

Théorème 6.6.2. Dans un espace vectoriel E sur K de dimension finie, toutes les bases
ont le même nombre d’éléments, ce nombre entier est appelé dimension de E sur K et
est noté dimK (E).
Preuve. Soient B et B ′ deux bases. Si B ′avait plus d’élément que B. Elle ne serait pas
libre car B est génératrice.
Corollaire 6.6.1. Dans un espace vectoriel de dimension finie n, toute famille de plus
de n éléments est liée, et une famille de moins de n éléments ne peut être génératrice.
Preuve. Pour le 2ième point, si la famille était génératrice, on pourrait en extraire
d’après un théorème du paragraphe 5, une base qui aurait moins de n éléments.
Exemple 6.6.1. 1) Si E = {0}, on pose dimK (E) = 0, et E = {0} ⇐⇒ dimK (E) = 0;
2) dimK (Kn ) = n;
3) dimR (Rn [X]) = n + 1;
4) La dimension d’un espace vectoriel dépend non seulement de E mais aussi de K,
dimR C = 2 et dimC C = 1.
Proposition 6.6.1. Soient E1 , ..., Ep des espaces vectoriels de dimension finie sur le
même corps K, alors dimK E1 × ... × Ep = dimK E1 + ... + dimK Ep .
Preuve. Soient {a1 , ..., an1 }, {b1 , ..., bn2 }, ..., {l1 , ..., lnp } des bases de E1 , ..., Ep respec-
tivement. La famille {(ai , 0, ..., 0)i=1,...,n1 , (0, bi , 0, ..., 0)i=1,...,n2 , ..., (0, 0, ..., li )i=1,...,np } est
une base de E1 × ... × Ep .
Exemple 6.6.2. dimR Cn = 2n et dimC Cn = n
Théorème 6.6.3. Soit E un espace vectoriel de dimension finie n. Alors
1) Toute famille génératrice de n éléments est une base,
2) Toute famille libre de n éléments est une base.
Preuve.
1) De cette famille, on peut extraire une base à n élément, et donc elle même.
2) Cette famille peut être complétée pour former une base à n éléments, et donc elle
même.

81
Espaces vectoriels

Théorème 6.6.4. Soit E un espace vectoriel de dimension finie et F un sous-espace


vectoriel de E. Alors
1) dimK F 6 dimK E
2) dimK F = dimK E ⇐⇒ F = E

Preuve. On pose dimK E = n.


1) a) Si dimK F = 0, alors dimK F 6n;
b) Si dimK F ̸= 0, alors F ̸= 0, et donc F admet une base B, qui est une partie libre
de F, et donc de E. Cela implique que cardinalB 6 n d’après le corollaire 1.6.1.
2) ⇐=) trivial
=⇒) Il existe une base B de F ayant n éléments, elle est donc libre dans F, et donc
dans E. C’est donc une base de E, d’après le théorème 1.6.3, et donc une famille
génératrice de E, d’où E=F.

6.7 Somme, Somme directe, Sous-espaces Supplémen-


taires
Définition 6.7.1. Soient E1 , E2 deux sous-espaces vectoriels d’un espace E. On appelle
somme de E1 et E2 le sous-espaces vectoriels de E défini par :
E1 + E2 = {x ∈ E/∃x1 ∈ E1 , x1 ∈ E1 ; x = x1 + x2 };

E1 + E2 est un sous-espace vectoriel de E. En effet, E1 , E2 ⊂ E, donc E1 + E2 ̸= 0.


α, β ∈ K, et x, y ∈ E1 + E2 =⇒ ∃x1 ∈ E1 , x2 ∈ E2 , y1 ∈ E1 et y2 ∈ E2 tels que
x = x1 + x2 et y = y1 + y2 , d’où αx + βy = αx1 + βy1 + αx2 + βy2 ∈ E1 + E2 .
∈E1 ∈E2

Proposition 6.7.1. Soient E1 , E2 deux sous-espaces vectoriels d’un espace vectoriel E,


et G = E1 + E2 . La décomposition de tout élément de G en somme d’un élément de E1
et d’un élément de E2 est unique si et seulement si E1 ∩ E2 = {0}. On écrit alors que
G = E1 ⊕ E2 , et on dit que G est somme directe de E1 et E2 .

Preuve. =⇒) Soit x ∈ E1 ∩ E2 =⇒ x + 0 = 0 + x d’où la non unicité.


⇐=) Supposons x = x1 + x2 = y1 + y2 =⇒ x1 − y1 = x2 − y2 ∈ E1 ∩ E2 , =⇒ x1 = y1 ,
et x2 = y2 .

Définition 6.7.2. Soient E un espace vectoriel et E1 , E2 deux sous-espaces vectoriels


de E. On dit que E1 et E2 sont supplémentaires (ou que E2 est un supplément de E1 )
si E = E1 ⊕ E2 , c’est-à-dire que E = E1 + E2 et E1 ∩ E2 = {0}.

Proposition 6.7.2. Soit E un espace vectoriel de dimension finie. Alors E = E1 ⊕ E2


si et seulement si pour toute base B1 de E1 , et toute base B2 de E2 , B1 ∪ B2 est une base
de E.

82
Espaces vectoriels

Preuve. =⇒) Soit B1 = {v1 , ..., vp }, et B2 = {vp+1 , ..., vq } des bases de E1 et E2 res-
pectivement. Alors tout x ∈ E s’écrit de manière unique sous la forme x = α1 v1 + ... +
αp vp + λ1 vp+1∑ vq =⇒ B1 ∪ B2 est une base de E.
+ ... + λq−p ∑
⇐=) x = i=1 αi vi + q−p
p
j=1 λj vp+j ∈ E1 + E2
∈E1 ∈E2

La décomposition étant unique suivant des bases de E1 et de E2 , on a E1 ∩ E2 = {0}.

Corollaire 6.7.1. Soit E un espace vectoriel. Pour tout sous-espace vectoriel E1 , il


existe toujours un supplémentaire ; le supplémentaire de E1 n’est pas unique, mais si E
est de dimension finie, tous les supplémentaires de E1 ont même dimension.

Preuve. On expose la démonstration en dimension finie.


Soit {v1 , ..., vp } une base de E1 et soit n = dimK E. D’après le théorème de la base
incomplète, il existe wp+1 , ..., wn tels que {v1 , ..., vp , wp+1 , ..., wn } soit une base de E.
En posant E2 = {wp+1 , ..., wn }, le sous-espace de E engendré par {wp+1 , ..., wn }, on
obtient un supplémentaire de E1 dans E. Puisque le choix des wi n’est pas unique, le
supplémentaire de E1 n’est pas unique. Cependant, tous les supplémentaires de E1 ont
une dimension égale à n − p, p étant la dimension de E1 .

Théorème 6.7.1. Soit E un espace vectoriel de dimension finie. Alors E = E1 ⊕ E2 si


et seulement si :
1) E1 ∩ E2 = {0};
2) dimK E =dimK E1 +dimK E2

Preuve. =⇒) D’après la proposition 2.7.2.


⇐=)Soit {v1 , ..., vp } une base de E1 et {wp+1 , ..., wn } une base
∑p de E2 , avec
∑n n la dimen-
sion de∑
E. Montrons que ∑n l’union des bases
∑p est libre. En effet, λ
∑n i=1 i iv + j=p+1 αj wj =
0 =⇒ i=1 λi vi = − j=p+1 αj wj , =⇒ i=1 λi vi = 0 et j=p+1 αj wj = 0, =⇒ αp+j =
p

∈E1 ∈E2
λi = 0 ∀i = 1, ..., p et ∀j = 1, ..., n − p, et d’après la proposition précédente E = E1 ⊕ E2 .

Exemple 6.7.1.

Exemple 6.7.2.
1) Dans R2 , E1 = {v}et E2 = {w} où v et w sont deux vecteurs indépendants ;
2) Dans R3 , soit π un plan vectoriel et v ∈ / π. On a R3 = π ⊕ {v}, car si {v1 , v2 } est
une base de de π, alors {e1 , e2 , v} est une base de R3 .
3) E = Rn [X], E1 = R, E2 = {XP (X)/P ∈ Rn−1 [X]}, E1 ∩ E2 = {0} et E = E1 + E2 ,
d’où E = E1 ⊕ E2 .

Proposition 6.7.3. Soit E un espace vectoriel de dimension finie, E1 et E2 deux sous-


espaces vectoriels de E. On a dimK (E1 + E2 ) = dimK E1 + dimK E2 − dim(E1 ∩ E2 ). En
particulier, dim(E1 ⊕ E2 ) = dimK E1 + dimK (E2 ).

83
Espaces vectoriels

Preuve. Posons dimK E1 = p, dimK E2 = q et dim(E1 ∩ E2) = r (r 6 p, q). Considérons


{a1 , ..., ar } une base de E1 ∩ E2 qu’on complète pour obtenir {a1 , ..., ar , br+1 , ..., bp } une
base de E1 , et {a1 , ..., ar , er+1 , ..., ep } une base de E2 . Tout vecteur de E1 + E2 s’écrit
en fonction des ai , bj et ek , 1 6 i 6 r, r + 1 6 j 6 p et r + ∑1 6 k 6 q, ∑qui forment
alors une famille génératrice de E1 + E2 . Elle est libre, car : ri=1 αi ai + pj=r+1 βj bj +
=x∈E1 ∩E2
∑q =y∈E1

k=r+1 γk bk = 0. On a donc x + y + z = 0 =⇒ z = −(x + y), =⇒ z ∈ E1 ∩ E2 , =⇒ z


∈E2 ∈E1
=z∈E2 ∑q ∑
s’exprime en fonction des ai d’où j=r+1 γj ej = ri=1 δi ai , mais {a1 , ..., ar , er+1 , ..., ep }
est une base de E2 d’où γr+1 = ... = γq = 0 = δ1 = ... = δr et on a alors z = 0, =⇒
x = −y, on en déduit aussi que βr+1 = ... = βp = 0 = α1 = ... = αr , d’où la famille est
libre, et donc constitue une base de E1 + E2 .
On en déduit
dimK (E1 + E2 ) = r + (p − r) + (q − r)
= p+q−r
= dimK E1 + dimK E2 − dim(E1 ∩ E2 )

Exercices sur les espaces vectoriels

Exercice 1.
1) Dans chacun des cas suivants, justifier si la partie considérée est un sous-espace
vectoriel.
1.A = {(x, y) ∈ R2 : x2 − y 2 = 0} ; 2.B = {(x, y) ∈ R2 : x2 + y 2 = 0} ;
3.C = {(x, y) ∈ R2 : x − y = 0} ; 4.D = {(a + b, a − b, a) : (a, b) ∈ R2 } ;
5.E = {(1 + x, y) : (x, y) ∈ R2 } ; 6.F = Z2 .
2) On note RR l’ensemble des fonctions numériques. Déterminer si les parties sui-
vantes sont des sous-espaces vectoriels de RR :
1.A = {f ∈ RR : f continue } ; 2.B = {f ∈ RR : f paire } ; 3.C = {f ∈ RR :
f impaire }
3) On note RN l’espace vectoriel des suites réelles. Les parties suivantes sont-elles de
sous-espaces vectoriels de RN :
1.A = {(un )n∈N ∈ RN : (un )n∈N bornée } ; 2.B = {(un )n∈N ∈ RN : (un )n∈N monotone } ;
3.C = {(un )n∈N ∈ RN : (un )n∈N convergente } ; 4.D = {(un )n∈N ∈ RN : (un )n∈N arithmétique } ;
5.E = {(un )n∈N ∈ RN : ∀ n ∈ N, un+2 = −un+1 + n+1 1
un }.
4) Exprimer le polynôme V = X −4X−3 comme combinaison linéaire des polynômes
2

suivants : P1 = X 2 − 2X + 5, P2 = X + 3 et P3 = 2X 2 − 3X.
5) Déterminer les réels a et b pour que(la matrice
) M soit ( combinaison
) linéaire
( des
) ma-
4 7 1 1 1 2
trices A, B et C suivantes : M = ,A = ,B = ,C =
( ) 7 9 1 1 3 4
1 a
4 b

84
Espaces vectoriels

6) Montrer que les vecteurs u = (1, 1, 1), v = (1, 2, 3) et w = (1, 5, 8) engendrent R3 .


7) Déterminer si u, v et w sont linéairement dépendants ou non dans les cas suivants :
(a) u = 2X 2 + 4X − 3 et v = 4X 2 + 8X − 6.
(b) u = 2X 2 − 3X + 4 et v = 4X 2 − 3X + 2.
( ) ( )
1 1 1 2 2 2
(c) u = et v = .
2 2 2 3 3 3
(d) u = (1, 1, 2), v = (2, 3, 1) et w = (4, 5, 5).
(e) u = (1, 2, 5), v = (2, 5, 1) et w = (1, 5, 2).
8) Déterminer si les ensembles de vecteurs suivants forment une base de :
(a) R3 : u = (1, 1, 1) et v = (1, 0, 1).
(b) R3 : u = (1, 1, 1), v = (1, 2, 3) et w = (2, −1, 1).
(c) R3 : u = (1, 1, 2), v = (1, 2, 5) et w = (5, 3, 4).
(d) R2 : u = (1, 1), v = (1, 2) et w = (2, −1).
9) Trouver une base et la dimension des sous-espaces W de R4 suivants :
(a) W = {(a, b, c, d)/a + b + c = 0}.
(b) W = {(a, b, c, d)/a = b = c}.
(c) W = {(a, b, c, d)/a + b + c = 0, a = b = c}.
10) Les familles suivantes sont-elles libres (sinon, on donnera une combinaison linéaire
nulle, dont les coefficients sont non tous nuls) ? génératrice de R3 (sinon, on donnera
un vecteur de R3 qui ne s’exprime pas en fonctions des vecteurs de la famille) ?
sont-elles des bases de R3 ?
F1 = ((2, 4, 3), (1, 5, 7)) ; F2 = ((1, 2, 3), (2, 4, 3), (3, 4, 5, (4, 5, 6)) ; F3 = ((9, −3, 7), (1, 8, 8), (5, −5,
11) Les sous-espaces vectoriels de Kn peuvent être définie de 3 façons différentes :
• par des équations cartésiennes ; par exemple A = {(x, y, z, t)R4 : x − y + z =
0 et y − 2t = 0}
• par un paramétrage ; par exemple B = {(2a − 3b + c, a + 2b − c, −b + c, a) :
(a, b, c) ∈ R3 }
• par la donnée d’une famille génératrice : C = V ect ((1, 2, −1, 0), (0, 1, 3, −1)).
Ecrire chacun des ensembles A, B et C sous les trois formes possibles.

Exercice 2.

Dans R2 , on considère les vecteurs suivants : u1 = (1, −2), u2 = (3, −4), v1 = (1, 3) et
v2 = (3, 8). On pose B = (u1 , u2 ) et B ′ = (v1 , v2 ).
1. Trouver les coordonnées de v = (a, b) dans la base B.
2. Trouver la matrice de passage P de la base B à la base B ′ .
3. Trouver les coordonnées de v = (a, b) dans la base B ′ .
4. Trouver la matrice de passage Q de la base B ′ à la base B.

85
Espaces vectoriels

5. Vérifier que Q = P −1 .

Exercice 3.

Soit E un espace vectoriel sur un corps K.


1. Soient x1 , ..., xn , n éléments de E. A quelle condition ces n éléments forment-ils
une famille liée ?.
2. On suppose E = R4 et K = R. On considère les vecteurs v1 = (1, −1, 1, 1),
v2 = (1, 0, 2, 1), v3 = (1, 2, 1, 0), v4 = (2, −1, 3, 2), v5 = (6, 2, 8, 2).
(a) Montrer que la famille {v1 , v2 , v3 } est libre.
(b) Soit F ⊆ R4 le sous-espace vectoriel engendré par v1 , v2 , v4 et G ⊆ R4 le sous-
espace vectoriel engendré par v1 , v3 , v5 . On pose v = (x, y, z, t) un vecteur
quelconque de R4 .
i) Déterminer les relations entre x, y, z et t pour que v soit un vecteur de
F.
ii) Déterminer les relations entre x, y, z et t pour que v soit un vecteur de
G.
(c) Déterminer une base et la dimension des sous-espaces F + G et F ∩ G.
(d) Déterminer un supplémentaire de F .

Exercice 4.

On considère dans R4 les quatre vecteurs suivants :


u1 = (2, −1, 4, 3), u2 = (1, −2, 3, 1), u3 = (1, 4, −1, 3), u4 = (−1, 5, −5, 0).
1) Le système (u1 , u2 , u3 , u4 ) est-il lié ou libre ? Quel est le rang de ce système ?.
2) Dans le cas où il est lié, déterminer toutes les relations de dépendance linéaire
entre ces vecteurs. Puis, en extraire un système libre que l’on complètera par des
vecteurs de la base canonique pour obtenir une base de R4 .
3) Soit F = ⟨u1 , u2 , u3 , u4 ⟩. Déterminer une base de F et la dimension de F . Déter-
miner un supplémentaire de F dans R4 .

Exercice 5.

Soit I la matrice identité d’ordre 3 et soit


 
3 2 −2
A =  −1 0 1 
1 1 0

1) Calculer la matrice A2 et trouver deux réels α et β tels que A2 = αA + βI.

86
Espaces vectoriels

2) Trouver, sans calculer explicitement ces matrices, des décompositions analogues


de A3 et A4 puis établir par récurrence une expression An = αn A + βn I pour tout
entier n > 1.
En déduire les matrices An .
3) Montrer de même que A est inversible à l’aide de la formule du 1) et calculer son
inverse.

Exercice 6.

Soit λ un paramètre réel. On considère dans l’espace vectoriel R4 les vecteurs sui-
vants : u = (1, −1, 2, 2), v = (1, 1, 0, 2) et wλ = (1, −3, 4, λ).
1. Déterminer, suivant les valeurs de λ, une base et la dimension du sous-espace Fλ
engendré par les vecteurs u, v et wλ .
2. Soit G = {(x, y, z, t) ∈ R4 |x+y−2z+2t = 0}. Déterminer une base et la dimension
de G.
3. Déterminer G ∩ F0 .
4. En déduire G + F0 . Les sous-espaces G et F0 sont-ils supplémentaires ?
5. Existe-t-il une valeur de λ pour laquelle Fλ et G sont supplémentaires ?
6. Déterminer un supplémentaire de G ∩ F0 dans R4 .

Exercice 7.

1. Discuter suivant les valeurs du réel a le rang du système de vecteurs de R3 :


x1 = (a, 1, 1), x2 = (1, a, 1) et x3 = (1, 1, a).
2. Dansl’espace vectoriel
 des
 matrices carrées
 d’ordre
 3, on considère
 les matrices
1 0 0 −1 1 0 0 −1 2
A =  2 1 0  , B =  0 1 −1  et C =  0 0 0 
0 0 1 1 0 0 0 1 0
Etudier l’indépendance linéaire des matrices A, B et C.

Exercice 8.

Soit E lesous-ensemble
 des matrices 
carrées d’ordre 3
défini par :
 x − y y − z 2z 
E = M =  2x x + y −y  : x, y, z ∈ R .
 
y z x
1. Déterminer trois matrices qui appartiennent à E.
2. Montrer qu’il existe trois matrices A, B et C telles que pour toute matrice M ∈ E,
on ait M = xA + yB + zC.

87
Espaces vectoriels

3. En déduire que E est un sous-espace vectoriel de M3 (R) et déterminer une base


et la dimension de E.

Exercice 9.

Les familles suivantes sont-elles des familles libres de l’espace vectoriel indiqué ?
1. (f (x) = (x − 1)2 , g(x) = (x − 2)2 , h(x) = (x − 3)2 ) dans RR .
2. (f (x) = cosx, g(x) = cos(3x), h(x) = cos3 x) dans RR .
3. ((1)n∈N , (cos2 (n))n∈N , (cos(2n))n∈N ) dans RN .
4. ((2n )n∈N , (3n )n∈N , (n)n∈N ) dans RN .

Exercice 10.

Montrer que la famille (x 7→ sin(nx))n∈N∗ est libre dans RR (on pourra dériver deux
fois).

Exercice 11.
{ }

Soient E = (x1 , . . . , xn ) ∈ Kn : xk = 0 et F = {(x, x, . . . , x) : x ∈ K}.
16k6n
1. Montrer que E et F sont des sous-espaces vectoriels supplémentaires de Kn .
2. Déterminer une base de E et de F .

Exercice 12.

Soit I = [−1, 1].


{ On désigne par RI l’ensemble
} des
{ fonctions numériques définies
} sur I.
On pose A = f ∈ R : f paire sur I et B = f ∈ R : f impaire sur I .
I I

Montrer que A et B sont des sous-espaces vectoriels supplémentaires de RI .

88
Chapitre 7

Applications linéaires

K désignera un corps.

7.1 Applications linéaires


Définition 7.1.1. Soient E et E′ deux espaces vectoriels sur K et f une application de
E dans E′ . On dit que f est linéaire si :
1) f (u + v) = f (u) + f (v) ∀u, v ∈ E;
2) f (λv) = λf (v) ∀v ∈ E, ∀λ ∈ K.
L’ensemble des applications linéaires de E dans E′ est notée L(E, E′ ).
Remarque 7.1.1. f (0) = 0 car f (0) = f (0 + 0) = f (0) + f (0).
Définition 7.1.2. Une application linéaire de E dans E est appelée endomorphisme de
E.
Θ: E −→ E′
Exemple 7.1.1. 1)
v 7→ 0
est linéaire, et appelée application nulle.
idE : E −→ E
2)
v 7→ v
est linéaire et appelée application identique de E.
uα : E −→ E
3)
α ∈ K v 7→ αv
est linéaire, et appelée homothétie de rapport α.
D : R[X] −→ R[X]
4)
P 7→ D(P ) = P ′
est linéaire et dérivation.
5) Soit E = E1 ⊕ E2 . Alors l’application
Pr1 : E −→ E1
α ∈ K x = x1 + x2 7→ x1
est linéaire et appelée projection sur E1 parallèlement à E2 .

89
Applications linéaires

̸ 0 un vecteur de E. Alors l’application


6) Soit v0 =
τ : E −→ E
v 7→ v + v0
est non linéaire, car τ (0) = v0 ̸= 0. Elle est appelée translation.

7.2 Image et Noyau


Proposition 7.2.1. Soit f ∈ L(E, E′ ) et F un sous-espace vectoriel de E. Alors f (F)
est un sous-espace vectoriel de E′ . En particulier, f (E) est un sous-espace vectoriel de
E′ appelé image de f et noté Imf . Sa dimension est appelé rang de f .

Preuve. On sait que f (F) est un sous-espace vectoriel de E′ , il suffit donc de vérifier
de stabilité pour l’opération externe. Soit donc λ ∈ K et f (v) ∈ f (F). Alors λf (v) =
f (λv) ∈ f (F).

Proposition 7.2.2. Soit L(E, E′ ), Kerf = {x ∈ E; f (x) = 0} est un sous-espace


vectoriel de E, appelé noyau de f .

Preuve. il suffit de vérifier la stabilité pour l’opération externe. Soit donc λ ∈ K et


x ∈ Kerf. Alors f (λx) = λf (x) = λ0 = 0 =⇒ λx ∈ Kerf.

Proposition 7.2.3. f est injective ⇐⇒ Kerf = {0}.

Exemple 7.2.1. 1) Soit E = E1 ⊕ E2 , ImP r1 = E1 , kerP r1 = E2 ;


2) Pour l’application
D: R[X] −→ R[X]
P 7→ D(P ) = P ′
, KerD = R, ImD = R[X];
3) Pour l’application
D: R3 −→ R3
(x, y, z) 7 → (2x + y, y − x)
, on a Kerf = {(x, y, z) / y = 2x et z = y} = {(x, −2x, −2x)/x ∈ R} est la
droite vectorielle engendrée par (1, −2, −2).

Imf = {(x′ , y ′ ) / ∃x, y, z; x′ = 2x + y et y ′ = y − z}


= {(x′ , y ′ ) / y = y ′ + z et x = 21 (x′ − y ′ − z)}
Posons z = 0, donc y = y ′ et x = 12 (x′ −y ′ ). D’où ∀(x′ , y ′ ) ∈ R2 , ∃( 12 (x′ −y ′ ), y ′ , 0) ∈
R3 ; f ( 21 (x′ − y ′ ), y ′ , 0) = (x′ , y ′ ), donc f est surjective, et par suite Imf = R2 .

Proposition 7.2.4. Soit f ∈ L(E, E′ ) et {vi }16i6n une famille de vecteurs de E.


1) Si f est injective et la famille {vi }16i6n est une famille libre dans E, alors la famille
{f (vi )}16i6n est libre dans E′ ;
2) Si f est surjective et la famille {vi }16i6n est une famille génératrice dans E′ .

90
Applications linéaires

En particulier si f est une application linéaire injective, l’image d’une base de E est
une base de E′ .
Preuve.

1) Comme f est une application linéaire injective, alors on a : ni=1 λi f (vi ) = 0

=⇒ f∑( ni=1 λi f (vi )) = 0 (car f est une application linéaire)
n
=⇒ i=1 λi vi = 0
=⇒ λi = 0 ∀i = 1, ..., n et {vi }16i6n libre
∑n
2) ∀x ∈ E, ∃λi ∈ K; x = i=1 λi v i .

∑ ∑
Soit ∀y ∈ E′ , ∃x ∈ E; y = f (x) = f ( ni=1 λi vi ) (surjective), d’où y = ni=1 λi f (vi ).
Théorème 7.2.1. Deux espaces vectoriels de dimension finie sont isomorphes, si et
seulement si, ils ont même dimension.
Preuve.
=⇒) Si f : E −→ E′ est un isomorphisme, d’après la proposition précédente, l’image
d’une base de E est une base de E′ , et donc E et E′ ont la même dimension.
⇐=) Supposons que dimE = dimE′ , et soit {e1 , ..., en } une base de E, et {e′1 , ..., e′n }
f : E −→ E′
une base de E′ . Considérons l’application ′ .
∑n ∑n ek 7→ ∑nek
Pour x = i=1 λi ei , on pose f (x) = f ( i=1 λi ei ) = i=1 λi e′i , on vérifie que f est
linéaire et bijective.
Corollaire 7.2.1. Soit E un espace vectoriel de dimension finie sur K. Alors E est
isomorphe à Kn , c’est-à-dire que dimK E = n.
Théorème 7.2.2. (théorème de la dimension) : Soient E et E′ deux espaces vectoriels
de dimensions finie et f ∈ L(E, E′ ), alors dimE = dim(kerf ) + dim(Imf ).
Preuve. Supposons que dimE = n, dim(kerf ) = r et montrons que dim(Imf ) = n − r.
Soit donc {w1 , ..., wr } une base de kerf . Complétons la pour obtenir une base de E,
en l’occurrence {w1 , ..., wr , v1 , ..., vn−r }. Montrons que B = {f (v1 ), ..., f (vn−r )} est une
base de Imf .
∑ ∑ ∑n
1) B engendre Imf . En effet, f (x) = f ( ri=1 αi wi + n−r i=1 λi vi ) = i=1 λi f (vi ).
∑n
2) B est libre. En effet, i=1 λi f (vi ) = 0

=⇒ f ( n−r λv) = 0 car est linéaire
∑n−ri=1 i i
=⇒ λ v ∈ kerf
∑i=1n−r
i i
∑r
=⇒ λi v i = i=1 αi wi
∑n−ri=1 ∑r
=⇒ i=1 λi vi − i=1 αi wi = 0
=⇒ λi = 0 ∀i = 1, ..., n − r et αi = 0 ∀i = 1, ..., r

Corollaire 7.2.2. Soit f ∈ L(E, E′ ), avec E et E′ deux espaces vectoriels de même


dimension finie. Alors les propriétés suivantes sont équivalentes :

91
Applications linéaires

1) f est injective ;
2) f est surjective ;
3) f est bijective.

Preuve. dimE = dim(kerf ) + dim(Imf ). Il suffit de montrer que 1) et 2) sont équi-


valentes. En effet, f injective ⇐⇒ kerf = {0}, ⇐⇒ dimE = dim(Imf ), ⇐⇒ dimE′ =
dim(Imf ) ⇐⇒ E′ = Imf ⇐⇒ f est surjective.

Remarque 7.2.1. 1) Ce résultat est faux en dimension infinie. En effet, l’application

D: R[X] −→ R[X]
P 7→ D(P ) = P ′

est surjective, mais non injective.


2) Une application linéaire f est parfaitement définie si on connaît
∑ l’image∑des vecteurs
d’une base, car d’après la linéarité de f , on a f (x) = f ( ni=1 xi ei ) = ni=1 xi f (ei ),
donc si on connaît f (e1 ), ..., f (en ), alors f est connu en tout x.

7.3 Matrices associées aux applications linéaires


Soient E et E′ deux espaces vectoriels sur K, de dimensions finies n et p respecti-
vement, et f : E −→ E′ une application linéaire. Choisissons {e1 , ..., en }, une base de E
et {e′1 , ..., e′p } une base de E′ . Les images par f des vecteurs {e1 , ..., en } se décomposent
sur la base {e′1 , ..., e′p } :

f (e1 ) = a11 e′1 + a21 e′2 + ... + ap1 e′p


f (e2 ) = a12 e′1 + a22 e′2 + ... + ap2 e′p
=
..
.
f (en ) = a1n e′1 + a2n e′2 + ... + apn e′p

Définition 7.3.1. On appelle matrice de f dans les bases {e1 , ..., en } et {e′1 , ..., e′p },
la matrice notée par M (f, (ei ), (e′j )) appartenant à Mp,n (K) dont les colonnes sont les
composantes des vecteurs f (e1 ), ..., f (en ) dans la base {e′1 , ..., e′p }.
 
a11 a21 ... a1n
 .. .. 
 . . 
Mp,n (K) =  .. .. 
 . . 
ap1 ap2 ... apn

Il est clair que la matrice associée à f dépend du choix des bases de E et E′ .

92
Applications linéaires

idE : E −→ E
Exemple 7.3.1. 1) Soit E un espace vectoriel de dimension n et .
x 7−→ x
On considère une base {ei } de E. Alors
 
1 0 ... ... 0
 0 1 0 ... 0 
 
 .. ..
M (idE )ei =  . . = In
 .. 
 . 0 
0 0 ··· ··· 1

matrice unité de Mn (K).


2) Soit E = R2 et
Pr1 : R2 −→ R2
(x, y) 7−→ (x, 0)
Considérons la base canonique {e1 , e2 } de R2 . On a Pr1 (e1 ) = e1 , P r1 (e2 ) = 0, et
( )
1 0
M (P r1 ) =
0 0

3) Soit {e1 , e2 , e3 } la base canonique de R3 , et {e′1 , e′2 } la base canonique de R2 . Consi-


dérons l’application linéaire :

f: R3 −→ R2
(x, y, z) 7−→ (x − y, z − y)

Alors ( )
1 −1 0
M (f, (ei ), (e′j ) =
0 −1 1
4) On considère la forme linéaire Rn :

f : Rn −→ ∑
R
(x1 , ..., xn ) 7−→ n
i=1 ai xi

En munissant Rn et R de leurs bases canoniques respectives {ei } et {1}. On obtient


M (f, (ei ), (1) = (a1 , a2 , ...., an ).
5)
D : R4 [X] −→ R3 [X]
P 7−→ DP = P ′
 
0 1 0 0 0
 0 0 2 0 0 
Alors M (D) = 
 0
 par rapport aux bases canoniques de R4 [X]
0 0 3 0 
0 0 0 0 4
et R3 [X].

93
Applications linéaires

Proposition 7.3.1. Soient E et E′ deux espaces vectoriels sur K de dimensions n et p


respectivement, {ei } et {e′j } des bases de E et E′ . Alors l’application

M (f, (ei ), (e′j )) : L(E, E′ ) −→ Mp,n (K)


f 7−→ M (f, (ei ), (e′j ))

est un isomorphisme d’espaces vectoriels, c’est-à-dire que M (f + g) = M (f ) + M (g),


M (λf ) = λM (f ), et M est bijective, en particulier dim(L(E, E′ )) = np.

Preuve.

(f + g)(e1 ) ... ... (f + g)(en )


 
− ... ... ... −
 − − 
M (f + g, (ei ), (ej )) =  
 ... ... 
− ... ... ... −
f (e1 ) ... f (en ) g(e ) ... g(en )
   1 
− ... ... ... − − ... ... ... −
 − −   − 
=   + − 
 ... ...   ... ... 
− ... ... ... − − ... ... ... −
= M (f, (ei ), (e′j )) + M (g, (ei ), (e′j )).

(λf )(e1 ) ... ... (λf )(en )


 
− ... ... ... −
 − − 
De même, M (λf ), (ei ), (e′j )) =   = λM (f, (ei ), (e′j )) ;
 ... ... 
− ... ... ... −
donc M est linéaire.
f ∈ KerM =⇒ M∑ (f, (ei ), (e′j )) = 0, =⇒
∑n f (e1 ) = f (e2 ) = ... = f (en ) = 0. Donc
si x ∈ E, alors x = n
i=1 λi ei , f (x) = λi f (ei ) = 0, d’où f = 0, Donc M est
i=1
a11 a12 ... ... a1n
 a21 a2n 
 
injective. Elle est aussi surjective, car si A =  .. ..  ∈ Mp,n (K).
 . . 
ap1 ... ... ... apn
On considère que f en posant :

f (e1 ) = a11 e′1 + ... + ap1 e′p


..
.
f (en ) = a1n e′1 + ... + apn e′p
∑ ∑
Pour x ∈ E; x = ni=1 λi ei , on pose f (x) = ni=1 λi f (ei ). On vérifie que f est linéaire
et M (f, (ei ), (ej )) = A.

94
Applications linéaires

7.4 Matrice d’un vecteur. Calcul de l’Image d’un vec-


teur
∑ Soit E un espace vectoriel de dimension n, {e1 , e2 , ...., en } une base
Définition 7.4.1.
de E, et x = ni=1 xi ei un vecteur de E. On  appellematrice colonne des composantes
x1
 .. 
de x dans la base {ei } la matrice M (x)(ei ) =  .  .
xn

Proposition 7.4.1. Soient f ∈ L(E, E′ ), {e1 , e2 , ...., en } et {e′1 , e′2 , ...., e′n } deux bases de
E et E′ respectivement. Pour tout x ∈ E, on a ; M (f (x))(e′j ) = M (f, (ei ), (e′j ))M (x)(ei )
 
a11 a12 ... ... a1n
 a21 a2n 
 
Preuve. Soit M (f, (ei ), (ej )) =  .. ..  , c’est-à-dire que f (ej ) =
 . . 
a ... ... ... apn
∑p ′
∑np1 ∑n ∑p ∑n
a e . Alors on a f (x) = f ( j=1 j ej ) =
x j=1 x j f (ej ) = ( x a )e′ =
k=1 kj k  k=1 j=1 j kj k
y1
∑p ′
∑n  ..  .
k=1 yk ek , avec yk = j=1 xj akj . Donc M (f (x))(ej ) =  . 

yp
  
a11 a12 ... ... a1n x1
 a21 a2n   . 
   .. 
D’autre part, M (f, (ei ), (ej ))M (x)(ei ) =  .. ..  .  =
 . .   .. 
ap1 ... ... ... apn xn
 ∑n 
j=1 a1j xj
 .. 
 . 
 .  d’où le résultat.
 .. 
∑n
j=1 apj xj

Exemple 7.4.1. Soit le plan rapporté à sa base canonique. Déterminer l’image du vec-
teur x = (3, 2) par la rotation de centre O et d’angle π6 . On a
M (f (x)) = M ( (f )Mπ(x) )( )
cos( 6 ) −sin( π6 ) 3
= π π
( sin(
√ 6
) cos(
) (6 ) ) 2
2
3

√2
1
3
= 1 3 2
( 2√ 2)
3 3−2
= √2
2 3+3
2

95
Applications linéaires

7.5 Matrice de l’Inverse d’une Application


Proposition 7.5.1. Soient E, E′ , E′′ trois espaces vectoriels sur K, {e1 , ...., en }, {e′1 , ..., e′p },
{e′′1 , ..., e′′q } des bases de E, E′ et E′′ respectivement. Si g ∈ L(E, E′ ) et f ∈ L(E′ , E′′ ),
alors on a M (f ◦ g, (ei ), (e′′j )) = M (f, (e′i ), (e′′k ))M (g, (ei ), (e′j )).
Preuve. Soit x ∈ E. En utilisant la proposition du paragraphe 2, on a :
M (f ◦ g)M (x) = M (f (g(x))) = M (f )M (g(x)) = M (f )M (g)M (x). Puisque x est
arbitraire, M (f ◦ g) = M (f )M (g).
Proposition 7.5.2. f ∈ L(E, E′ ) est bijective si et seulement si M (f, (ei ), (e′j )) est
inversible. De plus, M (f −1 , (e′i ), (ej )) = M (f, (ei ), (e′j ))−1 .
Preuve. f −1 ◦ f = idE , d’où M ( f −1 ◦ f ) = M (idE ) = I, =⇒ M ( f −1 ) ◦ M (f ) =
M (idE ) = I, =⇒ M ( f −1 ) = M (f )−1 .

7.6 Changement de base


Définition 7.6.1. On appelle matrice de passage de la base {ei } à la base {e′i } du
même espace vectoriel E, la matrice P(ei )−→(e′i ) dont les colonnes sont les composantes
 
P11 · · · P1n
 
des vecteurs e′i dans la base {ei } : Pei −→e′i =  ... .
· · · ..  = M (idE , (ei ), (e′i )).
Pn1 · · · Pnn
Remarque 7.6.1. Une matrice de passage est toujours inversible et on a (P(ei )−→(e′i ) )−1 =
P(ei )−→(e′i ) .
Proposition 7.6.1. Soient x ∈ E, {ei } et {e′i } deux bases de E, P(ei )−→(ei ) et X =
M (x)(ei ) , X ′ = M (x)(ei ) , alors on a X ′ = P −1 X.
Preuve. P X ′ = M (idE , (e′i ), (ei ))M (x)(e′i ) = M (idE (x))(e′i ) = M (x)(e′i ) = X.
Exemple 7.6.1. Soit R2 muni de deux bases, la base canonique {e1 , e2 } et la base
{e′1 , e′2 } définie par e′1 = 2e1 + e2 , e′2 = 3e1 + 2e(2 . Soit )x = 2e1 +(3e2 , calculons
)
′ ′ 2 3 −1 2 −3
les composantes de x dans la base {e1 , e2 }. P = , P = ,
( )( ) ( ) 1 2 −1 2
−1 2 −3 2 −5
X = = . Donc x = −5e′1 + 4e′2 .
−1 2 3 4
Proposition 7.6.2. Soient f ∈ L(E, E′ ), {e1 , ..., en } et {ε1 , ..., εn } deux bases de
E et {e′1 , ..., e′p } et {ε′1 , ..., ε′n } deux bases de E′ . Notons A = M (f, (ei ), (e′j )), A′ =
M (f, (εi ), (ε′j )), P = P(ei )−→(εi ) , Q = P(e′j )−→(ε′j ) . On a alors A = Q−1 AP .
Preuve.
f
E(ei ) E′(e′ )
−→ j

idE ↓ ↓ idE′
f
E(εi ) E′ (ε′j )
−→

96
Applications linéaires

On a f ◦ idE = idE′ ◦ f, d’où M (f ◦ idE ) = M (idE′ ◦ f ), c’est-à-dire que M (f, (εi ), (ε′j )) ×
M (idE , (ei ), (εi )) = M (idE ′ , (e′j ), (ε′j )) × M (f, (ei ), (e′j )), c’est-à-dire que A′ P −1 = Q−1 A,
donc A′ = Q−1 AP .
Corollaire 7.6.1. Soient f ∈ L(E) et {e1 , ..., en }, {e′1 , ..., e′p } deux bases de E. Notons
A = M (f, (ei )), A′ = M (f, (e′i )) et P = P(ei )−→(e′i ) . On a alors A′ = P −1 AP .
Définition 7.6.2. Deux matrices A, A′ ∈ Mn (K) sont dites semblables s’il existe une
matrice P ∈ Mn (K) inversible telle que : A′ = P −1 AP.

( de R qui
) dans la base canonique {ei } est
2
Exemple 7.6.2. Soit f un endomorphisme
3 −1
représenté par la matrice : A = M (f )ei = .
0 2
Déterminons la matrice A′ qui représente f dans la base e′1 = (0, −1) et e′2 = (1, 1).
On a
A′ = P −1
( AP ) ( )( )
1 −1 3 −1 0 1
=
( 1 0 ) ( 0 2 ) −1 1
3 −3 0 1
=
( 3 −1 ) −1 1
3 0
=
1 2

7.7 Rang d’une Matrice


Définition 7.7.1. Soit {v1 , ..., vn } une famille de vecteurs. On appelle rang de la famille,
la dimension de l’espace engendré par les vecteurs vi .
Soit A′ ∈ Mp,n (K), A = (c1 , ..., cn ) où l’on a noté ci les vecteurs colonnes de A
(ci ∈ Kp ). On appelle rang de A le rang de la famille des vecteurs colonnes de A.
Proposition 7.7.1. Soit f ∈ L(E, E′ ). Soient {e1 , ..., en } et {e′1 , ..., e′n } deux bases
quelconques de E et E′ respectivement, et A = M (f, (ei ), (e′j )) = (aij ). On a alors
rangf = rangA. Ainsi, deux matrices qui représentent la même application linéaire
dans des bases différentes ont même rang ; en particulier deux matrices semblables ont
même rang.
Preuve. On considère le diagramme suivant.
h
Kn Kp
−→
u ↓ ↓v h = v −1 ◦ f ◦ u
f
E(ei ) E′(e′ )
−→ j

u et v sont définis en associant à chaque vecteur de la base canonique de Kn ( resp


Kp ). εi (resp ε′j ), le vecteur ei (resp(e′j )), alors l’application h a précisément A comme
matrice
∑ dans les ∑ deux bases canoniques car h(εi ) = v −1 ◦ f ◦ u(εi ) = v −1 ◦ f (ei ) =
v −1 ( aij e′j ) = aji ε′j . Donc rang(A) = rang(h) et d’après le lemme suivant, on
déduit que rangA = rangf .

97
Applications linéaires

Lemme 7.7.1. Soient f ∈ L(E, F) et g ∈ L(G, E), alors :


1) Si g est surjective, alors rangf = rang(f ◦ g);
2) Si f injective, alors rangg = rang(f ◦ g).

Preuve.
1) rangf = dimf (E) = dimf (g(G)) = dim(f ◦ g)(E) = rang(f ◦ g);
2) Soit {vi } avec vi = g(wi ) une base de Img, alors f (vi ) = (f ◦ g)(wi ). Comme f
est injective, {f (v∑ ∑et engendre Im(f ◦ g) car y ∈ Im(f ◦ g) =⇒ ∃x;
i )} est libre
y = f (g(x)) = f ( αi vi ) = αi f (vi ), donc {f (vi )} est une base de Im(f ◦ g),
∈Img
d’où rangg = rang(f ◦ g).
On en déduit qu’en composant à gauche ou à droite par une application linéaire bijec-
tive, le rang ne change pas.

7.8 Applications des déterminants


7.8.1 Caractérisation des bases
Théorème 7.8.1. Soit E un espace vectoriel de dimension n. Les vecteurs v1 , ..., vn
de E forment une base si et seulement si det//v1 , ..., vn //(ei ) ̸= 0. où //v1 , ..., vn //(ei )
désigne la matrice dont les colonnes sont les composantes des vecteurs v1 , ..., vn dans la
base (ei ) de E.

Preuve. Il suffit de montrer que {v1 , ..., vn } est libre si et seulement si det//v1 , ..., vn //(ei ) ̸=
0. ∑i=n ∑i=n ∑i=n ∑i=n
⇐=)∑n i=1 αi v i = 0, posons v
∑n i = k=1 α ki e ∑n
k . Alors on a i=1 ∑ αi ( k=1 αki ek ) = 0,
n
d’où α α e = 0 =⇒ α α = 0, α α = 0, ..., i=1 αi αni = 0 =⇒
 i,k=1 i ki k   i 1i 
i=1 i=1 i 2i
a11 a12 · · · a1n α1 0
 a21 a22 · · · a2n   α2   0 
    
 .. ..   ..  =  ..  (4.1)
 . ··· .  .   . 
an1 an2 · · · ann αn 0
d’où αi = 0 ∀i = 1, ..., n.
=⇒) Si det//v1 , ..., vn //(ei ) = 0 =⇒ le système homogène (4.1) admet une infinité de
solutions, d’où {v1 , ..., vn } est liée.

7.8.2 Comment reconnaître si une famille de vecteurs est libre


On appelle mineur d’une matrice A, tout déterminant d’une matrice carrée extraite
de A.

Théorème 7.8.2. Soient {v1 , ..., vn } r vecteurs d’un espace vectoriel E de dimension n
(r 6 n) et A = //v1 , ..., vn //, où A ∈ Mn,r (K).

98
Applications linéaires

La famille {v1 , ..., vn } est libre si et seulement si on peut extraire de A un mineur


d’ordre r non nul.
Preuve. Similaire à celle du théorème précédent, en complétant les vecteurs afin de
former une base de E.

7.8.3 Comment reconnaître si un vecteur appartient à l’espace


engendré par d’autres vecteurs
Soit A une matrice et δ un mineur d’ordre r extrait de A. On appelle bordant de δ
tout mineur d’ordre r + 1 extrait de A, dont δ est un déterminant extrait.
Si A ∈ Mn,r (K) et δ un mineur d’ordre r, il y’a exactement (p − r)(n − r) bordants
de δ dans A.

Théorème 7.8.3. Soient {v1 , ..., vn } r vecteurs linéairement indépendants et δ un mi-


neur d’ordre r non nul extrait de A, où A = //v1 , ..., vn //. Pour qu’un vecteur w ∈<
v1 , ..., vn > il faut et il suffit que tous les bordants de δ dans la matrice B = //v1 , ..., vn , w//
soient nul.

Preuve. =⇒) Si l’un des bordant est  non nul, la famille {v1 , ..., vn , w}  est libre.
..
.a · · · a1,r b1
 . 1,1 
 .. ··· .
.. .. 
 . 
 a · · · 
⇐=) On considère la matrice B =   a
r,1 a r,r b r 

 r+1,1 · · · ar+1,r br+1 
 . . .. 
 .. · · · .. . 
an,1 · · · an,r bn
Quitte à changer l’ordre des lignes et des colonnes, on peut supposer que le mineur δ
non nul est le mineur de la sous matrice (aij )i,j∈[r]×[r] de B. Les r premiers vecteurs lignes
de B sont indépendants, et chacun des autres est lié à ces derniers. Ainsi, rangB = r,
donc les vecteurs colonnes de B forment une famille de rang r et comme {v1 , ..., vr } est
libre, w ∈< v1 , ..., vn > .
 
α
 2 
Exemple 7.8.1. Pour quelles valeurs de α, β ∈ R le vecteur w =  
 1  appartient-il
β
   
1 0
 0   
au sous-espace de R4 engendré par les vecteurs v1 =    1 
 1  et v2 =  0 ?
0 1
   
1 0 ( ) 1 0 α
 0 1   0 1 2 
Posons A =  , δ = det 1 0 = 1 ̸
= 0 et B =  
 1 0  0 1  1 0 1 .
0 1 0 1 β

99
Applications linéaires

 
1 0 α ( )
  1 α
Les bordant de δ sont △1 = det 0 1 2 = det = 1 − α et △2 =
1 1
  1 0 β
1 0 α ( )
  β 2
det 0 1 2 = det = β − 2. Donc w ∈< v1 , v2 > si et seulement si
1 1
0 1 β
α = 1 et β = 2.

7.8.4 Déterminant et rang


Théorème 7.8.4. Soit A ∈ Mp,n (K). Le rang de A est r si et seulement si on peut
extraire de A un mineur δ d’ordre r non nul et tous les bordants de δ dans A sont nuls.

Preuve.  
a1,1 · · · a1,r · · · a1n
 .. . . 
 . · · · .. · · · .. 
 
 ar,1 · · · ar,r · · · arn 
⇐=) A = //v1 , ..., vn // =  .
 ar+1,1 · · · ar+1,r · · · ar+1,n 
 . . . 
 .. · · · .. · · · .. 
ap,1 · · · ap,r · · · apn
Soit δ le mineur encadré. Les vecteurs {v1 , ..., vr } sont alors indépendants et chaque
vecteurs vs (s > r + 1) appartient à l’espace < v1 , ..., vr >. Donc les vecteurs colonnes
engendrent un espace de dimension r, d’où rangA = r.
=⇒) Quitte à changer l’ordre des colonnes de A, on peut supposer que {v1 , ..., vr } est
libre. On peut alors extraire de la matrice formée par les r premières colonnes de A un
mineur δ d’ordre r non nul. Quitte à changer la numérotation des coordonnées, on peut
supposer que δ soit le mineur formé par les r premières colonnes de A. Or rangA = r,
d’où vs ∈< v1 , ..., vr > pour s > r + 1; d’après le théorème 4.9.3 tous les bordants de δ
sont nuls.

Théorème 7.8.5. Le rang d’une matrice A est l’ordre maximal des mineurs non nuls
extraits de A, c’est-à-dire
{ que :
1) Il existe un mineur d’ordre r non nul
rangA = r ⇔
2) Tous les mineurs d’ordre s > r sont nuls
Preuve.
=⇒) S’il existait un mineur d’ordre s > r non nul, on pourrait extraire des colonnes
de A une famille libre formée de s > r vecteurs, or ce ci est impossible car les vecteurs
colonnes de A engendrent un espace de dimension r.
⇐=) Découle du théorème 4.9.4.

7.9 Exercices
Exercice 22. Notations :
C : ensemble des fonctions numériques continues sur [0, 1].

100
Applications linéaires

Cd : ensemble des fonctions numériques ayant une dérivée continue sur [0, 1].
C(R) et C 1 (R) : définis de façon analogue pour les fonctions définies sur R.
P : ensemble des polynômes sur R.
Pn : ensemble des polynômes sur R, de degré 6 n.
Dire si les applications suivantes sont des applications linéaires :
1. R → R : x 7→ 2x2 .
2. R → R : x 7→ 4x − 3.

3. R → R : x 7→ x2 .
4. R2 → R2 : (x, y) 7→ (y, x).
5. C → C : f 7→ {t 7→ f (t)
1+t2
}.
6. C → R : f 7→ f (3/4).
∫1
7. C → R : f 7→ f (1/4) − 1/2
f (t) dt.
8. R2 → R : (x, y) 7→ 3x + 5y.

9. R2 → R : (x, y) 7→ 3x2 + 5y 2 .
10. R2 → R : (x, y) 7→ sin(3x + 5y).

Exercice 23. Soient f et g, applications de C dans C, définies par f (z) = z̄ et g(z) =


ℜ(z). Montrer que f et g sont linéaires sur C en tant que R-e.v., et non linéaires sur C
en tant que C-e.v.

Exercice 24. Déterminer si les applications fi suivantes (de Ei dans Fi ) sont linéaires :

f1 : (x, y) ∈ R2 7→ (2x + y, x − y) ∈ R2 , f2 : (x, y, z) ∈ R3 7→ (xy, x, y) ∈ R3

f3 : (x, y, z) ∈ R3 7→ (2x + y + z, y − z, x + y) ∈ R3
f4 : P ∈ R[X] 7→ P ′ ∈ R[X], f5 : P ∈ R3 [X] 7→ P ′ ∈ R3 [X]
f6 : P ∈ R3 [X] 7→ (P (−1), P (0), P (1)) ∈ R3 , f7 : P ∈ R[X] 7→ P − (X − 2)P ′ ∈ R[X].

Exercice 25. Soit E un espace vectoriel de dimension n et φ une application linéaire


de E dans lui-même telle que φn = 0 et φn−1 ̸= 0. Soit x ∈ E tel que φn−1 (x) ̸= 0.
Montrer que la famille {x, . . . , φn−1 (x)} est une base de E.

Exercice 26. Soient F et G deux sous-espaces vectoriels de Rn , on définit l’application


f : F × G → Rn par f (x1 , x2 ) = x1 + x2 .
1. Montrer que f est linéaire.
2. Déterminer le noyau et l’image de f .

Exercice 27. 1. Soit f : R3 → R3 définie par : f (x, y, z) = (x2 + z, y + z, z + 1). f


est-elle linéaire ?
2. Soit g : R4→ R3 définie par : g(x, y, z, t) = (x − y + t, 2x + y − z, y + z). Montrer
que g est linéaire. Déterminer le noyau et l’image de g.

101
Applications linéaires

Exercice 28. Vérifier que les applications suivantes sont linéaires et déterminer leur
noyau et leur image :
φ RN → RN
u = (un )n∈N 7→ φ(u) = (un+1 )n∈N
ψ RN → RN
u = (un )n∈N 7→ ψ(u) = (un+1 − 2un )n∈N
F RR → RR
f 7→ F (f ) = g
où g(x) = f (x) + f (−x)
G RR → R
f 7→ G(f ) = f (1)

Exercice 29. Soient : E, F et G trois sous espaces vectoriels de RN , f une application


linéaire de E dans F et g une application linéaire de F dans G. On rappelle que g ◦ f
est l’application de E dans G définie par g ◦ f (v) = g(f (v)), pour tout vecteur v de E.
1. Montrer que g ◦ f est une application linéaire.
2. Montrer que : g ◦ f = 0 ⇔ Im(f ) ⊆ Ker(g).
( )
3. Montrer que f Ker(g ◦ f ) = Kerg ∩ Imf .

Exercice 30. Soient E un K-espace vectoriel et f, g deux endomorphismes de E.


1. Montrer que Ker(f ) ⊆ Ker(g ◦ f ) et Im(g ◦ f ) ⊆ Im(g).
2. Montrer que Ker(g) ∩ Im(f ) = f (Ker(g ◦ f )).
3. On suppose que f et g commutent i.e. f ◦ g = g ◦ f . Montrer que f (Ker(g)) ⊆
Ker(g) et f (Im(g)) ⊆ Im(g).

Exercice 31. E1 et E2 étant deux sous-espaces vectoriels de dimensions finies d’un


espace vectoriel E, on définit l’application f : E1 × E2 → E par f (x1 , x2 ) = x1 + x2 .
1. Montrer que f est linéaire.
2. Déterminer le noyau et l’image de f .
3. Appliquer le théorème du rang.

Exercice 32. Soit E l’espace vectoriel des polynômes de degré inférieur ou égal à n.
Pour p 6 n on note ep le polynôme x 7→ xp . Soit f l’application définie sur E par
f (P ) = Q avec Q(x) = P (x + 1) + P (x − 1) − 2P (x).
1. Montrer que f est une application linéaire de E dans E.
2. Calculer f (ep ) ; quel est son degré ? En déduire ker f , Im f et le rang de f .
3. Soit Q un polynôme de Im f ; montrer qu’il existe un polynôme unique P tel que :
f (P ) = Q et P (0) = P ′ (0) = 0.

Exercice 33. Soit E, F , G trois espaces vectoriels, f et g deux applications linéaires


f g
E → F → G ; montrer que :

ker(g ◦ f ) = f −1 (ker g ∩ Im f ) = f −1 (ker g).

102
Applications linéaires

Exercice 34. Soit E un espace vectoriel de dimension finie, F et N deux sous-espaces


vectoriels de E ; donner une condition nécessaire et suffisante pour qu’il existe une
application linéaire f de E dans E vérifiant : f (E) = F et ker f = N .
Exercice 35. Soit E, F , G trois espaces vectoriels de dimensions respectives n, p, q,
f g
f et g deux applications linéaires E → F → G telles que g ◦ f = 0. Quelle relation
existe-t-il entre le rang de f et celui de g ?
Exercice 36. Soit E un espace vectoriel de dimension finie, f une application linéaire
de E dans E ; montrer que les propriétés (1) à (3) sont équivalentes :
(1) E = Im f ⊕ ker f ,
(2) Im f = Im f 2 ,
(3) ker f = ker f 2 .
Exercice 37. Soit E un espace vectoriel, et u une application linéaire de E dans E.
Dire si les propriétés suivantes sont vraies ou fausses :
1. Si e1 , e2 , . . . , ep est libre, il en est de même de u(e1 ), u(e2 ), . . . , u(ep ).
2. Si u(e1 ), u(e2 ), . . . , u(ep ) est libre, il en est de même de e1 , e2 , . . . , ep .
3. Si e1 , e2 , . . . , ep est génératrice, il en est de même de u(e1 ), u(e2 ), . . . , u(ep ).
4. Si u(e1 ), u(e2 ), . . . , u(ep ) est génératrice, il en est de même de e1 , e2 , . . . , ep .
5. Si u(e1 ), u(e2 ), . . . , u(ep ) est une base de Im u, alors e1 , e2 , . . . , ep est une base d’un
sous-espace vectoriel supplémentaire de Ker u.
Exercice 38. Soient E un espace vectoriel et φ une application linéaire de E dans E.
On suppose que Ker (φ) ∩ Im (φ) = {0}. Montrer que, si x ̸∈ Ker (φ) alors, pour tout
n ∈ N : φn (x) ̸= 0.
Exercice 39. Pour des applications linéaires f : E → F , g : F → G, établir l’équiva-
lence
g ◦ f = 0 ⇐⇒ Imf ⊂ Kerg.
Soit f un endomorphisme d’un e.v. E, vérifiant l’identité f 2 + f − 2iE = 0. Etablir
Im(f − iE ) ⊂ Ker(f + 2idE ) ; Im (f + 2idE ) ⊂ Ker(f − idE ) ; E = Ker(f − idE ) ⊕
Ker(f + 2idE ).
Exercice 40. Soient E un espace vectoriel de dimension n et f une application linéaire
de E dans lui-même. Montrer que les deux assertions qui suivent sont équivalentes :
1. Ker(f ) = im(f ).
2. f 2 = 0 et n = 2 rg(f ).
Exercice 41. Soient f et g deux endomorphismes de E tels que f ◦ g = g ◦ f . Montrer
que ker(f ) et Im(f ) sont stables par g.
Exercice 42. Soit U un sous-espace vectoriel de E espace vectoriel, et
A = {f ∈ L(E)|U ⊂ Ker(f )}.
Montrer que A est un sous-espace vectoriel de L(E).

103
Applications linéaires

Exercice 43. Donner des exemples d’applications linéaires de R2 dans R2 vérifiant :


1. Ker(f ) = Im(f ).
2. Ker(f ) inclus strictement dans Im(f ).
3. Im(f ) inclus strictement dans Ker(f ).

Exercice 44. Soit (u, v) ∈ (L(E))2 , tels que u2 = u et vu = 0. Montrer que

Im(u + v) = Im(u) + Im(v).

Exercice 45. Soit (e⃗1 , e⃗2 , e⃗3 ) une base de R3 , et λ un nombre réel. Démontrer que la
donnée de 
 ϕ(e⃗1 ) = e⃗1 + e⃗2
ϕ(e⃗2 ) = e⃗1 − e⃗2

ϕ(e⃗3 ) = e⃗1 + λe⃗3
définit une application linéaire de R3 dans R3 . Ecrire l’image du vecteur ⃗v = a1 e⃗1 +
a2 e⃗2 + a3 e⃗3 . Comment choisir λ pour que ϕ soit injective ? surjective ?

Exercice 46. Soit E un espace vectoriel de dimension 3, {e1 , e2 , e3 } une base de E, et


λ un paramètre réel. 
 φ(e1 ) = e1 + e2
Démontrer que la donnée de φ(e2 ) = e1 − e2 définit une application linéaire φ

φ(e3 ) = e1 + λe3
de E dans E. Écrire le transformé du vecteur x = α1 e1 + α2 e2 + α3 e3 . Comment choisir
λ pour que φ soit injective ? surjective ?

Exercice 47. E étant un espace vectoriel de dimension n sur R, f une application


linéaire de E dans E, construire dans les trois cas suivants deux applications linéaires
bijectives u et v de E dans E telles que f = u − v.
– f est bijective.
– Ker f + Im f = E.
– f est quelconque.

Exercice 48. Soit f ∈ L(E) non nul ; montrer que f est injective si et seulement si pour
tout couple (E1 , E2 ) de sous-espaces supplémentaires de E, la somme f (E1 ) + f (E2 ) est
directe (i.e. f (E1 ) et f (E2 ) sont supplémentaires).

Exercice 49. Soient E = Cn [X] et A et B deux polynômes à coefficients complexes de


degré (n + 1). On considère l’application f qui à tout polynôme P de E, associe les reste
de la division euclidienne de AP par B.
1. Montrer que f est un endomorphisme de E.
2. Montrer l’équivalence

f est bijective ⇐⇒ A et B sont premiers entre eux.

Exercice 50. Soit E un C–espace vectoriel et f ∈ L(E) tel que f 2 − 3f + 2Id = 0L(E) .

104
Applications linéaires

1. Montrer que f est un automorphisme et donner f −1 en fonction de f .


2. Montrer qu’il existe deux suites (an ) et (bn ) de scalaires telles que pour tout n ∈ N,
f n = an idE + bn f . En déduire f n en fonction de n.
3. Montrer que E = ker(f − Id) ⊕ ker(f − 2Id).
4. Déduire de 2. que si E est de dimension finie n, il existe une base β = (εi )16i6n ,
telle que ∀i, f (εi ) = λi εi avec λi = 1 ou λi = 2.

Exercice 51. Soient E et F deux espaces vectoriels de dimension finie et φ une ap-
plication linéaire de E dans F . Montrer que φ est un isomorphisme si et seulement si
l’image par φ de toute base de E est une base de F .

Exercice 52 (Projecteur et involution). Soit E un espace vectoriel ; on note iE l’identité


sur E. Un endomorphisme u de E est un projecteur si u ◦ u = u.
1. Montrer que si u est un projecteur alors iE − u est un projecteur. Vérifier aussi
que Imu = {x ∈ E; u(x) = x} et que E = Keru ⊕ Imu.
Un endomorphisme u de E est appelé involutif si u ◦ u = iE .
2. Montrer que si u est involutif alors u est bijectif et E = Im(iE + u) ⊕ Im(iE − u).
Soit E = F ⊕ G et soit x ∈ E qui s’écrit donc de façon unique x = f + g, f ∈ F ,
g ∈G. Soit u : E ∋ x 7→ f − g ∈ E.
3. Montrer que u est involutif, F = {x ∈ E; u(x) = x} et G = {x ∈ E; u(x) = −x}.
4. Montrer que si u est un projecteur, 2u−iE est involutif et que tout endomorphisme
involutif peut se mettre sous cette forme.

Exercice 53. Soient P = {(x, y, z) ∈ R3 ; 2x + y − z = 0} et D = {(x, y, z) ∈ R3 ; 2x −


2y + z = 0, x − y − z = 0}. On désigne par ε la base canonique de R3 .
1. Donner une base {e1 , e2 } de P et {e3 } une base de D. Montrer que R3 = P ⊕ D
puis que ε′ = {e1 , e2 , e3 } est une base de R3 .
2. Soit p la projection de R3 sur P parallélement à D. Déterminer Mat(p, ε′ , ε′ ) puis
A = Mat(p, ε, ε). Vérifier que A2 = A.
3. Soit s la symétrie de R3 par rapport à P parallélement à D. Déterminer Mat(s, ε′ , ε′ )
puis B = Mat(s, ε, ε). Vérifier que B 2 = I, AB = A et BA = A.

Exercice 54. Soit E = R[X] l’espace vectoriel des polynômes, et f : E → E définie


par :
P (−X) − P (X)
∀P ∈ E, f (P )(X) = .
2

Montrer que f ∈ L(E), que E = Im f Ker(f ) mais que f 2 = −f.

Exercice 55. Soit E = Rn [X] l’espace vectoriel des polynômes de degré 6 n, et f :


E → E définie par :

f (P ) = P + (1 − X)P .
Montrer que f ∈ L(E), donner une base de Im f et de Ker(f ).

105
Applications linéaires

Exercice 56. Soit E = C(R+ , R) et U : E → E définie par f 7→ U (f ) telle que :



1 x
∀x ∈ R , U (f )(x) =
+∗
f (t)dt.
x 0
et U (f )(0) = f (0). Montrer que U ∈ L(E), déterminer Ker(U ) et Im(U ).
Exercice 57. On désigne par Pq l’espace vectoriel des polynômes à coefficients réels de
degré inférieur ou égal à q, et Oq l’espace vectoriel des polynômes d’ordre supérieur ou
égal à q, c’est-à-dire divisibles par xq . P étant un polynôme, on note T (P ) le polynôme
défini par :
∫ x
1 5 (4)
T (P )(x) = xP (0) − x P (0) + t2 [P (t + 1) − P (t) − P ′ (t)] dt.
20 0

1. Montrer que T est linéaire. Déterminer T (ei ) où e0 = 1, e1 = x, e2 = x2 , e3 = x3 ,


e4 = x4 , et vérifier que T (P4 ) ⊂ P4 . Désormais, on considère T comme application
linéaire de P4 dans P4 . Écrire sa matrice par rapport à la base (e0 , e1 , e2 , e3 , e4 ).
2. Déterminer soigneusement les espaces T (P4 ∩ O3 ) et T (P4 ∩ O2 ).
3. La restriction T ′ de T à P4 ∩ O2 est-elle injective ? Sinon déterminer une base du
noyau de T ′ .
4. Montrer que Im T = (O1 ∩ P1 ) ⊕ (O3 ∩ P4 ). Quel est le rang de T ?
5. Montrer que Ker T peut s’écrire sous la forme (O1 ∩ P1 ) ⊕ V ; expliciter un sous-
espace V possible. Déterminer Ker T ∩ Im T .
6. On cherche un vecteur non nul u = ae3 + be4 de O3 ∩ P4 , et un nombre réel λ, tels
que T (u) = λu. Écrire les équations que doivent vérifier a, b, λ. Montrer qu’il existe
deux valeurs possibles de λ, λ1 et λ2 , telles 0 < λ1 < λ2 ; les calculer. Trouver deux
vecteurs non nuls u3 et u4 de O3 ∩ P4 tels que T (u3 ) = λ1 u3 et T (u4 ) = λ2 u4 .
7. On pose u0 = e1 , u1 = e2 − 4e3 + 3e4 , u2 = e0 . Montrer que {u0 , u1 , u2 , u3 , u4 } est
une base de P4 . Écrire la matrice de T dans cette base.
Exercice 58. Soient A et B ∈ Mn (K) deux matrices triangulaires supérieures.
1. Montrer (en calculant les coefficients) que AB est triangulaire supérieure.
2. Soit φ un endomorphisme bijectif de Kn et F un sous-espace vectoriel de Kn tel
que φ(F ) ⊂ F. Montrer que que φ−1 (F ) ⊂ F.
3. En déduire une nouvelle démonstration de 1. Montrer que si A est inversible, A−1
est triangulaire supérieure.

( R dans R) défini par rapport à deux bases


3 2
Exercice 59. Soit h l’homomorphisme de
2 −1 1
(e1 , e2 , e3 ) et (f1 , f2 ) par la matrice A = .
3 2 −3
1. On prend dans R3 la nouvelle base :

e′1 = e2 + e3 , e′2 = e3 + e1 , e′3 = e1 + e2 .

Quelle est la nouvelle matrice A1 de h ?

106
Applications linéaires

2. On choisit pour base de R2 les vecteurs :


1 1
f1′ = (f1 + f2 ), f2′ = (f1 − f2 )
2 2
en conservant la base (e′1 , e′2 , e′3 ) de R3 . Quelle est la nouvelle matrice A2 de h ?

Exercice 60. Soit h une application linéaire de rang r, de E, espace vectoriel de di-
mension n, dans F , espace vectoriel de dimension m.
1. Préciser comment obtenir une base (ei )ni=1 de E, et une base (fj )m j=1 de F , telles
que h(ek ) = fk pour k = 1, . . . , r et h(ek ) = 0 pour k > r. Quelle est la matrice
de h dans un tel couple de bases ?
2. Déterminer un tel couple de bases pour l’homomorphisme de R4 dans R3 défini
dans les bases canoniques par :

 y1 = 2x1 − x2 + x3 − x4
h(x1 , x2 , x3 , x4 ) = (y1 , y2 , y3 ) avec y2 = x2 + x3 − 2x4

y3 = x1 + 2x2 + x3 + x4

3. Même question pour l’application f de R3 dans lui-même définie par :

f (x, y, z) = (2x + y + z, −y + z, x + y).

Exercice 61. On désigne par P2 l’espace des polynômes sur R de degré inférieur ou
égal à 2. On désigne par (e0 , e1 , e2 ) la base canonique de P2 et on pose
1 1
p0 = e0 , p1 = e1 − e0 , p2 = e2 − e1 + e0 .
2 2
1. Montrer que tout polynôme de P2 peut s’écrire de façon unique sous la forme
p = b 0 p 0 + b 1 p1 + b 2 p 2 .
2. Écrire sous cette forme les polynômes : p′0 , p′1 , p′2 , p′ , Xp′ , p′′ .
3. Montrer que l’application φ : P2 → P2 définie par φ(p) = Xp′ − 21 p′ + 41 p′′ est une
application linéaire. Préciser le noyau et l’image de cette application. Écrire les
matrices de cette application par rapport à la base canonique (ei ) et par rapport
à la base (pi ). Écrire la matrice de passage de la base (ei ) à la base (pi ) ; quelle
relation lie cette matrice aux deux précédentes ?

Exercice 62. Soit f : C → C l’application z 7→ eiθ z̄. On considère C comme un


R-espace vectoriel et on fixe la base ε = {1, i}.
1. Montrer que f est R-linéaire.
2. Calculer A = Mat(f, ε, ε).
3. Existent-ils x et y ∈ C − {0} tels que f (x) = x et f (y) = −y? Si c’est le cas
déterminer un tel x et un tel y.
4. Décrire géométriquement f.

107
Applications linéaires

5. Soit g : C → C l’application z 7→ eiρ z̄. Calculer A = Mat(g ◦ f, ε, ε) et décrire


géométriquement g ◦ f.

Exercice 63. Soit f ∈ L(R3 ) telle que f 3 = −f et f ̸= 0.


1. Montrer que Ker(f ) ∩ Ker(f 2 + I) = {0}, Ker(f ) ̸= {0} et Ker(f 2 + I) ̸= {0}.
2. Soit x un élément distinct de 0 de Ker(f 2 + I). Montrer qu’il n’existe pas α ∈ R
tel que f (x) = αx. En déduire que {x, f (x)} est libre.
3. Calculer dim(Ker(f )) et dim(Ker(f 2 + I)).
 
0 0 0
4. Déterminer une base ε de R3 telle que : Mat(f, ε) = 0 0 −1 .
0 1 0
Exercice 64. Soient E un espace vectoriel de dimension n, f une application linéaire
de E dans lui-même et x un élément de E tel que la famille f (x), ..., f n (x) soit libre.
1. Montrer que la famille x, f (x), . . . , f n−1 (x) est une base de E. Déduiser-en que f
est bijective.
2. On suppose maintenant que f n (x) = x.
Déterminer la matrice de f dans la base x, f (x), . . . , f n−1 (x).

Exercice 65. Soit R[X] l’espace vectoriel des polynômes à coefficients réels.
1. Soit n ∈ N. Montrer que Rn [X], ensemble des polynômes à coefficients réels et de
degré inférieur ou égal à n, est un sous-espace vectoriel de R[X]. Montrer que la
famille 1, X, . . . , X n est une base de Rn [X].
2. Soient f , g et h les applications de R[X] dans lui-même définies par :
f (P (X)) = XP (X),
g(P (X)) = P ′ (X),
h(P (X)) = (P (X))2 .
Montrer que les applications f et g sont linéaires, mais que h ne l’est pas. f
et g sont-elles injectives ? Surjectives ? Déterminer la dimension de leurs noyaux
respectifs. Déterminer l’image de f .
3. On désigne par fn et gn les restrictions de f et de g à Rn [X]. Montrer que l’image
de gn est incluse dans Rn [X] et celle de fn est incluse dans Rn+1 [X]. Déterminer la
matrice de gn dans la base 1, X, ..., X n de Rn [X]. Déterminer la matrice de fn de
la base 1, X, ..., X n dans la base 1, X, ..., X n+1 . Calculer les dimensions respectives
des images de fn et de gn .
( )
−1 2
Exercice 66. Soient A = et f l’application de M2 (R) dans lui-même M 7→
1 0
AM. Montrer que f est linéaire. Déterminer sa matrice dans la base canonique de M2 (R).

Exercice 67. Soit φ une application linéaire de R2 dans lui-même telle que φ ̸= 0 et
φ2 = 0.
1. Construire des exemples de telles applications.

108
Applications linéaires

2. Soit x ∈ R2 tel que φ(x) ̸= 0. Montrer que {x, φ(x)} est une base de R2 . Déterminer
la matrice de φ dans cette base.

Exercice 68. Soit E un espace vectoriel et φ ∈ L(E).


1. On suppose que Ker(φ) = Ker(φ2 ). Soit p > 1 et x ∈ Ker(φp ). Montrer que
x ∈ Ker(φp−1 ). En déduire que Ker(φp ) = Ker(φ) pour tout p > 1.
2. Montrer de même que si Ker(φ2 ) = Ker(φ3 ) alors Ker(φp ) = Ker(φ2 ) pour tout
p > 2.
3. On suppose désormais que φ est une application linéaire de R3 dans lui-même telle
que φ2 ̸= 0. Soit x ∈ R3 tel que φ2 (x) ̸= 0. Montrer que {x, φ(x), φ2 (x)} est une
base de R3 . Déterminer la matrice de φ dans cette base.

Exercice 69. Soient E un espace vectoriel de dimension 3 et φ une application linéaire


de E dans E telle que φ2 = 0 et φ ̸= 0. Posons r = rg(φ).
1. Montrer que Im (φ) ⊂ Ker (φ). Déduiser-en que r 6 3 − r. Calculer r.
2. Soit e1 ∈ E tel que φ(e1 ) ̸= 0. Posons e2 = φ(e1 ). Montrer qu’il existe e3 ∈ Ker (φ)
tel que la famille {e2 , e3 } soit libre. Montrer que {e1 , e2 , e3 } est une base de E.
3. Déterminer la matrice de φ dans la base {e1 , e2 , e3 }.

Exercice 70. Soient E un espace vectoriel et φ une application linéaire de E dans


lui-même telle que φ2 = φ.
1. Montrer que E = Ker (φ) ⊕ Im (φ).
2. Supposons que E est de dimension finie n. Posons q = dim (Ker (φ)). Montrer
qu’il existe une base B = {e1 , . . . , en } de E telle que : φ(e1 ) = . . . = φ(eq ) = 0 et,
pour tout r > q, φ(er ) = er . Déterminer la matrice de φ dans la base B.

Exercice 71. Soit f l’application de Rn [X] dans R[X], définie en posant, pour tout
P (X) ∈ Rn [X] : f (P (X)) = P (X + 1) + P (X − 1) − 2P (X).
1. Montrer que f est linéaire et que son image est incluse dans Rn [X].
2. Dans le cas où n = 3, donner la matrice de f dans la base 1, X, X 2 , X 3 . Déterminer
ensuite, pour une valeur de n quelconque, la matrice de f dans la base 1, X, . . . , X n .
3. Déterminer le noyau et l’image de f . Calculer leurs dimensions respectives.
4. Soit Q un élément de l’image de f . Montrer (en utilisant en particulier les résultats
de la deuxième question) qu’il existe un unique P ∈ Rn [X] tel que : f (P ) = Q et
P (0) = P ′ (0) = 0.

Exercice 72. Soit (e1 , e2 , e3 ) une base de l’espace E à trois dimensions sur un corps K.
IE désigne l’application identique de E. On considère l’application linéaire f de E dans
E telle que :

f (e1 ) = 2e2 + 3e3 , f (e2 ) = 2e1 − 5e2 − 8e3 , f (e3 ) = −e1 + 4e2 + 6e3 .

1. Étudier le sous-espace ker(f − IE ) : dimension, base.

109
Applications linéaires

2. Étudier le sous-espace ker(f 2 + IE ) : dimension, base.


3. Montrer que la réunion des bases précédentes constitue une base de E. Quelle est
la matrice de f dans cette nouvelle base ? et celle de f 2 ?
Exercice 73. Soit E un espace à n dimensions et f un endomorphisme de E.
1. Montrer que la condition f 2 = 0 est équivalente à Imf ⊂ ker f . Quelle condition
vérifie alors le rang de f ? On suppose dans le reste de l’exercice que f 2 = 0.
2. Soit E1 un supplémentaire de ker f dans E et soit (e1 , e2 , . . . , er ) une base de E1 .
Montrer que la famille des vecteurs (e1 , e2 , . . . , er , f (e1 ), f (e2 ), . . . , f (er )) est libre.
Montrer comment on peut la compléter, si nécessaire, par des vecteurs de ker f de
façon à obtenir une base de E. Quelle est la matrice de f dans cette base ?
3. Sous quelle condition nécessaire et suffisante a-t-on Imf = ker f ?
4. Exemple : Soit
 f l’endomorphisme
 de R3 dont la matrice dans la base canonique
1 0 1
est M (f ) =  2 0 2 . Montrer que f 2 = 0. Déterminer une nouvelle base
−1 0 −1
dans laquelle la matrice de f a la forme indiquée dans la question 2).
Exercice 74. Soit trois vecteurs e1 , e2 , e3 formant une base de R3 . On note T la trans-
formation linéaire définie par T (e1 ) = T (e3 ) = e3 , T (e2 ) = −e1 + e2 + e3 .
1. Déterminer le noyau de cette application. Écrire la matrice A de T dans la base
(e1 , e2 , e3 ).
2. On pose f1 = e1 − e3 , f2 = e1 − e2 , f3 = −e1 + e2 + e3 . Calculer e1 , e2 , e3 en fonction
de f1 , f2 , f3 . Les vecteurs f1 , f2 , f3 forment-ils une base de R3 ?
3. Calculer T (f1 ), T (f2 ), T (f3 ) en fonction de f1 , f2 , f3 . Écrire la matrice B de T dans
la base (f1 , f2 , f3 ) et trouver la nature de l’application T .
 
1 1 −1
4. On pose P =  0 −1 1 . Vérifier que P est inversible et calculer P −1 . Quelle
−1 0 1
relation lie A, B, P et P −1 ?
 
1 3 α β
Exercice 75. Soit Mα,β la matrice : Mα,β =  2 −1 2 1  ∈ M3,4 (R). Déterminer
−1 1 2 0
pour quelles valeurs de α et de β l’application linéaire qui lui est associée est surjective.
Exercice 76.
1. Soit E un espace vectoriel et {e1 , . . . ep } une famille génératrice de E. Montrer
l’égalité Im (φ) = Vect {φ(e1 ), . . . , φ(ep )}.
   
1 2 1 2 2 −1
3 4 1  
2. Soient A =   , B = 4 3 −1. Calculer rg(A) et rg(B). Déterminer
5 6 1 0 −1 2 
7 8 1 3 3 −2
une base des noyaux et une base des images respectifs de fA et de fB .

110
Applications linéaires

 
3 −1 1
Exercice 77. Soit f ∈ L(R3 ) de matrice 0 2 0 dans la base canonique. Déter-
1 −1 3
miner la matrice de f dans la base (1, 0, −1), (0, 1, 1), (1, 0, 1).
( 2
)
2
Exercice 78. Soit f l’endomorphisme de R de matrice
2 3 dans la base cano-
− 52 − 23
nique. Soient e1 = (−2, 3) et e2 = (−2, 5).
1. Montrer que (e1 , e2 ) est une base de R2 et déterminer mat(f, e).
2. Calculer An pour n ∈ N.


xn+1 = 2xn + 2 yn
3. Déterminer l’ensemble des suites réelles qui vérifient ∀n ∈ N 3 .
 5
yn+1 = − xn − yn
2
2 3
( ) {
1 1 M2 (R) → M2 (R)
Exercice 79. Soient A = et Φ : . Montrer que Φ est
0 1 M 7→ AM − M A
linéaire, déterminer sa matrice dans la base canonique et calculer ker Φ et ImΦ.

111

Vous aimerez peut-être aussi