0% ont trouvé ce document utile (0 vote)
15 vues59 pages

Algèbre Linéaire et Algorithmique L1

Ce polycopié est destiné aux étudiants en première année de licence en mathématiques/informatique et traite de l'algèbre linéaire et de l'algorithmique. Il aborde la résolution de systèmes linéaires, l'étude des espaces vectoriels, et introduit des concepts tels que les matrices et les polynômes, tout en intégrant des exercices pratiques. Les étudiants sont encouragés à interagir activement avec le contenu et à utiliser des ressources en ligne pour approfondir leur compréhension.

Transféré par

Cookie Weapons
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
15 vues59 pages

Algèbre Linéaire et Algorithmique L1

Ce polycopié est destiné aux étudiants en première année de licence en mathématiques/informatique et traite de l'algèbre linéaire et de l'algorithmique. Il aborde la résolution de systèmes linéaires, l'étude des espaces vectoriels, et introduit des concepts tels que les matrices et les polynômes, tout en intégrant des exercices pratiques. Les étudiants sont encouragés à interagir activement avec le contenu et à utiliser des ressources en ligne pour approfondir leur compréhension.

Transféré par

Cookie Weapons
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Institut Galilée

Sciences et technologies

Licence 1ère année. Deuxième semestre 2017/2018

Algèbre linéaire et algorithmique. Tome I

c INSTITUT GALILEE, 99 avenue Jean-Baptiste-Clément 93430 VILLETANEUSE 2017/2018


Introduction
Ce polycopié est destiné aux étudiants du tronc commun de L1 mathéma-
tiques/informatique de l’institut Galilée et concerne le cours algèbre linéaire et
algorithmique. Le sujet principal est l’algèbre linéaire, qui généralise et formalise
l’étude des systèmes linéaires. Cette théorie peut être vue comme l’étude systé-
matique d’ensembles (les espaces vectoriels) munis de deux opérations : une loi de
composition interne appelée addition et une multiplication par des nombres réels
ou complexes. Ces notions de mathématiques seront illustrées et appliquées dans
des cours, travaux dirigés et travaux pratiques d’algorithmique.
On commence (chapitre I) par expliquer la résolution de systèmes linéaires géné-
raux par la méthode du pivot de Gauss. Ces systèmes linéaires peuvent s’écrire de
manière plus succincte en utilisant des tableaux de nombres, ou matrices, qui sont
étudiés de manière plus systématique au chapitre II. Le chapitre III ne concerne
pas l’algèbre linéaire : il s’agit d’une introduction rapide au polynômes, qui seront
utilisés notamment dans le chapitre sur les déterminants (tome II) et dans la partie
informatique du cours. Le chapitre IV contient de bref rappel sur le langage C et
sur le traitement des matrices et des polynômes dans ce langage.
L’étude de l’algèbre linéaire proprement dite commence au chapitre V, où on
introduit les espaces vectoriels et les notions importantes de sous-espaces vectoriels
et de familles de vecteurs. L’étude des espaces vectoriels continuera dans le tome
II, où on s’intéressera à la notion de dimension, aux applications linéaires et au
déterminant, ainsi qu’à quelques techniques classiques d’algorithmiques.

Nous utiliserons souvent des lettres grecques (en particulier α, β, γ, δ, λ, µ, ν).


Un alphabet grec est donné en appendice (p. 53).

Les lecteurs et lectrices sont invités à lire attentivement et de manière active le


polycopié, en apprenant et refaisant les démonstrations des résultats importants et
en faisant les exercices corrigés proposés. L’évaluation des connaissances (en
contrôle continu et lors des partiels et examens) portera en grande partie
sur le cours (définitions, résultats et leurs démonstrations).

Une feuille de travaux dirigés et une liste d’exercices à préparer pour le contrôle
continu est donnée à la fin de chaque chapitre. Par ailleurs des feuilles d’exercices à
faire en ligne (avec le logiciel WIMS) seront proposés régulièrement. Le polycopié,
les archives des années précédentes et les liens pour se connecter aux exercices en
ligne sont disponibles sur la page web :

[Link]

1
2
I. Systèmes linéaires

La référence principale pour ce chapitre est le livre de David C. Lay 1 . Définition 1.5. Si p ≥ 1, on appelle système linéaire à p équations et n inconnues
On appellera nombre ou scalaire un nombre rationnel, réel ou complexe. On po- un ensemble de p équations linéaires ayant les mêmes n inconnues :
sera K = Q, K = R ou K = C l’ensemble de ces nombres. Le choix des nombres 
a11 x1 + a12 x2 + . . . + a1n xn = b1
rationnels, réels ou complexes est indifférent dans ce chapitre, sauf pour les inter-



 a21 x1 + a22 x2 + . . . + a2n xn = b2

prétations géométriques où l’on privilégiera les nombres réels.

(S) .. ..
. .


1. Définitions et premiers exemples



ap1 x1 + a22 x2 + . . . + apn xn = bp

1.a. Définitions Les scalaires aij , 1 ≤ i ≤ p, 1 ≤ j ≤ n sont encore appelés les coefficients du
Définition 1.1. Soit n ≥ 1. On appelle équation linéaire à n inconnues x1 ,. . . ,xn système. Il est d’usage d’utiliser le premier indice pour numéroter les lignes et le
une équation de la forme deuxième indice pour numéroter les colonnes. Le p-uplet b = (b1 , . . . , bp ) est appelé
second membre du système. Lorsque tous les bj sont nuls (on dit encore que b est
n
X nul), on dit que le système est homogène.
(E) aj xj = b,
L’ensemble des solutions de (S) est le sous-ensemble de Kn formé des (x1 , . . . , xn )
j=1
qui vérifient toutes les équations de (S). On cherche à résoudre le système (S), c’est
où a1 , a2 , . . . , an et b sont fixés dans K. Les scalaires a1 , a2 , . . . , an sont appelés co- à dire décrire précisément cet ensemble.
efficients de l’équation, b est le second membre. Lorsque b = 0, on dit que l’équation
Définition 1.6. Le système (S) est dit compatible si il a au moins une solution.
est homogène.
n
X Remarque 1.7. Un système homogène est toujours compatible : (0, 0, . . . , 0) est
Remarque 1.2. La notation aj xj dans (E) signifie a1 x1 + a2 x2 + . . . + an xn . Il solution.
j=1 Remarque 1.8. On peut réécrire le système (S) sous forme abrégée :
est impératif de maîtriser ce type de notation. n
X
Définition 1.3. L’ensemble des solutions de (E) est l’ensemble des (x1 , x2 , . . . , xn ) ∀i = 1 . . . p, aij xj = bi .
n
X j=1
de Kn tels que aj xj = b. C’est donc un sous-ensemble de Kn .
j=1 Remarque 1.9. Lorsque le nombre d’inconnues n est petit, on note souvent x, y, z,
t (au lieu de x1 , x2 ,. . . ) ces inconnues pour alléger les notations.
Exemple 1.4.
3x1 + x2 − 4x3 = 2 Donnons quelques exemples simples.
Exemples 1.10. √
est une équation linéaire non-homogène à 3 inconnues. 
17(x + 2y) = 7z + 3
−ix1 + (2 + i)x2 − 4x3 = 0 x+z
 = 12.
est une équation linéaire (complexe) homogène à 3 inconnues. 2
est un système linéaire non-homogène, à 2 équations et 3 inconnues, que l’on peut
2x21 + x2 x3 − 4x33 = 1 écrire sous la forme (S) (avec x = x1 , y = x2 , z = x3 ) :
 √
n’est pas une équation linéaire. 17x + 34y − 7z = 3
1. David C. Lay. Algèbre linéaire : Théorie, exercices et applications. Troisième édition,
2004
 1 x + 0y + 1 z = 12.
2 2

3
I. Systèmes linéaires

Ici a11 = 17, a12 = 34, a13 = − 7, a21 = 12 , a22 = 0, a23 = 1
2
, b1 = 3 et b2 = 12. 1.b. Quelques exemples simples
Le système :
( On s’intéresse aux systèmes de la forme :
xyz + 7 = 0
(
x + 2y = 3. a11 x + a12 y = b1
(I.4)
a21 x + a22 y = b2 .
n’est pas linéaire (la première équation ne peut pas être mise sous la forme d’une
équation linéaire). L’équation :
Lorsque K = R, (a11 , a12 ) 6= (0, 0) et (a21 , a22 ) 6= (0, 0), (I.4) décrit l’ensemble des
2 2 points d’intersection de deux droites D1 et D2 du plan R2 . On a donc trois cas :
(I.1) (x + y − 3) + (2x + y + 2) = 0
— Les droites D1 et D2 ne sont pas parallèlles : elles ont un unique point d’in-
tersection, et (I.4) n’a qu’une seule solution.
n’est pas linéaire. Toutefois, si l’on cherche à résoudre cette équation sur R, elle est — Les droites D1 et D2 sont parallèles. Le système (I.4) n’a pas de solution, sauf
équivalente au système linéaire : si D1 et D2 sont confondues, auquel cas le système a une infinité de solutions
( (l’ensemble des coordonnées des points de la droite D1 = D2 ).
x+y =3 On donne maintenant trois exemples que l’on va résoudre algébriquement, sans
2x + y = −2. utiliser d’argument géométrique.
Exemple 1.12.
Remarquons que dans le cas K = C, l’équation (I.1) ne peut pas être ramenée à un
système linéaire.
(
3x + 2y = 8 (L1 )
(I.5)
Exercice 1.11. Mettre les systèmes linéaires suivants sous la forme (S). Déterminer 2x + 5y = 9 (L2 ).
p, n, et les paramètres aij et bi .
( Eliminons l’inconnue “x” de la deuxième ligne à l’aide de la première ligne :
3x + y = 4z + 3 
(I.2) 3x + 2y = 8
y = z,


(I.6)
   
4 16 2
(I.3) x1 + x2 = x2 + x3 = x3 + x4 = 0.  0 + 5 − y = 9 − (L2 ) − (L1 ).
3 3 3

Les systèmes linéaires apparaissent dans tous les domaines d’applications des La notation (L2 )− 23 (L1 ) à la deuxième ligne (on écrira parfois (L2 ) ← (L2 )− 23 (L1 ))
mathématiques (économie, industrie...) Dans les applications, p et n sont souvent signifie que l’on a remplacé la deuxième ligne par la différence de la deuxième ligne
très grands, et on ne peut pas résoudre le système “à la main”. Il existe évidemment et du produit de 23 par la première ligne.
de nombreux logiciels informatiques qui en sont capables. Les buts de ce chapitre
sont : (
3x + 2y = 8
— savoir résoudre “à la main” un système lorsque p et n sont petits ; (I.7)
— apprendre un algorithme général de résolution des systèmes linéaires, la mé- y=1 3 (L ).
11 2

thode du pivot de Gauss ;


— en déduire quelques propriétés de la structure de l’ensemble des solutions. Une fois connue la valeur de y il suffit de la substituer dans (L1 ) pour obtenir la
Cette structure sera précisée au Chapitre V, à travers la notion d’espace valeur de x : on obtient 3x = 8 − 2 = 6, i.e. x = 2. Le système (I.5) a donc pour
vectoriel. unique solution (2, 1) (en d’autres termes, l’ensemble des solutions est le singleton
On commence par considérer des exemples de résolution de systèmes linéaires à {(2, 1)}).
deux équations et deux inconnues. On introduit ensuite une notation commode (la On peut aussi conclure, à partir de (I.7), en utilisant des opérations sur les lignes :
notation matricielle) avant de dégager une méthode générale. Le cas des système ( (
à une seule inconnue, ou à une seule équation et un faible nombre d’inconnues est 3x = 6 (L1 )−2(L2 ) x=2 1 (L )
3 1
(I.8) puis
traité en travaux dirigés (cf Exercices I.1 et I.2, p. 15). y=1 y=1

4
2. Méthode du pivot

Exemple 1.13. Définition 1.16. On appelle matrice des coefficients du système (S) la matrice
( p×n :
3x + 2y = 8
 
a11 a12 . . . a1n
(I.9) a21 a22 . . . a2n 
6x + 4y = 20.  
 .. .. 
 . . 
On élimine x comme dans l’exemple 1.12
ap1 a22 . . . apn
(
3x + 2y = 8 et matrice augmentée la matrice p × (n + 1) :
(I.10)
0=4 (L2 )−2(L1 ).  
a11 a12 ... a1n b1
a21 a22 ... a2n b2 
Il n’y a pas de solution.  
 .. .. 
Exemple 1.14.
 . . 

( ap1 a22 ... apn bp


3x + 2y = 8
(I.11) (le trait vertical, facultatif, permet de séparer les coefficients du système du second
6x + 4y = 16. membre).
On utilise la même stratégie : On peut reprendre les opérations précédentes en notation matricielle. Par
( exemple, les manipulations sur les lignes de l’exemple 1.12 s’écrivent :
3x + 2y = 8    
(I.12) 3 2 8 3 2 8
0=0 (L2 )−2(L1 ). 4 16
2 5 9 0 5− 3 9− 3 2 (L )
(L2 )− 3 1

La deuxième équation est toujours vraie. Le système (I.11) est donc équivalent à
l’équation, 3x + 2y = 8. Il y a toute une droite de solutions, l’ensemble
     
3 2 8 3 0 6 (L1 )−2(L2 ) 1 0 2 1 (L )
3 1

  0 1 1 3 (L )
11 2 0 1 1 0 1 1
3
(x, 4 − x), x ∈ K .
2 ce qui signifie bien x = 2, y = 1 (cf (I.8)).
Exercice 1.17. Résoudre le système
On dit qu’on a donné une description paramétrique de l’ensemble des solutions.
(
Remarque 1.15. Dans les exemples précédents, l’ensemble des solutions est ou bien 2x + y = 5
vide, ou bien réduit à un seul élément, ou bien infini. Nous verrons plus tard (théo- (I.13)
x−y =1
rème 2.22 p. 11) que cette propriété persiste dans le cas d’un système linéaire
général. en utilisant la notation matricielle.
On renvoie à l’exercice de travaux dirigés I.12 pour un système général à deux
équations, deux inconnues. 2. Méthode du pivot

1.c. Notation matricielle On formalise et généralise maintenant la méthode esquissée dans les exemples
précédents pour résoudre des systèmes linéaires quelconques. Plus précisément :
Une matrice p × n est un tableau de nombre à p lignes et n colonnes. Nous — on introduit en 2.a une famille de systèmes pour lesquels il est très facile de
étudierons les matrices de manière plus systématique dans le chapitre II de ce décrire l’ensemble des solutions, les systèmes sous forme échelonnée réduite ;
cours. — on définit en 2.b des opérations sur les lignes des systèmes linéaires qui ne
Lors des manipulations sur les lignes des exemples précédents, on peut gagner du changent pas l’ensemble des solutions : les opérations élémentaires. Ce sont
temps en décidant de ne pas noter les variables : exactement les opérations apparaissant dans les exemples précédents ;

5
I. Systèmes linéaires
(
— on montre en 2.c comment ramener, par une série d’opérations élémentaires, x + 2z = 1
tout système linéaire, à un système sous forme échelonnée réduite : c’est la Le système est sous forme échelonnée réduite.
y + 3z = 2
méthode du pivot proprement dite.
Cette partie se termine par l’étude d’une classe de système importante, les systèmes Exemples 2.6. Le premier système de (I.8) est sous forme échelonnée non réduite,
de Cramer (2.d). le dernier système de (I.8) est sous forme échelonnée réduite.
Le système (I.10) est sous forme échelonnée non réduite.
2.a. Forme échelonnée Le système (I.12) est sous forme échelonnée non réduite. Après multiplication de
la première ligne par 13 , on obtient la forme échelonnée réduite équivalente :
On définit ici un ensemble de matrice correspondant à des systèmes dont on peut
décrire l’ensemble des solutions sans aucun calcul supplémentaire. Le but de la
x + 2 y = 8

méthode du pivot sera de se ramener à ce type de matrice. 3 3
0 = 0.

Définitions
Définition 2.1. Soit A une matrice p × n. Une ligne nulle de A est une ligne de Dans ce système la deuxième ligne 0 = 0 est bien sûr superflue.
A formée uniquement de zéros. On appelle élément de tête d’une ligne non nulle de On renvoie à l’exercice I.4 des travaux dirigés p. 15 pour d’autres exemples.
A l’élément non nul le plus à gauche de cette ligne. On dit que A est sous forme
échelonnée (ou simplement échelonnée) lorsque les deux propriétés suivantes sont Exercice 2.7. Déterminer si les systèmes suivants sont sous forme échelonnée (res-
vérifiées : pectivement sous forme échelonnée réduite) :
i. Toutes les lignes non nulles sont situées au-dessus des lignes nulles. i. Un système à une seule équation.
ii. L’élément de tête de chaque ligne non nulle se trouve dans une colonne (stric- ii.
tement) à droite de l’élément de tête de la ligne précédente. ( (
x2 + x3 = 2 x1 + x3 = 2
Remarque 2.2. Le point ii implique que tous les éléments de la matrice situés sous , puis
x1 + x3 = 3 x2 + x3 = 3
un élément de tête sont nuls.
On dit que A est sous forme échelonnée réduite (ou simplement que A est échelonnée iii.
réduite) quand de plus les deux propriétés suivantes sont vérifiées : 
2 1 + 2i 5 4i 1

 
iii. L’élément de tête de chaque ligne non nulle vaut 1. 0 1 0 1 2
 0 0 −1 2 3   1

 0
, 0 0 4 3 
iv. L’élément de tête de chaque ligne non nulle est le seul coefficient non nul de 0 0 0 1 
0 0 1 2 3
sa colonne. 0 0 0 0 0
Définition 2.3. On dit qu’un système linéaire est sous forme échelonnée (respecti-  
0 0 1 0 2 3 1
vement échelonnée réduite) quand sa matrice augmentée est sous forme échelonnée  0 0 0 1 0 −3 −2 
(respectivement échelonnée réduite).
0 0 0 0 0 0 0
Exercice 2.4. Écrire un algorithme, ou une fonction en langage C qui détermine si
une matrice est échelonnée (respectivement échelonnée réduite). iv.
0 0
Exemples 2.5. La matrice
h i A = [ 2 3 ] n’est pas échelonnée (i n’est pas vérifiée).
3 4 5

x=1

2x + y + z = 1
La matrice B = n’est pas échelonnée (cette fois, ii est faux).
 
2x + y + z = 1
1 2 3 
 

h 10 20 31 i

y = 2 eiπ/3 y + 2z = −1
 
La matrice C = 0 0 4 est échelonnée, mais pas échelonnée réduite (iii et iv sont (S1 ) , (S2 ) , (S3 ) x + y + 2z = −1
0 0 0 z = 3  z = −4 
x − z = −4
  
faux). 
 

h1 2 0i 0=0 
0=0
La matrice D = 0 0 4 est échelonnée, mais pas échelonnée réduite (iii est faux).
h 01 02 00 i
La matrice E = 0 0 1 est échelonnée réduite. (cf correction p. 13).
0 0 0

6
2. Méthode du pivot

Application aux systèmes linéaires du système. On dit que l’on a obtenu une description paramétrique de l’en-
semble des solutions. Récapitulons :
On rappelle qu’un système linéaire est dit compatible quand il a au moins une Proposition 2.8. Un système compatible sous forme échelonnée avec n in-
solution. On peut décrire facilement l’ensemble des solutions d’un système linéaire connues et q équations non nulles se décrit avec n − q paramètres. En d’autres
(S) dont la matrice augmentée A est sous forme échelonnée réduite. On rappelle termes, si le système est sous forme échelonnée, on a :
que si (S) est un système à p équations et n inconnues, la matrice A est une matrice
p × (n + 1) (i.e. un tableau de nombres avec p lignes et n + 1 colonnes). Soit donc A nbre d’inconnues − nbre d’équations = nbre de degrés de liberté.
une matrice p × (n + 1) échelonnée (éventuellement non réduite pour commencer).
On distingue deux cas. Nous donnerons plus tard, dans le chapitre sur les applications linéaires une
— Premier cas. Si la colonne la plus à droite (la n + 1-ième colonne) de A interprétation plus abstraite de cette proposition, appelée théorème du rang.
contient un élément de tête cela se traduit par une équation 0 = c, avec Remarque 2.9. Il y a plusieurs façons de résoudre un système linéaire, et
c 6= 0, tautologiquement fausse, ce qui montre que le système n’a pas de donc plusieurs choix des variables de base et des variables libres. Par exemple
solution. Le système (S) est n’est pas compatible. l’ensemble des solutions de l’équation x + y = 2 peut s’écrire en choisissant y
Supposons par exemple que le système a pour matrice augmentée comme variable de base et x comme variable libre :
  {(x, 2 − x), x ∈ R} ,
1 3 4 5
0 0 1 1 ou au contraire x comme variable de base et y comme variable libre :
0 0 0 2
{(2 − y, y), y ∈ R} .
Cette matrice est sous forme échelonnée (non réduite). Le 2 en bas à droite
est un élément de tête situé sur la dernière colonne : le système n’a pas de On peut montrer en revanche que pour un système linéaire donné, le nombre
solution, car la dernière ligne se lit 0 = 2. de variables de base et le nombre de variables libres est indépendant du choix
— Deuxième cas. Supposons que la colonne de droite de A ne contient aucun de ces variables. Nous omettons pour l’instant la démonstration de cette pro-
élément de tête. Montrons que dans ce cas, le système est compatible. Notons q priété, qui se fait plus naturellement dans le cadre de la théorie des espaces
le nombre de lignes non nulles qui est inférieur ou égal au nombre de ligne total vectoriels et des applications linéaires (c’est une interprétation du théorème
p. L’élément de tête de chacune de ces lignes, situé sur une des n premières du rang mentionné plus haut, et qui sera vu dans le chapitre sur les applica-
colonnes, correspond à une des inconnues x1 ,. . . , xn . On appelle variables de tions linéaires, au tome II).
base, ou parfois inconnues principales ces inconnues (qui sont au nombre de q, Donnons deux exemples.
ce qui montre que q ≤ n), et variables libres (ou parfois inconnues secondaires Supposons d’abord que la matrice augmentée du système (S) est
ou encore paramètres) les autres inconnues, qui sont au nombre de n − q.  
Notons (xα1 , . . . , xαq ), 1 ≤ α1 < α2 < . . . < αq ≤ n les q variables de base. 1 0 3 0 4
0 1 2 0 3
Pour 1 ≤ i ≤ q, la i-ième ligne donne une expression de xαi en fonctions des
variables (xk )k>αi . On peut ainsi exprimer chacune des variables de base en 0 0 0 1 5
fonctions des variables libres par récurrence, en utilisant successivement la q-
C’est une matrice de forme échelonnée réduite, dont les éléments de tête sont
ième ligne (qui permet d’écrire xαq en fonctions des variables libres (xk )k>αq ),
les “1” en gras. La colonne de droite ne contient aucun élément de tête : le
puis la q − 1-ième ligne (qui qui permet d’écrire xαq en fonctions des variables
système est compatible. Les variables de base (correspondant aux numéros
(xk )k>αq−1 , qui sont toutes des variables libres, sauf xαq que l’on sait déjà
des colonnes des éléments de tête) sont x1 , x2 et x4 . Le seul paramètre est x3 .
écrire avec les variables libres), etc...
On obtient la description paramétrique suivante de l’ensemble des solutions :
Lorsque le système est sous forme échelonnée réduite, cette description est
particulièrement simple : pour tout i entre 1 et q, la i-ième ligne donne sans x1 = 4 − 3x3 , x2 = 3 − 2x3 , x4 = 5, x3 ∈ K.
aucun calcul supplémentaire une expression de xαi en fonctions des variables
libres. En d’autres termes, l’ensemble des solutions de (S) est :
On a écrit toutes les variables de base en fonction des paramètres. En faisant
varier les paramètres dans K, on obtient exactement l’ensemble des solutions {(4 − 3x3 , 3 − 2x3 , x3 , 5), x3 ∈ K} .

7
I. Systèmes linéaires

Supposons que le système a pour matrice augmentée : En effet, l’ensemble des solutions de ces deux systèmes est {(1, −1)}. Les deux
  systèmes suivants ne sont pas équivalents :
1 2 0 −1 4 ( (
0 0 1 2 −5 x+y =0 x+y =0
(I.15) et
 
0 0 0 0 0 y = −1 x = −1
0 0 0 0 0
En effet, l’ensemble des solutions du premier système est {(1, −1)}, l’ensemble des
Cette matrice est sous forme échelonnée réduite, et le système est compatible.
solutions du deuxième système est {(−1, 1)}.
Les variables de base sont x1 et x3 , et les variables libres x2 et x4 . L’ensemble
des solutions est Définition 2.14. On appelle opération élémentaire sur un système (ou sur les
n o lignes d’une matrice) l’une des trois opérations suivantes :
(4 − 2x2 + x4 , x2 , −5 − 2x4 , x4 ) , (x2 , x4 ) ∈ K2 .
i. L’échange de deux lignes (Li ) et (Lj ), noté (Li ) ↔ (Lj ).
On peut maintenant donner une définition plus précise de la résolution d’un ii. La multiplication d’une ligne par un scalaire k ∈ K non nul, appelée cadrage,
système linéaire : résoudre le système (S), c’est donner une description paramétrique notée (Li ) ← k(Li ).
de l’ensemble des solutions. iii. L’ajout à une ligne du multiple d’une autre ligne par un scalaire k, appelé
Exercice 2.10. Dire si les systèmes de l’exercice 2.7, lorsqu’ils sont sous forme éche- remplacement, noté (Li ) ← (Li ) + k(Lj ).
lonnée réduite, sont compatibles. Donner alors une description paramétrique de
Le lecteur est invité à vérifier que toutes les opérations réalisées dans les exemples
l’ensemble des solutions.
de la partie 1 sont des opérations élémentaires au sens de la définition 2.14. Par
(cf correction p. 13). exemple, l’opération conduisant à (I.6) est un remplacement, celle conduisant à
Exercice 2.11. Dire si chacune des matrices suivantes est sous forme échelonnée (I.7) un cadrage.
(respectivement sous forme échelonnée réduite). Le système dont c’est la matrice Remarque 2.15. Il revient bien sûr au même de faire des opérations élémentaires
augmentée est-il compatible ? Si c’est le cas, donner une description paramétrique sur un système d’équations linéaires, ou sur les lignes de la matrice augmentée de
de l’ensemble des solutions. ce système.
 
1 2 3 −1 2 Les opérations élémentaires ne changent pas l’ensemble des solutions :
a) 0 0 0 1 2 ,
Proposition 2.16. Soient (S) et (S’) deux systèmes linéaires ayant le même
0 0 0 0 0
nombre d’inconnues et d’équations. On suppose que (S’) peut être obtenu à partir

1 2 3 −4 4
 
1 0 0 −3 1
 de (S) par une série d’opérations élémentaires. Alors (S) et (S’) sont équivalents.
0 1 1 2 −5  , c) 0 1 0
 3 2
b) 
0 2 0
 Démonstration. Par une récurrence simple, il suffit de montrer qu’une seule opéra-
0 0 0 0 1 4 0
tion élémentaire ne change pas l’ensemble des solutions.
0 0 0 0 3 0 0 0 0 0
C’est évident si cette opération élémentaire est l’échange de deux lignes.
(cf correction p. 14). Si k est fixé, non nul, on peut diviser les deux membres d’une égalité par k. On
Dans la suite, on explique comment se ramener à un système sous forme éche- a donc :
lonnée réduite.
k(ai1 x1 + . . . + ain xn ) = k bi ⇐⇒ ai1 x1 + . . . + ain xn = bi ,
2.b. Systèmes équivalents. Opérations élémentaires ce qui montre que le cadrage (multiplication d’une ligne par un scalaire non nul)
ne change pas l’ensemble des solutions.
Définition 2.12. Deux systèmes linéaires ayant le même nombre d’inconnues sont
Il reste à traiter le cas du remplacement, i.e. l’opération (Lj ) ← (Lj ) + k(Li ),
équivalents lorsqu’ils ont le même ensemble de solutions.
où i 6= j, k ∈ K. En ignorant les lignes autres que la i-ième et la j-ième, qui ne
Exemple 2.13. Les systèmes suivants sont équivalents : changent pas, on est amené à montrer que les deux systèmes
( ( (
x+y =0 x+y =0 ai1 x1 + . . . + ain xn = bi (Li )
(I.14) et
y = −1 x=1 aj1 x1 + . . . + ajn xn = bj (Lj )

8
2. Méthode du pivot

et ( Théorème 2.18. Soit (S) un système linéaire. Alors (S) peut être transformé, par
ai1 x1 + . . . + ain xn = bi (Li ) des opérations élémentaires sur les lignes, en un système sous forme échelonnée
aj1 x1 + . . . + ajn xn + k(ai1 x1 + . . . + ain xn ) = bj + kbi (L0j ) réduite.

sont équivalents, c’est à dire que x = (x1 , . . . , xn ) vérifie (Li ) et (Lj ) si et seulement Il est en fait plus commode de travailler en notation matricielle, et de prouver le
si il vérifie (Li ) et (L0j ). théorème équivalent :
On suppose d’abord que x vérifie (Li ) et (Lj ). Alors Théorème 2.19. Soit A une matrice. Alors A peut être transformée, par des opé-
rations élémentaires sur les lignes, en une matrice échelonnée réduite.
aj1 x1 + aj2 x2 + . . . + ajn xn +k (ai1 x1 + ai2 x2 + . . . + ain xn ) = bj + kbi ,
| {z } | {z } Notons que le théorème 2.19, appliqué à la matrice augmentée du système (S),
=bj par (Lj ) =bi par (Li ).
implique le théorème 2.18.
Pour montrer le théorème 2.19, on utilise une méthode appelée méthode du pivot
ce qui montre (L0j ).
ou du pivot de Gauss, qui suit exactement la stratégie ébauchée en 1 pour la résolu-
Supposons réciproquement que x vérifie (Li ) et (L0j ). Alors
tion des systèmes à deux équations, deux inconnues. Le nom de cette méthode est
un hommage au mathématicien allemand Carl Friedrich Gauss (1777-1855), mais
aj1 x1 + aj2 x2 + . . . + ajn xn
elle était déjà connue des mathématiciens chinois du 1er siècle de notre ère. D’après
= aj1 x1 + aj2 x2 + . . . + ajn xn + k (ai1 x1 + ai2 x2 + . . . + ain xn ) Wikipedia “Elle est référencée dans l’important livre chinois Jiuzhang suanshu ou
| {z }
=bj +kbi par (L0j ) Les Neuf Chapitres sur l’art mathématique, dont elle constitue le huitième chapitre,
sous le titre Fang cheng (la disposition rectangulaire)”.
− k (ai1 x1 + ai2 x2 + . . . + ain xn ) = bj ,
| {z } La méthode du pivot permet de démontrer les théorèmes 2.18 et 2.19, mais elle
=bi par (Li ) donne aussi et surtout une méthode générale de résolution des systèmes linéaires.
Elle doit donc être parfaitement comprise.
d’où (Lj ).
Soit A une matrice (p, N ) (p lignes, N colonnes). Dans l’application aux systèmes
Avertissement 2.17. Pour passer d’un système linéaire à un système équivalent, linéaires, p est le nombre d’équations, et N = n + 1 où n est le nombre d’inconnues.
il est très fortement conseillé de s’en tenir à des opérations élémentaires au sens Pour montrer le théorème 2.19, on veut transformer A en une matrice échelonnée
de la définition (2.14). Des opérations sur les lignes mal choisies peuvent changer réduite par une série d’opérations élémentaires sur les lignes. La méthode est divisée
l’ensemble des solutions. Une erreur typique est de réaliser simultanément deux en une phase de descente (permettant d’obtenir une matrice échelonnée qui n’est
remplacements de la forme (Li ) ← (Li ) + k(Lj ) et (Lj ) ← (Lj ) + k0 (Li ). Par pas forcément réduite) et une phase de remontée. Pour illustrer cette méthode, on
exemple : l’applique à la matrice  
1 2 4 7
A = 2 4 8 14  .

 3x = 2 (L1 ) + 2(L2 )
(
x + 2y = 2
(I.16) donne : 1 0 −2 3
x−y =0  x = 1 (L2 ) + 1 (L1 ).
3
2 2 L’utilisation de la notation matricielle n’est pas obligatoire : on peut aussi résoudre
un système en réalisant les opérations décrite plus bas directement sur ce système
Les deux systèmes ci-dessus ne sont pas équivalents : le premier a pour unique solu- plutôt que sur sa matrice augmentée.
tion 23 , 23 , le deuxième a une infinité de solutions : 2
 
3
, y , y ∈ K . Remarquons
que les deux opérations simultanées (L2 ) ← (L2 ) + 12 (L1 ) et (L1 ) ← (L1 ) + 2(L2 )
Phase de descente
ne peuvent pas s’écrire comme deux remplacements successifs. Les lecteurs et lec-
trices sont invités à méditer cet exemple : pratiquement toutes les erreurs dans les Cette phase permet de transformer une matrice quelconque en une matrice éche-
résolutions de systèmes, en dehors des fautes de calcul, sont de cette forme là. lonnée. Elle est divisée en 4 étapes, que l’on doit éventuellement réaliser plusieurs
fois.
2.c. Méthode du pivot de Gauss Etape 1 : choix du pivot. On appelle colonne pivot la première colonne non nulle 2 .
Nous venons de voir qu’un système linéaire sous forme échelonnée réduite peut On choisit sur cette colonne un élément non nul, appelé pivot. Dans notre exemple,
être résolu très facilement. Nous allons maintenant montrer : 2. c’est à dire la colonne la plus à gauche qui n’est pas composée uniquement de zéros

9
I. Systèmes linéaires

la colonne pivot est la première colonne. On peut choisir comme élément pivot le 1 Si A est une matrice échelonnée p × N , et (a0 , . . . , aN ) sont N + 1 scalaires tels
en haut à gauche (en gras). que a0 6= 0, la matrice
 
1 2 4 7
 
a0 a1 ... aN
A = 2 4 8 14 .  0 
1 0 −2 B= ,
 
3 .. A
 . 
0
Etape 2. On échange la première ligne avec la ligne de l’élément pivot. Le pivot
devient ainsi l’élément de tête de la première ligne. Dans notre exemple, l’élément (ou tout autre matrice obtenue à partir de B en rajoutant des colonnes de zéros
pivot est déjà situé sur la première ligne : cette étape ne modifie pas la matrice. à sa gauche) est une matrice échelonnée. De cette remarque, et du fait que toute
matrice ayant une seule ligne est échelonnée, on déduit que la phase de descente
Etape 3. En ajoutant aux autres lignes un multiple adéquat de la première ligne,
de la méthode du pivot aboutit bien, après un certain nombre 3 de passages par les
on annule tous les coefficients de la colonne pivot autre que le pivot. Dans notre
étapes 1 à 4, à une matrice échelonnée.
exemple, cela donne
Pour obtenir une matrice échelonnée réduite, on a besoin de deux étapes supplé-
mentaires, qui constituent la phase de remontée.
 
1 2 4 7
 0 0 0 0  (L2 )−2(L1 ) .
0 −2 −6 −4 (L3 )−(L1 ) Phase de remontée

Etape 4. Si la matrice obtenue est sous forme échelonnée, la phase de descente est Etape 5 : cadrage. On multiplie chaque ligne non nulle par l’inverse de son élément
terminée. Sinon, on applique les étapes 1 à 4 à la matrice à laquelle on a enlevé la de tête, de telle manière que l’élément de tête de la nouvelle ligne vaut 1. Dans
première ligne. notre exemple :
 
Revenons à notre exemple.
 La matrice A a 3 lignes. On applique les étapes 1 1 2 4 7
0 0 0 0 0 0 1 3 2 − 21 (L2 )
à 4 à la matrice A = obtenue à partir de A en enlevant
0 −2 −6 −4 0 0 0 0
la première ligne. En pratique, on continue à écrire cette première ligne, que l’on
ignore.   Etape 6 : on ajoute à chaque ligne un multiple de la dernière ligne non nulle, pour
1 2 4 7
que la colonne au-dessus de l’élément de tête de la dernière ligne ne soit composée
Étape 1’ : On considère donc la matrice 0 0 0 0. La colonne pivot
que de zéros. On répète cette opération avec l’avant-dernière ligne, etc, jusqu’à la
0 −2 −6 −4
deuxième ligne. Sur notre exemple :
(première colonne non nulle lorsqu’on ignore la première ligne) est la deuxième
colonne. On doit choisir comme pivot le −2, situé à la troisième ligne de cette 
1 0 −2

3 (L1 )−2(L2 )
colonne. (I.18)  0 1 3 2 
Étape 2’ : on échange la 2ème et la 3ème ligne, la matrice obtenue est 0 0 0 0
 
1 2 4 7 Par construction, la matrice obtenue à l’issue de la phase de remontée est bien
(I.17) 0 −2 −6 −4 . une matrice échelonnée réduite : on a transformé en 1 tous les éléments de tête, et
0 0 0 0 en 0 tous les coefficients situés au dessus d’un élément de tête.
Ceci termine la démonstration du théorème 2.19 (et son analogue sur les systèmes,
Étape 3’ : les coefficients de la colonne pivot (la deuxième colonne) autre que le
le théorème 2.18) et la description de la méthode du pivot.
pivot sont déjà nuls, il n’y a donc rien à faire. Rappelons que l’on ignore la première
Mentionnons que l’on peut en fait démontrer l’unicité de la forme échelonnée
ligne. Il n’y a donc que le coefficient situé à la troisième ligne de cette deuxième
réduite :
colonne à considérer. Ce coefficient est bien égal à zéro.
Étape 4’ : la matrice obtenue est échelonnée : on arrête ici la phase de descente. 3. au plus p − 1

10
2. Méthode du pivot

Théorème 2.20. Soit A et B deux matrices échelonnées réduites. Supposons que Récapitulons la méthode générale de résolution d’un système linéaire décrite dans
B puisse être obtenue à partir de A par des opérations élémentaires sur les lignes. ce chapitre :
Alors A = B. — Appliquer la phase de descente de la méthode du pivot de Gauss à la matrice
On omet la démonstration, cf par exemple David C. Lay 4 , annexe A. augmentée du système. On obtient une matrice échelonnée.
— Déterminer si le système est compatible : si la colonne de droite contient un
Remarque 2.21. On déduit de l’exemple donné une description paramétrique de élément de tête, le système n’est pas compatible (i.e. il n’y a pas de solution).
l’ensemble des solutions du système : Sinon il est compatible.

— Si le système est compatible, appliquer la phase de remontée du pivot de
 x + 2y + 4z = 7

2x + 4y + 8z = 14 Gauss. On obtient une matrice échelonnée réduite. On peut alors donner une
 description paramétrique de l’ensemble des solutions à l’aide de cette matrice
x − 2z = 3

échelonnée réduite.
dont la matrice augmentée est la matrice A. Le système est compatible : il n’y a pas Donnons un autre exemple, cette fois avec des coefficients complexes. On consi-
d’élément de tête sur la dernière colonne de la matrice échelonnée réduite obtenue dère le système :
en (I.18). Il y a deux variables de base, x et y, et une variable libre z. L’ensemble 
des solutions est donné par  4z1 − (3 + i)z2 − (9 + 3i)z3 = 5 − 3i

(S) 2z1 − 2z2 − 6z3 = 2 − 2i
{(3 + 2z, 2 − 3z, z), z ∈ K}. 

4z1 − (2 + 2i)z2 − (6 + 6i)z3 = 6 − 2i
Remarquons que la compatibilité du système pouvait se vérifier à la fin de la phase Appliquons la méthode du pivot à sa matrice augmentée :
de descente, sur la forme échelonnée non réduite (I.17). La phase de descente per-  
met, lorsque le système est compatible, de décrire plus simplement l’ensemble des 4 −3 − i −9 − 3i 5 − 3i
solutions.  2 −2 −6 2 − 2i 
4 −2 − 2i −6 − 6i 6 − 2i
En combinant la méthode du pivot de Gauss avec la description de l’ensemble
des solutions d’un système sous forme échelonnée réduite (cf la proposition 2.8), on
Phase de descente
obtient la propriété suivante, qui généralise la remarque 1.15 à tous les systèmes
Etape 1 : choix du pivot. La colonne pivot est la première colonne. Le pivot est
linéaires :
le 2 en gras.
Théorème 2.22. L’ensemble des solutions d’un système linéaire est vide, ou réduit Etape 2 : on place la ligne du pivot en première ligne (opération (L1 ) ↔ (L2 ))
à un seul élément, ou infini.  
2 −2 −6 2 − 2i
Exercice 2.23. Combien de paramètres faut-il pour décrire chacun des systèmes  4 −3 − i −9 − 3i 5 − 3i 
suivants ? 4 −2 − 2i −6 − 6i 6 − 2i
 
( 2x + 3y = 4 x + (1 + i)y + z = 2
 Etape 3 :
x+y+z =1   
(S1 ) (S2 ) y+z =1 (S3 ) x+y =1 2 −2 −6 2 − 2i
y + 2z = 2  0 1−i 3 − 3i 1+i 
 
z=2 iy + z = 1 (L2 )−2(L1 )
 
0 2 − 2i 6 − 6i 2 + 2i (L3 )−2(L1 )
(cf correction p. 14).
Etape 4 : on repasse à l’étape 1 en ignorant la première ligne.
Remarque 2.24. Il y a plusieurs variantes (parfaitement équivalentes) de la méthode Etape 1’ : la colonne pivot est la deuxième colonne. On choisit le 1 − i sur la
du pivot que nous venons de décrire. On peut par exemple échanger les étapes 5 deuxième ligne de cette colonne comme élément pivot.
et 6. On peut aussi réaliser l’étape de cadrage 5 pendant la phase de descente. Etape 2’ : la ligne pivot est la deuxième ligne donc la “première” si on ignore la
Dans tous les cas il est important de n’utiliser que des opérations élémentaires sur première ligne. Il n’y a rien à faire.
les lignes (cf l’avertissement 2.17). Ceci est particulièrement important lorsque l’on Etape 3’ :
cherche à résoudre des systèmes avec paramètres (cf §3 p. 12). 
2 −2 −6 2 − 2i

4. David C. Lay. Algèbre linéaire : Théorie, exercices et applications. Troisième édition,


 0 1 − i 3 − 3i 1+i 
2004 0 0 0 0 (L3 )−2(L2 )

11
I. Systèmes linéaires

Etape 4’ : la matrice obtenue est échelonnée. La phase de descente est terminée. serait infini. On a donc n = q : la forme échelonnée réduite du système a n lignes
On remarque que la colonne de droite ne contient aucun élément de tête : le sys- non nulles, aucune ligne nulle (car il y a n lignes en tout), et s’écrit donc :
tème est compatible. On passe à la phase de remontée pour obtenir une matrice
x1 = b01

échelonnée réduite. 

x2 = b02


Phase de remontée (I.19)

Etape 5 : 

xn = b0n .
  
1 −1 −3 1−i 1 (L )
2 1
 0 1 3 i  1 (L )
2
1−i Lorsque l’on change le membre de droite du système (S) sans toucher au membre
0 0 0 0 de gauche, on ne change que le membre de droite du système (I.19), puisque ce
Etape 6 : on utilise la ligne (L2 ) pour annuler l’élément de la deuxième colonne dernier est obtenu par des opérations élémentaires sur les lignes qui ne mélangent
au-dessus de l’élément de tête : jamais le membre de gauche et le membre de droite des équations. Ceci montre que
  tout système obtenu à partir de (S) en ne changeant que le membre de droite n’a
1 0 0 1 (L1 )+(L2 )
qu’une seule solution.
 0 1 3 i 
0 0 0 0 Définition 2.27. Un système (S) vérifiant les hypothèses de la proposition 2.26
est appelé système de Cramer. Un système de Cramer est donc par définition un
La matrice obtenue est sous forme échelonnée réduite. Il y a une variable libre, système linéaire ayant autant d’inconnues que d’équations et une unique solution.
z3 , et deux variables de base, z1 et z2 . Une description paramétrique de l’ensemble De manière équivalente, c’est un système à n équations et n inconnues qui a une
des solutions est donnée par : forme échelonnée réduite du type (I.19).
{(1, i − 3z, z), z ∈ C}. Remarque 2.28. D’après la proposition 2.26, le fait d’être un système de Cramer
ne dépend pas du second membre du système, mais seulement de ses coefficients.
Exercice 2.25. Résoudre le système
Exercice 2.29. Dire avec le moins de calculs possibles si les systèmes suivants ont
une unique solution, pas de solution ou une infinité de solutions. On identifiera en

2x − 2y − 4z = −12

particulier les systèmes homogènes et les systèmes de Cramer. Les systèmes (S1 ),
−x + y + 3z = 9
 (S2 ) et (S3 ) ont pour inconnues x, y et z. Les systèmes (S4 ) et (S5 ) x, y, z et t.
x − y + z = 3.

  
 x + 3y + z = 2
  x + 3y + z = 4
  x + 3y + z = −17

2.d. Système de Cramer (S1 ) x + y + 2z = −5 , (S2 ) x + y + 2z = 1 , (S3 ) x + y + 2z = 2
  
x + 3y + 2z = 2 x + 3y + 2z = 3 x + 3y + 2z = 5
  
Les coefficients (aij ) d’un système linéaire (S) étant fixés, la compatibilité de (S) 
dépend en général de son second membre (bi ). On présente ici un cas particulier im- 
 x + 2y + z + t = 0
portant, appelé système de Cramer pour lequel le système est compatible quelques (S4 ) x + y − z + 5t = 0 , (S5 ) x = 2y + 2t = 3z + 4(x + y) = 6x + y + z + t.
soient les bi . 
2x + y + 2z + 4t = 0

Proposition 2.26. Soit (S) un système linéaire de n équations à n inconnues.
(cf correction p. 14).
Supposons que (S) a une et une seule solution. Alors tout système obtenu à partir
de (S) en changeant seulement le second membre a une seule solution.
3. Systèmes avec paramètres
Preuve de la proposition 2.26. Par des opérations élémentaires sur les lignes, on
peut, d’après la méthode du pivot de Gauss, se ramener à un système sous forme On considère parfois une famille de systèmes (Sλ ) dépendant d’un paramètre λ.
échelonnée réduite (S’) ayant le même ensemble de solutions que (S). Soit q le Le but est de résoudre le système selon les valeurs de λ. Il faut traiter ce type de
nombre de lignes non nulles de ce système. Le système étant compatible, le nombre problème avec précaution. Une erreur classique est de diviser une équation par une
de paramètres permettant de décrire l’ensemble des solutions est, d’après la propo- quantité, dépendant de λ, qui s’annule pour une certaine valeur de λ. On donne ici
sition 2.8, n − q. Mais on ne peut pas avoir n − q ≥ 1, sinon l’ensemble des solutions deux exemples de résolutions détaillées.

12
4. Réponse à certains exercices

Exercice 3.1. Résoudre, selon la valeur de λ ∈ R, le système suivant : Le système obtenu est presque sous forme échelonnée (il suffirait d’échanger les
 lignes 2 et 3). La ligne 2 se lit 4 − 2λ = 0. On distingue deux cas :
 −x + (2λ − 6)y − 2z
 = −7
1er cas : λ 6= 2. La ligne 2 est contradictoire. Le système n’est pas compatible.
(I.20) −x + (4λ − 12)y − 2z = −11


x + (3 − λ)y + 2z =5 2ème cas : λ = 2. La ligne 2 se lit 0 = 0. En notant x et y les variables, le système
est équivalent à :
Correction. On applique la méthode du pivot de Gauss. x − 3y = −2 et 2y = 4,
soit (x, y) = (4, 2).


 x + (3 − λ)y + 2z =5 (L3 )
−x + (4λ − 12)y − 2z = −11 Remarquons que l’on peut parfois ramener un système non-linéaire à un système


−x + (2λ − 6)y − 2z = −7 (L1 ) linéaire avec paramètre :
 Exercice 3.3. En utilisant les exercices précédents, résoudre les systèmes non-
x + (3 − λ)y + 2z = 5

linéaires :
(−9 + 3λ)y = −6 (L2 ) + (L1 )  
 −x1 + (2x2 − 6)x3 − 2x4 = −7 x − (1 + z)y = z − 4

(−3 + λ)y = −2 (L3 ) + (L1 )
  

(S1 ) −x1 + (4x2 − 12)x3 − 2x4 = −11 (S2 ) −2x + (2 + 2z)y = 12 − 4z
On remarque que les lignes (L2 ) et (L3 ) du dernier système sont équivalentes.
 
x1 + (3 − x2 )x3 + 2x4 = 5 2x − 2zy = −4 + 2z
 
Précisément, (L2 ) vaut exactement 3(L3 ). Le système (I.20) est donc équivalent à
( (cf correction p. 14).
x + (3 − λ)y + 2z = 5
(I.21)
(−3 + λ)y = −2 4. Réponse à certains exercices
Ce système est sous forme échelonnée. En regardant le coefficient de y dans la Exercice 2.7
deuxième ligne, on voit qu’il faut distinguer deux cas.
i. Une matrice à une ligne est toujours sous forme échelonnée. Elle est sous forme
1er cas : λ = 3. La deuxième ligne de (I.21) s’écrit 0 = −2. Le système n’a pas de échelonnée réduite si et seulement si son premier coefficient non nul vaut 1.
solution. L’équation (ou le “système” à une équation) correspondant(e) est sous forme
échelonnée réduite si et seulement si le coefficient de la première variable qui
2ème cas : λ 6= 3 On obtient :
apparaît dans le système vaut 1.
(  
x + 2z = 3 (L1 ) + (L2 ) 0 1 1 2
. ii. La matrice du premier système est , celle du deuxième
(−3 + λ)y = −2 1 0 1 3
 
1 0 1 2
système est . Le premier n’est pas sous forme échelonnée.
En prenant x et y comme variable de base et z comme 0 1 1 3
n o paramètre, on obtient que
2
l’ensemble des solutions est (3 − 2z, 3−λ , z), z ∈ R . Le deuxième est sous forme échelonnée (réduite). Remarquons que la deuxième
matrice est obtenue à partir de la première en échangeant les 2 premières
Exercice 3.2. Résoudre, selon la valeur de λ ∈ R, le système de matrice augmentée : colonnes. Cela revient, sur le sysème correspondant, à échanger les variables
  x1 et x2 .
1 −(1 + λ) λ−4
(I.22)  −2 2 + 2λ 12 − 4λ  iii. échelonnée non réduite/ non échelonnée / échelonnée réduite.
2 −2λ −4 + 2λ iv. échelonné réduit/ échelonné non réduit / non échelonné.
Exercice 2.10
Correction.   n
1 −(1 + λ) λ−4 ii. L’ensemble des solutions du deuxième système est donné par : (2 − x3 , 3 −
 0 0 4 − 2λ  (L2 )+2(L1 ) o
0 2 4 (L3 )−2(L1 ) x3 , x3 ), x3 ∈ K .

13
I. Systèmes linéaires

iii. L’ensemble des solutions du système dont n la matrice augmentée est Par les remplacements (L2 ) ← (L2 ) − (L1 ) et (L3 ) ← (L3 ) − (L1 ), on voit que le
la troisième matrice est donné par (x1 , x2 , 1 − 2x5 − 3x6 , −2 + système (S1 ) est équivalent au système
o
3x6 , x5 , x6 ), (x1 , x2 , x5 , x6 ) ∈ K4 .

x + 3y + z = 2

−2y + z = −7
iv. Le système (S1 ) a évidemment pour unique solution (1, 2, 3). 
z=0

Exercice 2.11
La matrice a) est sous forme échelonnée. La dernière colonne ne contient pas Ce dernier système est un système échelonné compatible à trois équations non nulles
d’élément de tête : le système est compatible. Pour décrire l’ensemble des solutions, pour trois inconnues : c’est donc un système de Cramer, qui a une unique solution.
ont peut facilement mettre la matrice sous forme échelonnée réduite (par le rempla- De plus, par la Proposition 2.26 sur les systèmes de Cramer, tout système obtenu
cement (L1 ) ← (L1 ) + (L2 )). On obtient la matrice (en omettant la dernière ligne, à partir de (S1 ) en ne changeant que le second membre sont aussi des systèmes de
inutile, qui signifie 0 = 0) : Cramer : on en déduit que (S2 ) et (S3 ) sont des systèmes de Cramer (et ont donc
chacun une et une seule solution).

1 2 3 0 4
 Le système (S4 ) est un système homogène avec 3 équations et 4 inconnues. Il a
. donc une infinité de solutions. Le système (S5 ) est équivalent à :
0 0 0 1 2

x − (2y + 2t) = 0
Les variables de base sont x1 et x4 , les variables libres x2 et x3 . Une description


paramétrique de l’ensemble des solutions est donnée par : x − 3z − 4(x + y) = 0

x − (6x + y + z + t) = 0

n o
(4 − 2x2 − 3x3 , x2 , x3 , 2), (x2 , x3 ) ∈ K2 . C’est donc aussi un système homogène à 3 équations et 4 inconnues : il a une infinité
de solutions.
La matrice b) n’est pas sous forme échelonnée. La dernière ligne de cette matrice Exercice 3.3
signifie 3 = 0 : le système n’est pas compatible. Les deux systèmes proposés ne sont pas des systèmes linéaires, mais se ramènent
La matrice c) est échelonnée réduite. L’ensemble des solutions est : à des systèmes linéaires en fixant une des variables.
Si l’on fixe x2 , le système (S1 ) est un système linéaire d’inconnues (x1 , x3 , x4 ).
Plus précisément, c’est exactement le système (I.20) avec x = x1 , y = x3 , z = x4
n o
(1 + 3x4 , 2 − 3x4 , −4x4 , x4 ), x4 ∈ K .
et le paramètre λ = x2 . L’ensemble des solutions est donné par la résolution du
système (I.20) :
Exercice 2.23   
Les systèmes (S1 ) et (S2 ) sont sous forme échelonnée et compatibles (ils ne 2
3 − 2x4 , x2 , , x4 , x2 ∈ R \ {3}, x4 ∈ R .
contiennent pas de ligne de la forme 0 = c avec c non nulle). Le système (S1 ) a 3 3 − x2
inconnues et 2 lignes non nulles, on décrit l’ensemble des solutions avec 3 − 2 = 1
paramètre. Le système (S2 ) a 3 inconnues et 3 équations : on décrit l’ensemble Si l’on fixe z, le système (S2 ) est un système linéaire. Plus précisément, c’est le
des solutions avec 3 − 3 = 0 paramètre : il a une unique solution (en l’occurrence système d’inconnue (x, y), dont la matrice augmentée est donnée par (I.22) avec
(x, y, z) = (7/2, −1, 2)). z = λ. On déduit de la résolution de ce système que l’unique solution du système
(S2 ) est (x, y, z) = (4, 2, 2).
Le système (S3 ) n’est pas sous forme échelonnée. De fait, la ligne (L1 ) est la
somme des lignes (L2 ) et (L3 ). Il est équivalent au système (S30 ) obtenu en reti-
rant la ligne (L3 ) au système (S3 ). Ce système (S30 ) est échelonné, on peut décrire
l’ensemble des solutions de (S3 ) avec 3 − 2 = 1 paramètre.
Exercice 2.25 : on montre en utilisant la méthode du pivot de Gauss qu’il y a une
infinité de solutions et que l’ensemble des solutions peut s’écrire {(x, x, 3), x ∈ K} .

Exercice 2.29

14
5. Travaux dirigés

5. Travaux dirigés Exercice I.6. Dans le Plan P muni d’un repère (0,~i, ~j), on considére les deux droites
D1 et D2 d’équation respective : x + y = 1 et 3x − 2y = 3. Déterminer les coor-
Comme dans le reste du chapitre, K désigne Q, R ou C. données du point A, intersection des droites D1 et D2 . Donner la forme générale
Exercice I.1. de l’équation cartésienne d’une droite de P passant par A. Retrouver cette forme
a. Soit a, b des éléments de K. Donner selon les valeurs de a et b l’ensemble des pour les équations de D1 et D2 .
solutions de l’équation Exercice I.7.
a x = b,
a. En utilisant des opérations élémentaires sur les lignes, mettre chacune des ma-
d’inconnue x. trices de l’exercice I.4 sous forme échelonnée réduite.
b. Soient a1 , b1 , a2 , b2 des éléments de K. Donner selon la valeur de ces paramètres b. Déterminer les solutions des systèmes correspondant à ces matrices.
l’ensemble des solutions du système
( Exercice I.8.
a1 x = b1 a. Résoudre les systèmes suivants sur R :
a2 x = b2  
Exercice I.2. −x1 − 2x2 − 4x3 = −11
 3x − 16y − 11z = −6

−x1 − 4x2 − 6x3 = −19 , −2x + 6y + 5z = −1
a. Donner 2 solutions (x, y, z) de l’équation 2x − y + 2z = 4. Décrire sous forme  
x1 + x2 + 3x3 = 7 x − 4y − 3z = 0
 
paramétrique l’ensemble des solutions (réelles) de cette équation.
b. Soit a, b et c des nombres réels. Exprimer (selon les valeurs des paramètres a, b b. Résoudre sur R les systèmes de matrices augmentées :
et c) l’ensemble des solutions réelles (x, y) de l’équation
 
  −2 −4 −4 4 0
ax + by = c. −9 −25 30 49
 −3
 2 4 4 −1 −3 
−9 9 12  ,  
c. Vérifier que dans tous les cas précédents, le système a ou bien une seule solution,  −1 −2 −2 −1 3 
0 1 2 8
ou bien une infinité de solutions, ou bien pas de solution du tout (mais jamais un 1 2 2 4 −6
nombre fini, non nul de solutions).
Exercice I.3. Décrire sous forme paramétrique l’ensemble des solutions (réelles) du Exercice I.9. Résoudre les systèmes suivants sur C :
système d’inconnues x, y et z 
−2ix + 3iy + (1 − 2i)z = 1
(
2x − 4y + (4 − 4i)z = 6 + 2i
( 
x+y+z =1 , x + (i − 2)y + (2 − i)z = 0
−ix + iy − (1 + 2i)z = 1 − 2i.
x − y + z = 2.

−ix + iy + (1 − i)z = i

Exercice I.4. Les matrices suivantes sont-elles sous forme échelonnée ? Sous forme
Exercice I.10. Pour chacune des matrices augmentées suivantes dire sans aucun
échelonnée réduite ? (cf §2.a p. 6).
calcul si le système correspondant a une solution, aucune solution ou une infinité
 
1 0 2 −1     de solutions :
 0 1 3 1 2 3 −1 i + 1 2i 2 −2
3   
2 4 5 3 0 2i 1 4 + 2i     3 4 3 5 −1
0 0 0 0 4 −2 −3 6 0 1 5 −1 3 2  0 1 −1
 3 7 −6 
6 3 18 0   2 4 5 6 4  
 0 0
.
Écrire les systèmes correspondant à ces matrices. 2 30 1 
5 2 −2 4 0 0 0 0 0 2
Exercice I.5. Donner toutes les fonctions f , de la forme 0 0 0 −1 2

f (x) = a sin(x) + b cos x + c sin(2x), Exercice I.11.


 
3
avec (a, b, c) ∈ R telles que −1 −1 −3 0
Z π/2 a. Résoudre le système (réel) de matrice augmentée  3 2 10 0  . Est-ce
π
−2 −1 −8 0
f = 2 et f (x) dx = 1.
4 −π/4 un système de Cramer ?

15
I. Systèmes linéaires

 Soit (a, b, c) ∈
b. R3 .Combien de solutions a le système de matrice augmentée : Exercice I.19. Résoudre, selon la valeur du paramètre a ∈ R, le système linéaire,
−1 −1 −3 a d’inconnues (x, y, z) ∈ R3 :
 3 2 10 b ? Résoudre ce système. 
−2 −1 −8 c 
 x + ay + z = 0
Exercice I.12. Utiliser la méthode du pivot de Gauss pour résoudre un système x + y + 2z = 4

homogène général de deux équations à deux inconnues x et y : 2x + 2ay + 3z = 4.

(
ax + by = 0 Exercice I.20. A quelles conditions sur les réels a, b et c le système suivant est-il
compatible ?
cx + dy = 0. 
−3x − 4y − 7z = a

A quelle condition sur les paramètres a, b, c et d est-ce un système de Cramer ? −x − 6y − 7z = b

x + 4y + 5z = c.

Exercice I.13. A quelles conditions sur les réels a, b et c le système suivant est-il
compatible ? Exercice I.21. Résoudre, selon les valeurs du paramètre λ ∈ C, le système suivant,
d’inconnues complexes (x, y, z) :
x + 2z = a, −2x − y − 7z = b et − x − 3y − 11z = c.
λx = 0, λy = 1, iz = λ et x + y + z = 0.
Exercice I.14. Résoudre, selon les valeurs du paramètre a ∈ R, les systèmes suivants,
d’inconnues réelles (x, y, z) :
 
 (2 + a)x + 2y + (3 + 2a)z = 1 + 3a
 
 −x + (1 − 2a)y + a = 0
−3y + (7 − 3a)z = 7a 3x + (7a − 4)y + 2z − 6 − 3a = 0
 
(4 + 2a)x + 5y + (3 + 5a)z = 2 + 3a (a − 1)y + 3z − 9 = 0.
 

Exercice I.15. Soit le système

 x + ay + a2 z

= 1
x + by + az = a
bx + a2 y + a2 bz = a2 b

de trois équations à trois inconnues réelles x, y et z où a et b sont des paramètres


réels.
a. A quelle condition portant sur a et b, ce système est-il de Cramer ?
b. Étudier et discuter les solutions de ce système lorsqu’il n’est pas de Cramer.

6. Exercices à préparer pour le contrôle continu


Exercice I.16. (Cours). Donner la définition d’un système de Cramer. Donner un
exemple de système de Cramer à deux équations, deux inconnues.
Exercice I.17. Résoudre n’importe quel “petit” système linéaire réel ou complexe.
Exercice I.18. Résoudre dans R le système linéaire suivant, d’inconnues x1 , x2 et
x3 :
Pour tout j variant de 1 à 3, 3k=1 (j − k)xk = j.
P

16
II. Introduction aux matrices
 
Référence : Liret-Martinais 1 , chapitre 4. 1 i −5
est une matrice complexe 2 × 3 (attention ici i est le nombre
3 4 7+i
Nous avons déjà rencontré des tableaux de nombres, ou matrices. Nous allons étu- complexe
 tel que i2 = −1, ce n’est pas l’indice des lignes ! )
dier ici ces matrices de manière plus systématique, en définissant notamment des −1 0
√ 1 est une matrice réelle 3 × 2.
opérations (additions, multiplications. . . ) sur des ensembles de matrices. Les moti- 7 3, 
vations de ce chapitre sont d’une part de mieux comprendre les systèmes linéaires, 2 3
qui peuvent être vus comme des équations matricielles, d’autre part d’introduire
Définition 1.3. On dit que deux matrices de même taille A = [aij ] 1≤i≤p et
des notions et des méthodes utiles pour l’algèbre linéaire proprement dite qui sera 1≤j≤n
l’objet de la suite du cours (à partir du chapitre V sur les espaces vectoriels). B = [bij ] 1≤i≤p sont égales lorque tous leur coefficients sont égaux, i.e. ∀i ∈
1≤j≤n
Comme dans le chapitre précédent, on notera K = Q, R ou C.
{1, . . . , p}, ∀j ∈ {1, . . . , n}, ai,j = bi,j . On note alors A = B.
   
1 2 2 3
1. Définitions. Opérations sur les matrices Exemples 1.4. Les matrices et ne sont pas égales.
3 4 1 4
 
1.a. Définitions 3 4
Les matrices [2i + j] 1≤i≤3 et 5 6 sont égales.
Définition 1.1. Soient p et n deux entiers ≥ 1. Une matrice p × n à coefficients 1≤j≤2
7 8
dans K est un tableau de nombres (c.à.d. d’éléments de K) à p lignes et n colonnes,
que l’on note : Définition 1.5. Une matrice colonne (ou un vecteur colonne) à p coefficients est

a11 a12 . . . a1n
 un élément de Mp,1 (K).
a21 a22 . . . a2n  Une matrice ligne (ou un vecteur ligne) à n coefficients est un éléments de
A= .

.. ..  ,
 M1,n (K).
 .. . . 
 a1j 
a2j
ap1 ap2 ... apn La j-ième colonne de la matrice [aij ] 1≤i≤p est la matrice colonne  .. , sa
1≤j≤n .
ou A = [aij ] 1≤i≤p , ou encore, quand il n’y a pas d’ambiguité sur p et n, A = [aij ]. apj
1≤j≤n i-ième ligne la matrice ligne [ ai1 ai2 ... ain ].
Les aij ∈ K sont appelés coefficients (ou éléments) de A. Le coefficient aij est situé
à la i−ème ligne et j−ième colonne (le premier indice indique toujours la ligne, le
deuxième la colonne). 1.b. Multiplication par un scalaire et additions
L’ensemble des matrices p × n est noté Mp,n (K), ou plus simplement Mp,n . On définit maintenant deux opérations qui se font coefficient par coefficient.
Lorsque p = n, on dit que la matrice est carrée. On note simplement Mn (K) (ou
Mn ) au lieu de Mn,n (K) l’ensemble des matrices carrées de taille n. On dit que Définition 1.6. Soit λ ∈ K et A ∈ Mp,n (K). Le produit de A par λ, noté λA, est
deux matrices sont de même taille, ou de même dimension lorsqu’elles ont le même la matrice de Mp,n (K) obtenue en multipliant chaque coefficient de A par λ : si A
nombre de lignes et le même nombre de colonnes. est la matrice [aij ], λA est la matrice [λaij ].

Exemples 1.2. La matrice nulle de Mp,n (K) est la matrice dont tous les coefficients Définition 1.7. Soient A, B ∈ Mp,n (K). La somme de A et B, notée A + B est la
sont nuls. Elle est notée 0, ou plus précisément 0p,n quand on veut préciser le nombre matrice de Mp,n obtenue en sommant les coefficients de A et de B deux à deux :
de lignes et de colonnes. si A = [aij ] et B = [bij ], A + B est la matrice [aij + bij ].

1. François Liret et Dominique Martinais. Algèbre 1re année - Cours et exercices avec so- Avertissement 1.8. La somme de deux matrices n’est définie que si ces matrices
lutions. Dunod, deuxième édition, 2003 sont de même taille.

17
II. Introduction aux matrices

Exemples 1.9. Exemples 1.15.


t  t 
1 −2
   
    1 3−i 3+i 10   2 t   
0 −2 0 −34 3 1 3 0   1 3 1 3
17 = , (3 + i)  i −1  = 3i − 1 −3 − i 4 = ,  3 = 2 3 4 = .
0 1 0 17 −2 4 5 3 2 3 2
0 −i 0 1 − 3i 0 5 4
 
        4 7 Le dernier exemple de matrice A est une matrice carrée qui vérifie A = tA : on
1 −1 4 7 5 6 1 −1
+ = , + 2 −2 n’est pas définie. dit que A est symétrique.
2 3 −2 2 0 5 2 3
3 0 On déduit immédiatement de la définition de la transposée :
[i + j] 1≤i≤3 + [2i − j] 1≤i≤3 = [3i] 1≤i≤3 .
1≤j≤2 1≤j≤2 1≤j≤2 Proposition 1.16. Soient A, B ∈ Mp,n (K), λ ∈ K.
t t t
Les propriétés suivantes découlent immédiatement des propriétés (commutativité, ( A) = A, (A + B) = tA + tB, t
(λA) = λ tA.
associativité, distributivité) de l’addition et de la multiplication sur K.
1.d. Multiplication des matrices
Proposition 1.10. Soient A, B ∈ Mp,n (K), λ, µ ∈ K.
i. (commutativité) A + B = B + A. La définition de la multiplication est plus délicate que celle des opérations pré-
cédentes, et nous allons la diviser en deux étapes. Soulignons que contrairement à
ii. (associativité) (A + B) + C = A + (B + C) (on note leur valeur commune l’addition, il ne s’agit pas d’une opération coefficient par coefficient.
A + B + C).
iii. λ(A + B) = λA + λB. Multiplication d’une matrice ligne par une matrice colonne
iv. λ(µA) = (λµ)A (on note la valeur commune λµA). Définition 1.17. Soit A = [ai ]1≤i≤n ∈ M1,n (K) une matrice ligne et B =
v. 0 + A = A. [bj ]1≤j≤n ∈ Mn,1 (K) une matrice colonne ayant le même nombre de coefficients.
Le produit AB de A et B est le scalaire :
vi. A + (−1)A = 0.
n
X
Exercice 1.11. Démontrer les propriétés de la proposition. AB = aj bj = a1 b1 + a2 b2 + . . . + an bn .
j=1
Notation 1.12. On note −A la matrice (−1)A et A − B la somme A + (−B),
appelée différence de A et B. Avertissement 1.18. On ne peut pour l’instant multiplier qu’un vecteur ligne et un
vecteur colonne ayant le même nombre de coefficients, et dans cet ordre.
1.c. Transposition Exemple 1.19.  
 −1
Définition 1.13. La transposée de la matrice A = [aij ] 1≤i≤p ∈ Mp,n (K) est la

3 4 5  i  = −3 + 4i + 10 = 7 + 4i.
1≤j≤n
t 2
matrice [aji ]1≤i≤n de Mn,p (K). On la note A. Les coefficients de la i-ième ligne de
1≤j≤p
t
A sont ceux de la i-ième colonne de A, et inversement, les coefficients de la j-ième Cas général
colonne de tA sont ceux de la j-ième ligne de A.
Définition 1.20. Soit A = [aij ] 1≤i≤p ∈ Mp,n (K) et B = [bij ]1≤i≤n ∈ Mn,q (K)
1≤j≤n 1≤j≤q
On rencontre aussi, en particulier dans les ouvrages en anglais, la notation AT deux matrices telles que le nombre de colonnes de A est égal au nombre de lignes de
au lieu de tA. B. Le produit de A et B, noté AB, A.B ou A × B est la matrice de Mp,q (K) dont
Avertissement 1.14. Lorsqu’on transpose une matrice, on inverse le nombre de le coefficient (i, j) est le produit (au sens de la définition 1.17) de la i-ième ligne de
lignes et le nombre de colonnes. Par exemple, la transposée d’une matrice ligne est A par la j-ième colonne de B. Le produit A × A d’une matrice carrée A est noté
une matrice colonne et la transposée d’une matrice colonne est une matrice ligne. A2 et appelé carré de A. On définit de même la puissance n-ième An = A × . . . × A
La transposée d’une matrice 2 × 4 est une matrice 4 × 2 etc... (n fois) d’une matrice carrée A.

18
1. Définitions. Opérations sur les matrices

Remarque 1.21. Il faut savoir déduire de la définition du produit matricielle une Exercice 1.26. On considère les matrices
fonction en C retournant le produit de deux matrices données (cf les travaux dirigés    
    1 2 3 0 0
et travaux pratiques d’algorithmique). 1 2 2 1+i −3
A= , B= , C= 0 0 0 , D = −3 −6 .
Remarque 1.22. On déduit immédiatement de la définition la formule du produit −3 i 2 1 0
−1 0 0 −2 −4
matriciel suivante : si AB = [cij ]1≤i≤p , alors
1≤j≤q
Donner les valeurs des produits et des carrés de ces matrices (16 opérations poten-
n
X tielles) lorsqu’ils sont définis.
(II.1) cij = aik bkj .
(cf réponses p. 28).
k=1
Soit n un entier ≥ 1. On note In la matrice de Mn (K) dont la diagonale principale
Avertissement 1.23. La matrice AB n’est définie que lorsque le nombre de colonnes est composée de 1 et dont tous les autres coefficients sont nuls :
de A est égal au nombre de lignes de B. Le nombre de lignes de AB est le nombre
de lignes de A. Le nombre de colonnes de AB est le nombre de colonnes de B. (II.2) In = [δij ] 1≤i≤n , δii = 1, i 6= j ⇒ δij = 0.
1≤j≤n
 
  · ·  
· · · ·  · · Le symbole δij est appelé symbole de Kronecker.
· · · · · · = · · .

· · Exemple 1.27.
· · · · · ·
 
· ·
  1 0 0 0
1 0 0 0 1 0 0
(3, 4) (4, 2) (3, 2). I3 = 0 1 0 , I4 = 
0
.
0 1 0
0 0 1
Exemple 1.24. Pour toute matrice A, 0.A = A.0 = 0. Ici 0 désigne n’importe quelle 0 0 0 1
matrice nulle de dimension appropriée. Attention : les trois 0 ne désignent pas Proposition 1.28. Soient A ∈ Mp,n (K), alors
forcément les mêmes matrices nulles ! On peut écrire plus précisément, si A ∈ Mp,n
AIn = Ip A = A.
0q,p A = 0q,n , A0n,q = 0p,q .
Exercice 1.29. Démontrer la proposition précédente à l’aide de la formule (II.1).
Exemples 1.25.   
2 3 1
3 Définition 1.30. La matrice In est appelée matrice identité.
4 5  2
0  n’est pas défini.
7 −1 −1
2 On donne maintenant les propriétés de base de la multiplication matricielle :

2

3  

4 −9 0 2
 Théorème 1.31. Soient A, B et C des matrices.
−1 0 0 1
4 5 = 6 −15 0 4 . i. Associativité : si A ∈ Mp,n , B ∈ Mn,q et C ∈ Mq,r ,
2 −3 0 0
7 −1 −9 3 0 7
    (AB)C = A(BC).
3   6 3 −21 3
4 2 1 −7 1 =  8 4 −28 4 On note simplement ABC le produit des trois matrices.
5 10 5 −35 5 ii. Distributivité à gauche : si A ∈ Mp,n et B, C ∈ Mn,q ,
En pratique, pour calculer le produit [cij ] de deux matrices A et B, on peut les
disposer de telle manière que le coefficient cij à calculer soit aligné sur la i-ième A(B + C) = AB + AC.
ligne de A et la j-ième colonne de B :
  iii. Distributivité à droite : si A, B ∈ Mp,n et C ∈ Mn,q ,
−1 0 0 1
2 −3 0 0 (A + B)C = AC + BC.
  
2 3 4 −9 0 2 iv. Si A ∈ Mp,n , B ∈ Mn,q et λ ∈ K,
4 5  6 −15 0 4 .
7 −1 −9 3 0 7 λ(AB) = (λA)B = A(λB).

19
II. Introduction aux matrices

v. Si A ∈ Mp,n , B ∈ Mn,q , 1.e. Systèmes linéaires et matrices


t
(AB) = t B tA.
La multiplication matricielle permet une nouvelle interprétation des systèmes
linéaires. Considérons un système linéaire à p équations et n inconnues :
Démonstration. On démontre (i). Les preuves (plus simples) des autres propriétés
sont laissées au lecteur. Remarquons que les matrices (AB)C et A(BC) sont bien

 a11 x1 + a12 x2 + · · · + a1n xn = b1
de même taille p × r. On note


 21 x1 + a22 x2 + · · · + a2n xn = b2
a


(S)
AB = [dij ]1≤i≤p , (AB)C = [eij ] 1≤i≤p , BC = [fij ]1≤i≤n et A(BC) = [gij ] 1≤i≤p .  .. .. ..
1≤j≤q 1≤j≤r 1≤j≤r 1≤j≤r  . . .



a x + a x + · · · + a x = b p.

p1 1 p2 2 pn n
Notre but est de montrer
Soit A = [aij ] 1≤i≤p la matrice des coefficients de (S). On note
(II.3) ∀i ∈ {1, . . . , p}, ∀j ∈ {1, . . . , r}, eij = gij . 1≤j≤n
   
Par la formule du produit matriciel (II.1), b1 x1
 b2   x2 
q q q
!
n n n B =  . , X =  . .
   
 ..   .. 
X X X X X X
dij = ai` b`j , eij = dik ckj = ai` b`k ckj = (ai` b`k ckj )
`=1 k=1 k=1 `=1 k=1 `=1 bp xn
q n n q q n
X X X X X X
fij = bik ckj , gij = ai` f`j = ai` b`k ckj = (ai` b`k ckj ) , Alors le système (S) est équivalent à l’équation matricielle :
k=1 `=1 `=1 k=1 k=1 `=1
AX = B.
d’où (II.3).
Exemple 1.36. Le système linéaire

P Refaire le calcul précédent lorsque p = q = r = n = 2, sans utiliser


Exercice 1.32. (
2x1 + 3x2 −x3 = 1
le symbole .
−x1 +x3 = 5
Exercice 1.33. Démontrer les propriétés (ii), (iii), (iv), (v) du théorème.
Remarque 1.34. Soit A = [a] et B = [b] des matrices 1 × 1, avec a ∈ K et b ∈ K. est équivalent à l’équation
Alors A + B = [a + b] et AB = ab. L’ensemble M1 (K) muni de l’addition et de la 
 
 x1  
multiplication matricielles s’identifie à K, muni de l’addition et de la multiplication 2 3 −1   1
x2 = .
usuelles. −1 0 1 5
x3
On termine cette partie par une mise en garde :
Exercice 1.37. Ecrire les systèmes linéaires du chapitre I sous forme matricielle.
Avertissement 1.35. Soient a, b ∈ K. Alors

(II.4) ab = 0 =⇒ a = 0 ou b = 0 (régularité de la multiplication scalaire) 1.f. Formule du binôme


(II.5) ab = ba (commutativité de la multiplication scalaire). On rappelle que si a, b sont deux nombres complexes et n ≥ 1, on a la formule
du binôme : !
n
Les propriétés analogues pour la multiplication matricielle sont fausses en générale n
X n k n−k
(sauf pour les matrices 1 × 1 qui sont des scalaires !) Par exemple : (a + b) = a b ,
k
k=0
    
0 1 1 1 0 0 où les nk sont les coefficients du binôme :

= =0
0 0 0 0 0 0 !
 
1 1 0 1
 
0 1
  
0 1 1 1
 n n!
= 6= . = .
0 0 0 0 0 0 0 0 0 0 k (n − k)!k!

20
2. Matrices inversibles : définitions et exemples

Rappelons encore que ces coefficients du binôme vérifient la relation de récurrence : Proposition 2.3. Si A ∈ Mn (K) est inversible, il existe un unique B ∈ Mn (K)
! ! ! tel que
n+1 n n
(II.6) = + .
k+1 k k+1 (II.8) AB = BA = In .

Cette formule du binôme reste vraie pour des matrices carrées, lorsque ces matrices La matrice B est appelée inverse de A, et notée A−1 . L’unicité signifie que si M ∈
commutent. Mn (K) vérifie M A = In ou AM = In , alors M = A−1 .
Proposition 1.38. Soit A, B ∈ Mn (K) telles que En d’autres termes, si une matrice est inversible, l’inverse à gauche et l’inverse à
AB = BA. droite de cette matrice sont uniques et égaux.

Alors Démonstration. Il suffit de montrer que si AB = In et CA = In , alors B = C. La


matrice B donnée par la définition 2.1 vérifiera alors (II.8), et sera bien unique au
n
!
X n
(II.7) (A + B)n = Ak B n−k . sens donné par la proposition.
k
k=0 Cette propriété découle de l’associativité de la multiplication matricielle. En mul-
La démonstration, qui est exactement la même que dans le cas scalaire, est laissée tipliant à gauche l’égalité AB = In par C, on obtient
au lecteur. On peut raisonner par récurrence sur n, en utilisant la formule (II.6).
CA B = CIn = C
Exercice 1.39. Trouver deux matrices 2 × 2 A et B, qui ne commutent pas, et telles |{z}
In
que la formule (II.7) soit fausse avec n = 2.
et donc B = C.
2. Matrices inversibles : définitions et exemples
Voici une propriété importante des matrices inversibles (cf l’avertissement 1.35) :
Le but de cette section et de la suivante est l’étude des matrices carrées inversibles Proposition 2.4. Soit A ∈ Mn (K) une matrice inversible. Alors :
pour la multiplication matricielle. Cette section est consacrée à des définitions et
des exemples simples. En 3, nous verrons une méthode de calculs des inverses et i. Si M ∈ Mp,n (K),
une caractérisation des matrices inversibles qui reposent largement sur la méthode M A = 0 =⇒ M = 0.
du pivot de Gauss vue au chapitre I. ii. Si M ∈ Mn,p (K),
AM = 0 =⇒ M = 0.
2.a. Définition
Remarque 2.5. La proposition implique que si A est inversible, (0, 0, . . . , 0) est
Définition 2.1. Soit A ∈ Mn (K) une matrice carrée. La matrice A est dite inver- l’unique solution du système homogène AX = 0, X ∈ Kn qui a n solutions et
sible quand il existe des matrices B, C ∈ Mn (K) telles que n inconnues. En d’autres termes, ce système est un système de Cramer. De fait,
AB = CA = In , l’unique solution de l’équation matricielle AX = B est X = A−1 B. Nous verrons
plus loin qu’il y a en fait équivalence : un système de n équations à n inconnues est
où la matrice In est la matrice identité n × n définie en (II.2). L’ensemble des un système de Cramer si et seulement si la matrice de ses coefficients est inversible.
matrices n×n inversibles est noté GLn (K). Les étudiants de la filière mathématiques
verront en cours d’arithmétique que GLn (K), muni de la multiplication, est un Démonstration. Démontrons (i), la démonstration de (ii) est similaire. On suppose
groupe. donc M A = 0. En multipliant à droite par A−1 , on obtient
Exemple 2.2. La matrice nulle de Mn (K) n’est pas inversible. La matrice In est −1 −1
MA
| A
{z } = 0 A = 0
inversible (In = In × In ). La matrice [ 31 21 ] est inversible :
In
     
3 2 1 −2 1 −2 3 2
= = I2 . et donc M = M In = 0.
1 1 −1 3 −1 3 1 1
(Vérifier le calcul à l’aide de la formule de la multiplication matricielle.) On peut en déduire un exemple typique de matrice non-inversible :

21
II. Introduction aux matrices

Proposition 2.6. Soit A ∈ Mn (K). On suppose qu’une des colonnes, ou une des On peut calculer très facilement le produit de deux matrices diagonales :
lignes de A est nulle. Alors A n’est pas inversible.
Proposition 2.10. Soit A = diag(λ1 , λ2 , . . . , λn ) et B = diag(µ1 , µ2 , . . . , µn ) deux
Démonstration. On suppose que la i-ième ligne de A = [aij ] est nulle. Soit Y = matrices diagonales de même taille. Alors
[yj ]1≤j≤n = [δij ]1≤j≤n la matrice ligne de M1,n (K) dont tous les coefficients sont AB = diag(λ1 µ1 , λ2 µ2 , . . . , λn µn ).
nuls, sauf le i-ième, qui vaut 1. Alors la matrice ligne Y A est nulle : en effet, le
`-ième coefficient de cette matrice est donné par La démonstration, facile, est laissée au lecteur (utiliser (II.1)).
n
X Corollaire 2.11. La matrice diagonale D = diag(λj )1≤j≤n est inversible si et
yk ak` = 0, seulement si λj 6= 0 pour tout j ∈ {1, . . . , n}. Dans ce cas,
k=1

car yk = 0 si k 6= i par définition de Y , et ai` = 0 car la i-ième ligne de A est nulle. D−1 = diag(1/λj )1≤j≤n .
On en déduit par la Proposition 2.4 que A n’est pas inversible. Démonstration. Si tous les λj sont non nuls, il est facile de vérifier, en utilisant la
Dans le cas où la j-ième colonne de A est nulle, on fait le même raisonnement proposition 2.10 que
en multipliant A par la matrice colonne X ∈ Mn (K) dont tous les coefficients sont
nuls, sauf le j-ième qui vaut 1. diag(1/λj )1≤j≤n D = D diag(1/λj )1≤j≤n = In .
h 1 2 3i Supposons qu’il existe k ∈ {1, . . . , n} tel que λk = 0. Alors la k-ième ligne de D est
Exemple 2.7. La matrice A = 0 0 0 n’est pas inversible. Dans ce cas, la dé-
−1 2i 4 nulle, et donc par la Proposition 2.6, D n’est pas inversible.
monstration de la proposition 2.6 signifie que [ 0 1 0 ] A = [ 0 0 0 ], contredisant la
proposition 2.4. Exemples 2.12. La matrice  
On donne maintenant deux exemples où il est facile de voir si une matrice est 1 0 0
inversible et, le cas échéant, de calculer son inverse. A = 0 i 0
0 0 3
2.b. Matrices diagonales est inversible, d’inverse  
1 0 0
Définition 2.8. On appelle matrice diagonale une matrice carrée [aij ] 1≤i≤n dont A−1 = 0 −i 0 .
1≤j≤n
les coefficients en dehors de la diagonale principale {i = j} sont nuls. En d’autres 0 0 1/3
termes :
i 6= j =⇒ aij = 0. 2.c. Inversibilité des matrices 2 × 2
Exemples 2.9. Les matrices In et 0n,n sont diagonales. Proposition 2.13. Soit A = [ ac db ] une matrice 2 × 2. Alors la matrice  dA est
inversible si et seulement si ad − bc 6= 0. Dans ce cas, on a A−1 = ad−bc
1 −b

Considérons les matrices −c a .
     
1 0 0 0 0 1 0 1 0 0 Remarque 2.14. La quantité ad − bc est appelée déterminant de A. Le déterminant
A = 0 2 0 , B = 0 2 0 et C = 0 0 2 0 . se généralise à des matrices carrées de plus grande dimension mais les formules sont
0 0 3 3 0 0 0 0 0 3 plus compliquées (voir le chapitre VI de ce cours).
La matrice A est diagonale. Les matrices B et C ne sont pas diagonales (C n’est  d −b 
Démonstration. Soit B = −c a . Par la formule du produit matriciel :
même pas carrée).
Remarquons que la somme de deux matrices diagonales de même taille est AB = BA = (ad − bc)I2 .
diagonale, et que si A est diagonale, t A = A. On note diag(λ1 , λ2 , . . . , λn )
Lorsque ad − bc = 0, on obtient AB = 0 et la proposition 2.4 montre que A n’est
ou diag(λj )1≤j≤n la matrice diagonale dont les coefficients diagonaux sont λ1 ,
pas inversible. Lorsque ad − bc = 0, on obtient
λ2 ,. . . ,λn . Par exemple
  1 1
1 0 0 A B= B A = I2 ,
0 2 0 = diag(1, 2, 3) = diag(j)1≤j≤3 , In = diag(1)1≤j≤n . ad − bc ad − bc
1
0 0 3 ce qui montre que A est inversible, d’inverse ad−bc
B.

22
3. Opérations sur les lignes et inversion de matrices

Exercice 2.15. Inverser les matrices suivantes 3.a. Matrices élémentaires


     
−1 −47 −1 25 −18 −19 On va montrer que les opérations élémentaires sur les lignes d’une matrice, ren-
.
27 1268 33 −824 701 740 contrées dans le chapitre sur les systèmes linéaires, reviennent à des multiplications
à gauche par des matrices bien particulières, appelées matrices élémentaires. On
2.d. Stabilité par multiplication et transposition commence par définir ces matrices.
Proposition 2.16. i. Soit A ∈ Mn (K). Alors tA est inversible si et seulement On fixe n ≥ 2.
si A est inversible. Dans ce cas, (tA)−1 = t (A−1 ). Définition 3.1. On appelle matrice élémentaire une matrice carrée n × n d’un des
ii. Soient A, B ∈ Mn (K) deux matrices inversibles. Alors AB est inversible et trois types suivants.
Soient λ ∈ K \ {0} et k ∈ {1, . . . , n}. La matrice de dilatation Dk (λ) est la
(AB)−1 = B −1 A−1 .
matrice diagonale de Mn (K) dont le k-ième coefficient diagonal vaut λ et les autres
Démonstration. On montre d’abord (i). Supposons pour commencer que A est in- coefficients diagonaux valent 1.
versible. On transpose les égalités : Soient k, ` ∈ {1, . . . , n} avec k 6= `, et λ ∈ K. La matrice de transvection Tk` (λ)
est la matrice dont les coefficients diagonaux sont égaux à 1, le coefficient (k, `)
AA−1 = A−1 A = In ,
vaut λ, et les autres coefficients sont nuls.
ce qui donne (t (AB) = t B tA) : Si k, ` ∈ {1, . . . , n} avec k 6= `, on note Rk` la matrice dont les coefficients
diagonaux valent 1, sauf les coefficients (k, k) et (`, `), qui valent 0, les coefficients
t
(A−1 )tA = tAt (A−1 ) = t In = In . (k, `) et (`, k) valent 1, et les autres coefficients sont nuls. La matrice Rk` est donc
t obtenue, à partir de In , en échangeant la ligne k et la ligne `. Remarquons que
Donc tA est inversible, d’inverse (A−1 ).
Réciproquement, si tA est inversible, A = t (tA) est inversible par ce qui précède, R`k = Rk` . Les matrices Rk` sont parfois appelées matrices de transposition (à ne
ce qui conclut la preuve du point (i). pas confondre avec la transposée tA).
Pour montrer (ii), on utilise l’associativité de la multiplication : Remarquons que les matrices élémentaires dépendent de n. Nous n’avons pas
AB B −1 A−1 = A In A−1 = A A−1 = In , indiqué cette dépendance pour ne pas alourdir les notations.

et de même Exemples 3.2. On suppose n = 3. Alors


−1 −1 −1 −1
B A AB = B In B = B B = In .      
λ 0 0 1 0 0 1 0 0
D1 (λ) =  0 1 0 , D2 (λ) = 0 λ 0 , D3 (λ) = 0 1 0 ,
0 0 1 0 0 1 0 0 λ
Avertissement 2.17. Il ne faut pas se tromper dans l’ordre des facteurs dans la      
formule du (ii). Rappelons que la multiplication matricielle n’est pas commutative. 1 λ 0 1 0 0 1 0 0
On n’a donc pas, en général (AB)−1 = A−1 B −1 . T12 (λ) = 0 1 0 , T31 (λ) =  0 1 0 , R23 = 0 0 1 ,
0 0 1 λ 0 1 0 1 0
   
3. Opérations sur les lignes et inversion de matrices 0 0 1 0 1 0
R13 = 0 1 0 , R12 = 1 0 0 .
Il y a plusieurs critères équivalents d’inversibilité d’une matrice. Pour le démon- 1 0 0 0 0 1
trer, nous allons utiliser des notions déjà vues au chapitre I du cours, consacré aux
systèmes linéaires. En 3.a, on introduit des matrices élémentaires correspondant Exercice 3.3. Ecrire D2 (λ), T24 (λ), T42 (λ), R13 quand n = 4.
aux opérations élémentaires du chapitre I. En 3.b on reparle de matrices échelon-
nées réduites, et en 3.c de la méthode du pivot de Gauss. Les matrices inversibles Proposition 3.4. Soit q ≥ 1 et A ∈ Mn,q (K).
sont caractérisées en 3.d, par le théorème 3.21. Le 3.e est consacrée à l’interprétation i. Soient k ∈ {1, . . . , n} et λ 6= 0. La matrice Dk (λ)A est obtenue à partir de
matricielle des systèmes de Cramer. A en multipliant la k-ième ligne de A par λ. La multiplication à gauche par
Les deux points les plus importants de ce chapitre sont l’inversion de matrice par Dk (λ) correspond donc à l’opération élémentaire, appelée cadrage et notée
la méthode du pivot de Gauss et le théorème 3.21. (Lk ) ← λ(Lk ) dans le chapitre précédent du cours.

23
II. Introduction aux matrices

ii. Soient k, ` ∈ {1, . . . , n}, k 6= ` et λ 6= 0. La matrice Tk` (λ)A est obtenue Exercice 3.8. Soit
à partir de A en ajoutant à la k-ième ligne de A le produit de λ et la `-      
ième ligne de A. La multiplication à gauche par Tk` (λ) correspond donc à 1 0 0 0 1 0 0 0 1 0 −1 3
l’opération élémentaire, appelée remplacement et notée (Lk ) ← (Lk ) + λ(L` ) −2 1 0 0 0 1 0 0 2 4 2 5
A=
 , B=
 , C=
 .
dans le chapitre précédent du cours. 0 0 1 0 0 0 3 0 3 6 7 8
iii. Soient k, ` ∈ {1, . . . , n}. La matrice Rk` A est obtenue à partir de A en échan- 0 0 0 1 0 0 0 1 4 9 10 11
geant les lignes k et `. La multiplication à gauche par Rk` correspond donc à
l’opération élémentaire notée (Lk ) ↔ (L` ) dans le chapitre précédent. En utilisant la proposition 3.4, calculer AC, BC, AB, BA.

Remarque 3.5. On peut montrer 2 que la multiplication à droite par les matrices Proposition 3.9. Les matrices Dk (λ) (λ 6= 0), Tk` (λ) (k 6= `) et Rk` sont inver-
élémentaires correspond à des opérations élémentaires sur les colonnes. sibles et :
Exercice 3.6. Calculer en utilisant la formule du produit matriciel : i. (Dk (λ))−1 = Dk λ1 ;

 
a11 a12 a13 ii. (Tk` (λ))−1 = Tk` (−λ) ;
T21 (λ) a21 a22 a23  −1
a31 a32 a33 iii. Rk` = Rk` .

et vérifier que la résultat est cohérent avec la proposition 3.4.


Démonstration. Les matrices de dilatation étant diagonales, le point (i) découle
Preuve de la proposition 3.4. On ne démontre que le point (ii). La démonstration immédiatement du Corollaire 2.11 (on peut aussi utiliser la proposition 3.4 comme
des autres points est laissée au lecteur. dans ce qui suit).
On note A = [aij ]1≤i≤n , Tk` (λ) = [bij ] 1≤i≤n et Tk` (λ)A = [cij ]1≤i≤n . On a donc D’après la proposition 3.4, la matrice
1≤j≤q 1≤j≤n 1≤j≤q

bii = 1, i = 1 . . . n, bk` = λ, bij = 0 si i 6= j et (i, j) 6= (k, `). Tk` (λ)Tk` (−λ) = Tk` (λ)Tk` (−λ) In

Soient i ∈ {1, . . . , n} et j ∈ {1, . . . , q}. La formule du produit matriciel (II.1) donne : est obtenue à partir de la matrice In par les opérations :
n
X
(II.9) cij = bir arj . (Lk ) ← (Lk ) − λL` ,
r=1

Si i 6= k, bir = 0 pour r 6= i, et bii = 1. La formule précédente donne donc cij = aij . puis
La i-ième ligne de Tk` (λ)A est donc exactement la i-ième ligne de A. (Lk ) ← (Lk ) + λL` .
On considère maintenant le cas i = k. On a bkr = 0 pour r ∈ / {k, `}, bkk = 1, et
bk` = λ. La formule (II.9) avec i = k s’écrit donc Puisque k 6= `, on a donc bien 3 Tk` (λ)Tk` (−λ) = In et de même Tk` (−λ)Tk` (λ) =
In , ce qui montre le point (ii).
ckj = akj + λa`j , D’après la proposition 3.4, la matrice Rk` Rk` = Rk` Rk` In est obtenue à partir
et la k-ième ligne de Tk` (λ)A : de In en échangeant deux fois les lignes ` et k. C’est donc bien la matrice In , ce qui
montre le point (iii).
[ck1 , . . . , ckq ] = [ak1 , . . . , akq ] + λ[a`1 , . . . , a`q ] = (Lk ) + λ(L` ),

en notant (Lk ) et (L` ) la k-ième et la `-ième ligne de A. Le point (ii) est démontré. Exercice 3.10. Calculer lorsque n = 4, R24 (17)R24 (−17) en utilisant la formule du
produit matriciel et vérifier le point (3.4).

Exercice 3.7. En s’inspirant de la démonstration précédente, montrer les points (i) Exercice 3.11. Démontrer la proposition 3.9 en utilisant seulement la formule du
et (iii) de la proposition 3.4. produit matriciel, mais pas la proposition 3.4.

2. Par exemple en appliquant la proposition 3.4 aux matrices transposées. 3. l’hypothèse k 6= ` montre que la ligne (L` ) n’a pas changé après la première opération.

24
3. Opérations sur les lignes et inversion de matrices

3.b. Matrices échelonnées réduites carrées C’est bien une matrice triangulaire supérieure. Le nombre de lignes non nulles est
4 p = 4 ; J(1) = 1, J(2) = 3, J(3) = 4 et J(4) = 5.
On renvoie au chapitre précédent ou à David C. Lay pour la définition d’une
matrice échelonnée et d’une matrice échelonnée réduite. Le but de cette partie est Théorème 3.16. Soit A ∈ Mn (K) une matrice échelonnée réduite. Les conditions
de caractériser les matrices échelonnées réduites carrées inversibles. suivantes sont équivalentes :
Définition 3.12. La matrice carrée A = [aij ] ∈ Mn (K) est dite triangulaire i. A est inversible ;
supérieure si tous les coefficients de A en dessous de la diagonale principale sont ii. aucune ligne de A n’est nulle ;
nuls. En d’autres termes :
iii. A = In .
1 ≤ j < i ≤ n =⇒ aij = 0.
La seule matrice échelonnée réduite inversible est donc la matrice identité.
Exemples 3.13. Les matrices diagonales sont triangulaires supérieures. En particu-
lier, la matrice In et la matrice 0 ∈ Mn (K) sont triangulaires supérieures. Consi- Démonstration. La matrice In est inversible, donc (iii)=⇒(i). De plus, on sait déjà
dérons les matrices : (i)=⇒(ii) (cf proposition 2.6).
  Il reste à démontrer (ii)=⇒(iii). Soit A ∈ Mn (K) une matrice échelonnée réduite
    1 2 3 4
3 1 2 0 3 1 2 3 sans ligne nulle. Par la proposition 3.14, elle est triangulaire supérieure. Par hy-
1 2 1
A = 0 −1 3 , B = 0 0 −1 3 , C= 0 −1 3 2 .
 pothèse, elle a exactement n lignes non nulles. On reprend la notation J(i) de la
0 0 2 0 0 0 2 démonstration de la proposition 3.14. Montrons pour commencer
0 0 2 3
La matrice A est triangulaire supérieure. Les matrices B et C ne le sont pas (B (II.10) ∀i ∈ {1, . . . , n}, J(i) = i.
n’est pas carrée. Le coefficient (2, 1) de C est non nul).
Puisque la matrice est triangulaire supérieure, on a i ≤ J(i) ≤ n pour tout i ∈
Proposition 3.14. Une matrice échelonnée carrée est triangulaire supérieure. {1, . . . , n}. La matrice A étant échelonnée, on a aussi J(i) ≤ J(i + 1) − 1 pour tout
i ∈ {1, . . . , n − 1}. Puisque J(n) ≤ n, on obtient J(i) ≤ i pour tout i, par une
Démonstration. Soit A ∈ Mn (K) une matrice échelonnée. On note p le nombre de récurrence descendante sur i. D’où (II.10).
lignes non nulles de A. On a donc 0 ≤ p ≤ n, p = n si toutes les lignes de A sont Par (II.10), les éléments de tête sont tous sur la diagonale i = j. La matrice A
non nulles, p = 0 si A = 0. De plus, si 1 ≤ p ≤ n, A étant échelonnée, les lignes 1, étant échelonnée réduite, ces éléments de tête sont tous égaux à 1, et les coefficients
2,. . . , p de A sont non nulles, et les lignes p + 1, . . . , n sont nulles. au-dessus de chaque élément de tête sont nuls, ce qui montre A = In .
On suppose A 6= 0, i.e. p ≥ 1 (sinon A = 0 est triangulaire supérieure et la
démonstration est finie).
Pour 1 ≤ i ≤ p, on note J(i) la colonne de l’élément de tête (le coefficient non nul
le plus à gauche) de la i-ième ligne de A. Par propriété des matrices échelonnées, 3.c. Inversions de matrices par la méthode du pivot de Gauss
on a J(k + 1) ≥ J(k) + 1 pour k = 1 . . . p − 1 et donc, puisque J(1) ≥ 1, J(i) ≥ i Soit A une matrice carrée. Par la méthode du pivot de Gauss (cf le théorème
pour tout i entre 1 et p, ce qui signifie exactement que la matrice A est triangulaire 2.19 du chapitre précédent), on peut ramener A à une matrice échelonnée réduite
supérieure. A0 par un certain nombre (disons p) de transformations élémentaires sur les lignes
de A. Ces transformations élémentaires correspondant à des multiplications par des
Exemple 3.15. Pour illustrer la proposition et sa démonstration, considérons la
matrices élémentaires (cf §3.a et Proposition 3.4), on a donc :
matrice échelonnée 5 × 5 :
Ep . . . E1 A = A0 ,
 
1 1+i 3 2 0
0 0 2 3 i 

0 0 0 4 1

. où les matrices Ej correspondent aux p transformations élémentaires appliquées à

0 0 0 0 −1
 A. Puisque les matrices élémentaires sont inversibles, on a :
0 0 0 0 0
A = E1−1 . . . Ep−1 A0 .
4. David C. Lay. Algèbre linéaire : Théorie, exercices et applications. Troisième édition,
2004 D’où (les matrices Ej−1 étant elles aussi des matrices élémentaires) :

25
II. Introduction aux matrices

Théorème 3.17. Toute matrice carrée A ∈ Mn (K) est produit de matrices élé- Donc A est inversible, d’inverse
mentaires et d’une matrice échelonnée réduite A0 . Elle est inversible si et seulement  
si A0 = In , c’est à dire si et seulement si elle est produit de matrices élémentaires. −3 7 −3
−1
A = −2 5 −2 .
(le dernier point découle du théorème 3.16). 2 −2 1
h1 0 1i
Exemple 3.19. Considérons la matrice A = 2 3 4 . Par les opérations (L2 ) ←
1 3 3
Application : calcul de l’inverse d’une matrice
h(L1 20) 1−i 2(L1 ), (L3 ) ← (L3 ) − (L1 ) puis (L3 ) ← (L3 ) − (L2 ), on obtient la matrice
Donnons maintenant une méthode pratique pour étudier l’inversibilité de A, et, 0 3 2 . La troisième ligne de cette matrice étant nulle, on en déduit que A n’est
0 0 0
lorsque A est inversible, calculer son inverse. On commence par écrire sur deux pas inversible.
colonnes la matrice A et la matrice In . On ramène ensuite, par la méthode du pivot
On termine cette partie par une remarque qui découle facilement de la méthode
de Gauss, la matrice A à une matrice échelonnée réduite, tout en appliquant les
précédente :
mêmes opérations élémentaires sur la matrice In .
— Si A est inversible, on obtient sur la colonne de gauche la matrice In = Proposition 3.20. Soit A une matrice triangulaire supérieure. Alors A est inver-
Ep . . . E1 A et sur la colonne de droite la matrice Ep . . . E1 . L’égalité In = sible si et seulement si ses coefficients diagonaux sont tous non-nuls.
Ep . . . E1 A montre que la matrice obtenue sur la colonne de droite est exac-
tement A−1 . En effet, si aucun des coefficients diagonaux de A n’est nul, A est échelonnée, et
— Si A n’est pas inversible, on obtient sur la colonne de gauche une matrice la phase de remontée de la méthode du pivot permet d’obtenir In à partir de A par
échelonnée réduite avec au moins une ligne nulle. Dans ce cas, si le but est des opérations élémentaires sur les lignes.
seulement d’étudier l’inversibilité de A, la colonne de droite est inutile, et on Supposons maintenant que l’un des coefficients diagonaux est nul. Si ce coefficient
peut arrêter la méthode du pivot dès que l’on a obtenu une ligne nulle. est le n-ième, la dernière ligne est nulle et la matrice n’est pas inversible. Si ce n’est
pas le cas, on peut transformer, par des opérations élémentaires sur les lignes, la
Cette méthode sera implémentée informatiquement dans la partie “algorithmique”
matrice A en une matrice A0 ayant une ligne nulle, ce qui montrera que A n’est pas
de ce cours.
h 1 −1 1 i inversible (sinon A0 serait un produit de matrice inversible, donc inversible). Pour
Exemple 3.18. On veut inverser la matrice A = −2 3 0 . obtenir la ligne nulle, on note (i, i) les coordonnées du dernier coefficient diagonal
−6 8 −1
nul, de tel sorte que aii = 0, et akk 6= 0 pour k > i. Exactement de la même
    façon que dans la phase de remontée de la méthode du pivot, en utilisant que les
1 −1 1 1 0 0 éléments de tête des lignes (Lk ), k > i sont non nuls, on transforme A, par une
−2 3 0  0 1 0 série de remplacements, en une matrice dont la i-ième ligne est nulle.
−6 8 −1 0 0 1
   
1 −1 1 1 0 0 3.d. Caractérisation des matrices inversibles
 0 1 2 (L2 ) ← (L2 ) + 2(L1 )  2 1 0
0 2 5 (L3 ) ← (L3 ) + 6(L1 ) 6 0 1 Le théorème fondamental suivant, qui découle de ce qui précède, donne plusieurs

1 −1 1
 
1 0 0
 critères pour reconnaître une matrice inversible.
 0 1 2  2 1 0 Théorème 3.21. Soit A ∈ Mn (K). Les conditions suivantes sont équivalentes :
0 0 1 (L3 ) ← (L3 ) − 2(L2 ) 2 −2 1
    i. A est inversible ;
1 −1 0 (L1 ) ← (L1 ) − (L3 ) −1 2 −1
 0 1 0 (L2 ) ← (L2 ) − 2(L3 ) −2 5 −2 ii. ∃B ∈ Mn (K) t.q. BA = In ;
0 0 1 2 −2 1 iii. ∃C ∈ Mn (K) t.q. AC = In ;
   
1 0 0 (L1 ) ← (L1 ) + (L2 ) −3 7 −3 iv. l’équation AX = 0, d’inconnue X ∈ Mn,1 (K), a pour seule solution X = 0 ;
 0 1 0 −2 5 −2 . v. pour tout E ∈ Mn,1 (K), l’équation AX = E, a une seule solution X ∈
0 0 1 2 −2 1 Mn,1 (K) ;

26
3. Opérations sur les lignes et inversion de matrices

Démonstration. On commence par montrer que les points (i), (ii), (iv) sont équiva- où B est"la matrice colonne (B ∈ Mn,1 (K)) formé du second membre de l’équation,
x1 #
lents. Par définition de l’inversibilité, (i)⇒(ii). Par ailleurs, si (ii) est vrai et AX = 0,
alors X = BAX = B0 = 0 et donc (ii)⇒(iv). et X = ... est la matrice inconnue.
xn
Supposons (iv). On veut montrer que A est inversible. Par la méthode du pivot
Le point (i) ⇐⇒ (v) du théorème 3.21 signifie exactement :
de Gauss, réinterprétée en terme d’opérations élémentaires sur les lignes (cf §3.c),
Ep . . . E1 tA = R où R est une matrice échelonnée réduite et les Ej des matrices
élémentaires. On veut montrer que R = In , ce qui impliquera que tA est inversible (S) est un système de Cramer ⇐⇒ A est inversible.
(car produit des matrices inversibles E1−1 . . . Ep−1 ) et donc que A est inversible. On
raisonne par l’absurde : si R 6= In , par le théorème 3.16, la dernière ligne de R est On distingue deux cas :
une ligne de 0. Soit Y 0 = 0 . . . 0 1 ∈ M1,n (K). Alors — La matrice A est inversible et le système (S) est un système de Cramer : il a
une unique solution X = A−1 B, quel que soit le second membre B. Le calcul
Y 0 Ep . . . E1 tA = Y 0 R = 01,n de A−1 permet de résoudre rapidement le système quel que soit B.
— Si A n’est pas inversible, le système homogène AX = 0 a une infinité de
et donc
solutions : en effet, le point (iv) est faux, il y a donc une solution non nulle
Y tA = 01,n
X et tous les λX, λ ∈ K sont aussi solutions. Le système (S) a ou bien
avec Y = Y 0 Ep . . . E1 ∈ M1,n (K). Les matrices E1 , . . . , Ep étant inversible, Y aucune solution, ou bien une infinité de solutions. Dans ce cas, A étant fixée,
est non nul (Proposition 2.4). En passant à la transposée, on obtient AX = 0 la compatibilité du système AX = B dépend du second membre B.
avec X = tY , qui est un vecteur colonne non nul. Ceci contredit (iv). Donc A est
Exemple 3.24. Résoudre les systèmes :
inversible, ce qui conclut la preuve de (iv)⇒(i).
On a évidemment (v)⇒(iv), (i)⇒(v), et puisque (iv)⇒(i), le point (v) est équi-
x1 − 3x2 − 5x3 − 3x4 = 1 x1 − 3x2 − 5x3 − 3x4 =2
 
valent à tous les points précédents. 
 

 −x1 + 2x2 + 3x3 + x4 = 2
  −x1 + 2x2 + 3x3 + x4

= −1
Enfin, (i) implique (iii) par définition. Réciproquement, supposons (iii). En trans-
,
posant l’égalité AC = In , on obtient t C t A = In . Donc tA vérifie (ii). Par ce qui 
−x1 + 3x2 + 4x3 + 2x4 = 0 
 −x1 + 3x2 + 4x3 + 2x4 =1
précède, tA est inversible, ce qui implique, par la proposition 2.16 sur l’inversibilité

 

−3x2 − 3x3 − 4x4 = 1 −3x2 − 3x3 − 4x4 =0
des matrices transposées, que A est inversible. On a montré (iii)⇒(i), ce qui conclut
x − 3x − 5x − 3x4 = −2

la preuve du théorème.  1
 2 3
 −x1 + 2x2 + 3x3 + x4 = 0

Exercice 3.22. Soit
    −x1 + 3x2 + 4x3 + 2x4 = 0


−7 15 −6 −6 
−3x2 − 3x3 − 4x4 = 1
A = −4 9 −4 , X = −4 .
−3 6 −2 −3
La matrice des coefficients de ces trois systèmes est
Calculer AX. La matrice A est-elle inversible ? (Correction p. 28).  
1 −3 −5 −3
Remarque 3.23. On peut également montrer que l’inversibilité de A est équivalente −1 2 3 1
au fait que l’équation Y A = 0, d’inconnue Y ∈ M1,n (K), a pour seule solution A=
−1
.
3 4 2
Y = 0, ou que pour tout F ∈ M1,n (K), l’équation Y A = F , a une seule solution
0 −3 −3 −4
Y ∈ M1,n (K). La démonstration de ces équivalences est laissée au lecteur.
On montre par la méthode du pivot que A est inversible et
3.e. Système de Cramer et matrice inversible
 
Soit (S) un système linéaire à n équations et n inconnues, et A la matrice des −1 −9 7 2
coefficients. La matrice A est donc une matrice carrée n × n. Le système (S) s’écrit 1 −1 2 0
A−1 =
−1
.
−3 2 1
AX = B, 0 3 −3 −1

27
II. Introduction aux matrices

Les trois systèmes sont des systèmes de Cramer. Les solutions de ces systèmes sont
respectivement :
           
1 −17 2 14 −2 4
   −1 
−1 2 −1
−1  5  −1
 0  −2
A  =  −6 
 A   1 = 3 
   A   0 = 3 
  
0
1 5 0 −6 1 −1

Exercice 3.25. Appliquer la méthode du pivot à l’exemple précédent pour calculer


A−1 et vérifier le résultat annoncé.

4. Réponse à quelques exercices


Exercice 1.26. AC, AD, BA, B 2 , CA, CB, DC et D2 ne sont pas définis.

     
−5 2 + 2i 6 3+i −3 5 4 6
A2 = , AB = , BC =
−3 − 3i −7 −6 + 2i −3 − 2i 9 2 4 6
   
  −2 2 3 −12 −24
3 − 3i 6 − 6i 2
BD = , C = 0 0 0  , CD =  0 0 
−3 −6
−1 −2 −3 0 0
   
0 0 0 0 0
DA = 15 −6 − 6i , DB −18 −9 − 3i 9
10 −4 − 4i −12 −6 − 2i 6

Exercice 2.15. Les matrices inverses sont −27 −1 , [ 33 1 ], [ −740 −19


 1268 47  824 25
701 18 ].
Exercice 3.22. On trouve  
AX = 0 0 0 .
La matrice ne vérifie donc pas le point iv du théorème 3.21, ce qui montre qu’elle
n’est pas inversible.

28
5. Travaux dirigés

5. Travaux dirigés Exercice II.4. Dire si les matrices suivantes sont inversibles. Si oui, donner leur
inverse :
Exercice II.1. On donne les matrices suivantes :  √ 
  1+i 3 0 0 0
    −9 −5  0 2i 0 0 
−1 i 1 i A= B= 
5 3  0 0 −1 0 
M =  2 1 ; N =  0 −1  ;
0 0 0 −i
0 3 2i 0    
1 1 1 1 2
  C= 2 2 2  D =  −1 3 
  −1
3 2   0 0 −1 4 5
P = ; T =  4i  et U = 2 1−i 1+i .
0 −1 
2 4 1

1−i 
z+i 2

E= 0 1 2  F = en fonction du paramètre z ∈ C.
a. Donner les coefficients suivants de la matrice M : m2,1 , m3,2 . −1 z
0 0 −1
b. Calculer, lorsque c’est possible, les sommes suivantes : M + N ; N + P ; T + Exercice II.5. Soit B une matrice telle que
U ; T + tU .  
  1 −1
c. Calculer, lorsque c’est possible, les produits suivants : 3 5
B = 0 2 .
2 3
3 4
iN ; 4T ; M N ; M t N ; M P ; P M ; U T ; T U ; U 2 ; P 2 .
Donner les dimensions de B, puis déterminer B.
d. A quelles conditions sur les dimensions des matrices A et B peut-on calculer la Exercice II.6. On pose K = R ou K = C.
somme t A + B ? a. On considère un système linéaire (S) homogène à 3 équations et 2 inconnues sur
K. Le système (S) est-il compatible ? Combien a-t-il de solution(s) ?
e. A quelles conditions sur les dimensions des matrices A et B peut-on calculer le
produit t A B ? b. Soit B ∈ M2,3 (K). Montrer qu’il existe X ∈ M3,1 , non nul, tel que BX = 0.
c. En déduire qu’il n’existe pas de matrice A ∈ M3,2 (K) tel que AB = I3 .
Exercice II.2. On fixe n ≥ 2. Soient les matrices :  
cos(θ) sin(θ) 0
- Bn = [bij ]1≤i,j≤n où bi,j = 0 si i < j, bi,j = i − j sinon ; Exercice II.7. Soit pour θ ∈ R la matrice 3 × 3 Rθ = − sin(θ) cos(θ) 0 .
- Cn = [cij ]1≤i,j≤n où 0 0 1
ci,j = 0 si |i − j| > 1 ou si i = j, a. Calculer Rθ Rσ pour θ, σ ∈ R.
ci,j = 1 si |i − j| = 1. b. La matrice Rθ est-elle inversible ? Si oui calculer son inverse.
 
x
a. Ecrire la matrice B4 et la matrice C4 .
c. Soit X =  y  un point de R3 . Interpréter géométriquement Rθ X. Les résultats
b. Calculer le produit B3 C3 . Calculer C32 . z
précédents sont-ils cohérents avec cette interprétation géométrique ?
c. Calculer Cn2 . On notera [di,j ] les coefficients de Cn2 et on distinguera les cas
|i − j| > 2, |i − j| = 2, |i − j| = 1 et i = j. Exercice II.8. On considère les matrices
     
Exercice II.3. 1 0 0 0 1 0 0 0 1 3 0 0
 n  0 0 1 0   0 1 0 0   0 1 0 0 
0 0 A=  0 1 0 0  B= 0 0 2 0 
   C=  0 0 1 0 .

a. Calculer pour n ≥ 1.
1 0 0 0 0 1 0 0 0 1 0 0 0 1
   
4 0 0 0 En utilisant que ces matrices sont des matrices élémentaires, calculer :
b. Soit la matrice A = , En utilisant l’égalité A = 4I2 + et en
1 4 1 0
vérifiant que l’on peut utiliser la formule du binôme de Newton, calculer A .n
C n , (n ∈ N) AB 4 C 3 A C 4B3C 2.

29
II. Introduction aux matrices

Exercice II.9. c. Montrer qu’il n’existe pas de matrices A, B ∈ M2 (C) telles que
a. En utilisant la méthode du pivot, dire si les matrices suivantes sont inversibles AB − BA = I2 .
et donner leur inverse
  d. Soit n ≥ 2. Si A = [ai,j ] ∈ Mn (C), on pose
    0 −2 −1 0 n
1 2 −2 −2 0 −8 X
0 −1 0 0 tr A = aii .
A= 3 8 −9 B= 2 2 14  C= −1

−1 1 0 i=1
−3 −5 5 −2 −4 −20
1 0 −1 1 Généraliser les questions précédentes aux matrices n × n.
F Exercice II.13. Soit A = [ai,j ] ∈ Mn (R) telle que
b. Soit (a, b, c) ∈ R3 . Le système suivant est-il un système de Cramer ?
 (II.11) ∀B ∈ Mn (R), AB = BA.
 x + 2y − 2z = a
 2
a. Soit (k, `) ∈ {1, 2, . . . , n} . On note Ek,` la matrice n×n dont tous les coefficients
3x + 8y − 9z = b
 sont nuls, sauf le coefficient (k, `) qui vaut 1. Calculer les coefficients de AEk,` et
−3x − 5y + 5z = c.

Ek,` A.
b. Montrer qu’il existe λ ∈ R tel que A = λIn . Montrer réciproquement que les
Résoudre ce système.
matrice A = λIn , λ ∈ R, vérifient la propriété (II.11).
Exercice II.10.
a. A quelle condition sur le paramètre λ ∈ R la matrice suivante est-elle inversible ? 6. Exercices à préparer pour le contrôle continu
Calculer son inverse lorsqu’elle est inversible.
  Exercice II.14. On considère les matrices
2 7 + 2λ 12 − 4λ    
A λ = 1 4 + λ 9 − 3λ  1 −2   1
3 −1
2 9 + 2λ 21 − 7λ A = [i − j] 1≤i≤2 , B =  4 −1  , C= , D =  4 .
1≤j≤3 −5 2
3 2 5
b. A quelle condition sur λ le système suivant (d’inconnues réelles x, y, z) a-t-il une Calculer, quand c’est possible, les matrices suivantes
infinité de solutions ?
 AB, BA, A + B, A2 , C2, t
A + 2B, AC, t
AC, AD, DA etc...
2x + (7 + 2λ)y + (12 − 4λ)z = 3

(ou tout autre somme, produit ou transposée de matrices explicites.
x + (4 + λ)y + (9 − 3λ)z = 2  
0 2
Exercice II.15. Soit A la matrice . Calculer A2 . Calculer An pour tout n

2x + (9 + 2λ)y + (21 − 7λ)z = 5

−1 0
  (on pourra distinguer selon la parité de n).
1 0, 99
Exercice II.11. Déterminer les inverses des matrices A = et Exercice II.16. Question de cours : montrer les propriétés de base de la multiplica-
1, 01 1
  tion matricielle (cf théorème 1.31).
1 0, 99
B= . Exercice II.17. Les matrices suivantes :
1 1    
A votre avis, quel problème se pose si on calcule l’inverse d’une matrice en rempla- −1 −1 −4 14 −8 3
çant chacun de ses coefficients par une valeur approchée ? 3 2 13  , −7 3 −2
  −3 −2 −14 4 −2 1
a11 a12
F Exercice II.12. Soit A = une matrice de M2 (C). On appelle trace
a21 a22
 
−1 −1 + 3i −3  
de A, et on note tr A la somme a11 + a22 . 2 1−i
1 1 −2 
i 1
a. Montrer que pour A, B ∈ M2 (C), λ ∈ C, tr(A + B) = tr A + tr B et tr(λA) = 1 1−i −1
λ tr A. sont-elles inversibles ? Donner l’inverse des matrices qui le sont. (Même question
b. Montrer que pour A, B ∈ M2 (C), tr(AB) = tr(BA). possible avec d’autres petites matrices carrées explicites).

30
III. Les polynômes

Dans ce chapitre, la lettre K désigne R ou C. Les éléments de K sont appelés Démonstration. Soit n = deg P , p = deg Q. On a donc :
“nombres” ou “scalaires”. Ce chapitre est indépendant des autres. Il sera utilisé dans
P = (aj )j≥0 , Q = (bj )j≥0
la partie “algorithmique” du cours et dans le chapitre VIII de ce cours, qui est
consacré aux déterminants. avec aj = 0 si j > n, bj = 0 si j > p, an 6= 0, bp 6= 0. Par définition de l’addition
des polynômes,
P + Q = (aj + bj )j≥0 .
1. Définitions
Puisque aj + bj = 0 dès que j > max(p, n), on a bien que le degré de P + Q est au
1.a. Polynômes comme suites finies plus égal à max(p, n).
Supposons maintenant n 6= p. Pour fixer les idées, on suppose n > p. On a donc
Un polynôme P sur K (ou à coefficients dans K) est la donnée d’une suite (an )n≥0 bn = 0. Le n-ième coefficient de P + Q est an + bn = an 6= 0. Le polynôme P + Q
d’éléments de K telle qu’il existe un entier p ≥ 0 avec est donc exactement de degré n = max(deg P, deg Q). Le cas n < p se déduit de la
∀n ≥ p, an = 0. commutativité de l’addition et du cas n > p.

Les nombres an sont appelés les coefficients de P . Le plus grand nombre d tel 1.c. Indéterminée
que ad 6= 0 est appelé degré de P et noté deg P ou deg(P ). Le coefficient ad
correspondant à ce degré est appelé coefficient dominant de P . Le polynôme (an )n≥0 On s’empresse d’adopter une notation plus commode que la notation (an )n≥0
tel que an = 0 pour tout n est appelé le polynôme nul et noté 0. Par convention pour désigner les polynômes. On fixe une lettre, généralement X, appelée indéter-
deg 0 = −∞. minée. Soit P = (an )n≥0 un polynôme de degré d. On note ce polynôme :
d
Exemple 1.1. La suite (1, 2, 0, 0, 0, . . .) est un polynôme de degré 1 (a0 = 1, a1 = 2, X
les . . . signifient que an = 0 si n ≥ 2). (III.1) P = ad X d + ad−1 X d−1 + . . . + a1 X + a0 = aj X j .
j=0
La suite (2n )n≥0 n’est pas un polynôme.
Exemple 1.3. Le polynôme (1, 2, 0, 0, 0, . . .) est noté 2X + 1. Le polynôme
1.b. Addition (0, 0, 0, 9, 4, 0, 3, 0, 0, 0, . . .)
Soit P = (an )n≥0 et Q = (bn )n≥0 deux polynômes. La somme P + Q de P et Q est noté 3X +0X +4X +9X 3 +0X 2 +0X +0 ou plus simplement 3X 6 +4X 4 +9X 3 .
6 5 4

est par définition la suite (an + bn )n≥0 . C’est aussi un polynôme. Ceci définit une Dans (III.1), les puissances sont rangées dans l’ordre décroissant. On peut aussi
addition sur l’ensemble des polynômes, qui est commutative et associative : les ranger dans l’ordre croissant. De fait, par la définition et la commutativité de
P + Q = Q + P, (P + Q) + R = P + (Q + R). l’addition des polynômes, on a :
ad X d + ad−1 X d−1 + . . . + a1 X + a0 = a0 + a1 X + . . . + ad−1 X d−1 + ad X d .
Du fait de l’associativité, on peut noter sans ambiguïté P + Q + R la somme de
trois polynômes. Notation 1.4. L’ensemble des polynômes à coefficients dans K et d’indéterminée X
est noté K[X]. Un polynôme P est parfois noté P (X) lorsqu’on veut insister sur le
Proposition 1.2. Soit P et Q deux polynômes à coefficients dans K. fait que la lettre X désigne l’indéterminée.
deg(P + Q) ≤ max(deg P, deg Q). Remarque 1.5. Le polynôme de degré 0, (λ, 0, 0, . . .), avec λ ∈ K est noté simplement
λ. Cela permet d’identifier K à l’ensemble des polynômes de degré 0 sur K. Cette
Si deg P 6= deg Q, identification est compatible avec la définition de l’addition sur K[X] : λ + µ a la
deg(P + Q) = max(deg P, deg Q). même valeur que l’on interprète le “+” comme symbole de l’addition sur K ou K[X].

31
III. Les polynômes

Pd2 +d3 P
1.d. Multiplication De même, QR = s=0 `+m=s b` cm X s et donc
P 0
Soit P = dj=0 aj X j et Q = dj=0 bj X j deux polynômes, d = deg P , d0 = deg Q.
P
d1 +d2 +d3 d1 +d2 +d3
!
X X X X X
Par définition, le produit P Q de P et Q est le polynôme P (QR) = ak b` cm X r = ak b` cm X r .
F
  r=0 k+s=r `+m=s r=0 k+`+m=r
0
d+d
X X
(III.2) PQ =  ak b`  X j . D’où (P Q)R = P (QR).
j=0 k+`=j
Exercice 1.8. Se convaincre que les deux égalités F ci-dessus sont bien impliquées
Pd Pd0
k ` par la distributivité de la multiplication sur l’addition. On pourra commencer par
Il s’obtient en développant l’expression k=0 ak X `=0 b` X et en utilisant les
règles de calcul usuelles sur l’addition et la multiplication des scalaires, et la règle : écrire explicitement ces égalités dans le cas d1 = d2 = d3 = 1.
X k X ` = X k+` . En pratique, pour calculer le produit de deux polynômes, on n’utilise
pas directement la formule (III.2), mais simplement les règles de calcul
P
Remarque 1.6. Dans l’expression (III.2), k+`=j signifie que la somme porte sur
tous les indices (entiers naturels) k et ` tels que k + ` = j. Par exemple : usuelles. Par exemple :
X
ak b` = a0 b2 + a1 b1 + a2 b0 . (X 3 + 2X 2 − 1)(X 2 + 7) = X 3 X 2 + 7X 3 + 2X 2 X 2 + 14X 2 − X 2 − 7
k+`=2
= X 5 + 7X 3 + 2X 4 + 13X 2 − 7.
Il est très important de maîtriser ce genre de notation.
Remarque 1.9. Le produit de deux polynômes a0 et b0 de degré 0 (au sens du
La formule
produit sur K[X]) est bien égal au produit des deux scalaires a0 et b0 (au sens du
(III.3) deg(P Q) = deg P + deg Q produit sur K).

découle immédiatement de la définition de la multiplication des polynômes. Lorsque


P ou Q est nulle, les deux termes de cette égalité valent −∞ (par convention −∞ 2. Premières propriétés
plus un entier vaut −∞). Lorsque P et Q sont non nuls, le coefficient dominant de
P Q est ad bd0 . On a en particulier
2.a. Division euclidienne
Théorème 2.1. Soient A et B deux polynômes de K[X], avec B non nul. Il existe
P Q = 0 ⇐⇒ (P = 0 ou Q = 0).
un unique polynôme Q et un unique polynôme R dans K[X] tels que :
La multiplication des polynômes vérifie aussi les règles de calcul usuelles :
A = QB + R deg(R) < deg(B).
Proposition 1.7. La multiplication des polynômes est commutative, associative,
et distributive par rapport à l’addition : si P, Q, R ∈ K[X], Définition 2.2. Lorsque R = 0 dans le théorème ci-dessus, c’est à dire lorsqu’il
existe Q dans K[X] tel que A = QB, on dit que B divise A, que A est divisible par
P Q = QP, (P Q)R = P (QR) et P (Q + R) = P Q + P R. B, ou que B est un diviseur de A.
Démonstration. On ne démontrePque l’associativité,Pla2 preuve des autres
P 3propriétés
est laissée au lecteur. Soit P = dk=0
1
ak X k , Q = d`=0 b` X ` et R = dm=0 cm X m Démonstration. Existence.
trois polynômes. On doit vérifier Lorsque A = 0, on peut choisir Q = 0 et R = 0. Supposons A non nul, et notons
A = an X n + an−1 X n−1 + . . . + a1 X + a0 , B = bp X p + bp−1 X p−1 + . . . + b1 X + b0 ,
(III.4) (P Q)R = P (QR). avec n = deg A, p = deg B. Les polynôme Q et R se construisent par récurrence,
en utilisant une “division euclidienne partielle”, résumée dans le lemme suivant, qui
En utilisant la définition de la multiplication, on obtient PQ =
Pd1 +d2 P 
j consiste à diviser seulement les termes de plus haut degré.
j=0 k+`=j ak b` X , puis
P 2.3. Soit G ∈ K[X] tel que deg G ≥ deg B. On note d le degré de G et
Lemme
G = dk=0 gk X k . Soit S = gbpd X d−p . Alors
 
d1 +d2 +d3 d1 +d2 +d3
X X X X X
(P Q)R =  ak b`  cm X r = ak b` cm X r .
F
r=0 j+m=r k+`=j r=0 k+`+m=r (III.5) deg(G − B S) < deg G.

32
2. Premières propriétés

Preuve du lemme. Le polynôme B S est de degré d − p + p = d, et son coefficient Exemple 2.4. Division de X 3 + 2X 2 + X + 1 par X 2 + 1
dominant (le coefficient de X d ) est gbpd × bp = gd . On en déduit comme annoncé que
G − B S est au plus de degré d − 1. X3 + 2X 2 + X + 1 X2 + 1
− X3 − X X +2
Pour montrer l’existence de Q et R, on construit par récurrence deux suites finies 2X 2 + 1
(Aj )j=0...J et (Qj )j=1...J , avec A0 = A et telles que : − 2X 2 − 2
pour tout j = 0, . . . , J, − 1
Le résultat s’écrit : X 3 + 2X 2 + X + 1 = (X 2 + 1)(X + 2) − 1.
(III.6) A = Aj + (Q1 + Q2 + . . . + Qj )B
Quotient : X + 2, reste : −1.
(III.7) do Aj < do Aj−1 Dans cet exemple, on a Q1 = X, A1 = 2X 2 + 1, Q2 = 2 et A2 = −1.
et Exercice 2.5. Effectuer la division euclidienne de A par B dans les cas suivants :
A = X 4 − 2X 2 − X + 1, B = X 2 + X ;
(III.8) do AJ < do B. A = X 6 + 4X 4 − X 2 + 1, B = X 2 + 1.
(voir correction p. 37).
Soit j ≥ 1. Supposons A0 , A1 , . . . , Aj , B1 ,. . . , Bj connus et vérifient (III.6), (III.7)
On distingue deux cas :
2.b. Fonctions polynomiales
— ou bien deg(Aj ) < deg(B), on pose J = j et on arrête la construction ;
— ou bien deg(Aj ) ≥ deg(B). On utilise alors le lemme qui nous donne Qj+1 , Définition 2.6. On appelle fonction polynomiale sur K toute fonction de la forme
tel que Aj+1 = Aj − BQj+1 vérifie do Aj+1 < do Aj . Par définition de Aj+1 et
l’hypothèse de récurrence (III.6), on a bien Pe : K −→ K : x 7→ an xn + an−1 xn−1 + · · · + a2 x2 + a1 x + a0 ,

où les coefficients (aj )j=0...n sont dans K. Le polynôme P = an X n + an−1 X n−1 +


A = Aj+1 + (Q1 + Q2 + . . . + Qj + Qj+1 )B.
· · · + a2 X 2 + a1 X + a0 est appelé polynôme associé à la fonction Pe.
Par (III.5), la suite deg(Aj ) est strictement décroissante. Puisque c’est une suite Remarque 2.7. Il faut toujours avoir en mémoire la différence entre la fonction
d’éléments de N ∪ {−∞}, la construction précédente doit s’arrêter pour un certain polynomiale Pe (et sa variable x) et le polynôme P (et son indéterminée X) ; même
J. Pour lequel (III.8) est vérifié. D’après (III.6) (au rang J) et (III.8), on a bien si, lorsqu’il n’y a pas de confusion possible, on omet d’écrire le symbolee.
obtenu une division euclidienne de A par B, de quotient Q = Q1 + . . . + QJ et de Ainsi, pour tout a ∈ K, on notera désormais P (a) la valeur prise par la fonction
reste AJ .
Pe au point a.
Unicité. Proposition 2.8. Le reste de la division euclidienne d’un polynôme P par X − α
Supposons que A = Q B + R = S B + T , où les degrés de R et T sont strictement est le polynôme constant égal à P (α).
inférieurs à celui de B. On en tire :
Démonstration. La division euclidienne de P par X − α s’écrit :
(III.9) R − T = (S − Q)B et deg(R − T ) < deg(B).
P = (X − α)Q + R avec deg(R) < 1.
On montre Q = S par l’absurde. Si Q 6= S, alors deg(S − Q) ≥ 0. Donc
Puisque deg(R) < 1, le polynôme R est une constante c et P (α) = c.
deg((S − Q) B) = deg(S − Q) + deg(B) ≥ deg(B),
2.c. Polynôme dérivé
ce qui contredit (III.9).
Donc Q = S, d’où R = T par (III.9). Définition 2.9. Soit P = an X n + · · · + a1 X + a0 un polynôme sur K. On appelle
polynôme dérivé de P le polynôme :
En pratique, pour calculer le quotient et le reste de la division euclidienne d’un n−1
polynôme par un autre, on calcule les suites Aj , Qj de la démonstration précédente
X
P 0 = nan X n−1 + (n − 1)an−1 X n−2 + · · · + 2a2 X + a1 = (i + 1)ai+1 X i .
en posant la division euclidienne. i=0

33
III. Les polynômes

Pn
On note P 00 , P 000 , P (4) , . . ., P (k) la suite des polynômes dérivés successifs. On pose Supposons P non nul (sinon le résultat est évident). On note P = k=0 ak X k avec
enfin P (0) = P . n = deg(P ). Par (III.14),
Exemple 2.10. Soit P = 5 + iX 2 + 4X 3 . Alors P 0 = 2iX + 12X 2 , P 00 = 2i + 24X n
etc...
X
(P Q)0 = ak (X k Q)0
Remarquons que la fonction polynôme associée à la dérivée 1 P 0 d’un polynôme k=0
réel P est exactement la dérivée 2 de la fonction polynôme associée à P . n
X h i Xn n
X
= ak (X k )0 Q + X k Q0 = ak kX k−1 Q + ak X k Q0 = P 0 Q + P Q0 ,
Proposition 2.11. Soient P, Q ∈ K[X]. Alors
k=0 k=1 k=0
(III.10) deg P ≥ 1 =⇒ deg(P 0 ) = deg(P ) − 1
ce qui termine la preuve.
(III.11) P 0 = 0 ⇐⇒ P est constant
(III.12) (λP + µQ)0 = λP 0 + µQ0 , P, Q ∈ K[X], λ, µ ∈ K
3. Racines
(III.13) (P Q) = P Q + P Q0 .
0 0

Démonstration. La propriété (III.10) se déduit immédiatement des définitions du 3.a. Cas général
degré et du polynôme dérivé. Définition 3.1. Soit P ∈ K[X]. On dit que α ∈ K est une racine (ou un zéro) de
Preuve de (III.11). Soit P = n
P k P lorsque P (α) = 0.
k=0 ak X un polynôme de degré n. Alors
n
X Théorème 3.2. Soit P ∈ K[X]. Un élément α de K est racine de P si, et seulement
P 0 = 0 ⇐⇒ kak X k−1 = 0 ⇐⇒ ∀k ∈ {1, . . . , n}, ak = 0. si, P est divisible par X − α.
k=1

En particulier, si n ≥ 1, an = 0, une contradiction. Donc n = 0 ou n = −∞, ce qui Démonstration. D’après la proposition 2.8 P = Q (X − α) + P (α), pour un certain
signifie exactement que P est constant. Q ∈ K[X]. Par conséquent P est divisible par X−α si, et seulement si, P (α) = 0.
La preuve de (III.12) est directe et laissée au lecteur.
Exercice 3.3. Soit P le polynôme sur R défini par P = X 3 − X 2 − 3X + 3.
n
Preuve de (III.13). On commence par prouver (III.13) lorsque P = X , n ≥ 1. On a. Déterminer une racine évidente de P .
note
p b. En déduire une expression de P sous la forme d’un produit d’un polynôme de
X
Q= bk X k , p = deg(Q). degré 1 par un polynôme de degré 2.
k=0
c. En déduire l’ensemble des racines de P .
Alors
p p
X X (Correction p. 37.)
P 0 = nX n−1 , Q0 = kbk X k−1 , PQ = bk X k+n .
k=1 k=0 Définition 3.4. Soit P ∈ K[X], α ∈ K et r ∈ N∗ . On dit que α est une racine
et donc d’ordre r, ou de multiplicité r, de P si P = (X − α)r Q avec Q(α) 6= 0.
p p p
X X X D’après le théorème 3.2, une racine est toujours de multiplicité au moins 1.
P 0 Q + P Q0 = nbk X k+n−1 + kbk X k+n−1 = (k + n)bk X k+n−1 = (P Q)0 .
Lorsque r = 1, on dit que la racine est simple.
k=0 k=0 k=0
Lorsque r = 2, on dit que la racine est double.
On démontre maintenant le cas général. On commence par remarquer que si
N ≥ 1, P1 , . . . , PN sont des polynômes et λ1 ,. . . ,λN des scalaires, alors (III.12) et Exemple 3.5. Le polynôme P = 3(X − 1)2 (X − i)(X + i)3 a pour racines 1, i et −i.
une récurrence élémentaire nous donnent : 1 est une racine double, i est une racine simple, et −i est une racine d’ordre 3.
!0 Un trinôme complexe du second degré de discriminant non nul a deux racines
N N
X X simples. Un trinôme du second degré de discriminant nul a une racine double.
(III.14) λk Pk = λk Pk0 .
k=1 k=1 Définition 3.6. On dit que le polynôme P a exactement n racines comptées avec
1. au sens de la dérivation des polynômes leur ordre de multiplicité (ou avec multiplicité) lorsque la somme des multiplicités
2. au sens de la dérivation des fonctions réelles de la variable réelle de ses racines est exactement n.

34
3. Racines

Exemple 3.7. Le polynôme P de l’exemple 3.5 a 3 racines distinctes, mais 6 racines 3.b. Polynômes à coefficients complexes
comptées avec leur ordre de multiplicité.
Théorème 3.12 (Théorème de D’Alembert). (admis) Dans C[X], tout polynôme
Avertissement 3.8. Il y a donc deux manières de compter le nombre de racines d’un non constant admet au moins une racine.
polynôme. L’expression “le polynôme P a n racines” est ambigüe et ne doit jamais
Corollaire 3.13. Tout polynôme P , de degré n ≥1, de C[X] admet exactement n
être utilisée sans précision supplémentaire.
racines complexes (comptées avec leur ordre de multiplicité).
Remarque 3.9. Si P a r racines et Q a s racines (comptées avec leur ordre de
multiplicité), alors P Q a r + s racines (comptées avec leur ordre de multiplicité). Démonstration. Par récurrence sur n. Dans toute la démonstration, les racines sont
Cette propriété n’est plus valable lorsque l’on compte les racines distinctes des comptées avec leur ordre de multiplicité.
polynômes. — Initialisation : si n = 1, le résultat est immédiat.
— Hérédité : supposons que tout polynôme de degré n − 1 de C[X] admette
Exemple 3.10. Si l’on compte les racines avec multiplicité, le polynôme P = (X −1)2 exactement n − 1 racines complexes.
a deux racines, le polynômes Q = (X − 1) a 1 racines, et le polynôme P Q a bien Si P est un polynôme de degré n, d’après le théorème de D’Alembert, il admet
2 + 1 racines. au moins une racine α.
Mais P , Q et P Q ont chacun une seule racine distincte. Il existe donc Q, de degré n-1, tel que P = (X − α)Q. D’après l’hypothèse de
récurrence, Q admet n-1 racines α1 , ..., αn−1 . Par conséquent, P admet les n
Théorème 3.11. Soit P ∈ K[X]. La racine α ∈ K de P est de multiplicité r si et racines α , α1 , ..., αn−1 .
seulement si, pour tout k entre 0 et r − 1, P (k) (α) = 0 et P (r) (α) 6= 0.

Proposition 3.14. Soient f et g deux fonctions polynomiales sur K = Q, R ou C,


Démonstration. Si α est racine de multiplicité r, alors P = (X − α)r Q avec Q(α) 6= définies par f (x) = an xn + · · · + a1 x + a0 et g(x) = bp xp + · · · + b1 x + b0 , avec
0. an 6= 0 et bp 6= 0. Si
En dérivant, on obtient : ∀x ∈ K, f (x) = g(x),
alors p = n et ai = bi pour tout i.
P 0 = r(X − α)r−1 Q + (X − α)r Q0 = (X − α)r−1 rQ + (X − α)Q0 ,

Démonstration. S’il existait i tel que ai 6= bi , la fonction polynomiale f − g serait
de la forme (X −α)r−1 Q1 avec Q1 (α) = rQ(α) 6= 0. Donc, lorsque r > 1, P 0 (α) = 0. de degré k ≥ i. Elle aurait au plus k racines complexes, donc au plus k racines dans
En itérant ce raisonnement, on obtient : K, et ne serait pas identiquement nulle, ce qui est contraire à l’hypothèse.

Remarque 3.15. Il est possible de définir K[X] dés que K a une structure de corps
pour tout k ≤ r, P (k) est de la forme (X − α)r−k Qk avec Qk (α) 6= 0. (un corps est un ensemble muni d’une addition et d’une multiplication vérifiant les
règles de calcul usuelles et certaines propriétés d’inversibilité pour ces opérations).
Donc lorsque k < r, P (k) (α) = 0. De plus P (r) = Qr avec Qr (α) 6= 0 et donc Lorsque K est un corps fini (par exemple Z/2Z), la proposition 3.14 est fausse :
P (r) (α) 6= 0. deux polynômes distincts peuvent définir la même fonction polynôme. La notion de
Réciproquement, supposons P (α) = P 0 (α) = · · · = P (r−1) (α) = 0 et P (r) (α) 6= 0. corps sera vu en 2ème année de licence.
Soit s la multiplicité de α. D’après ce qui précède
3.c. Polynômes à coefficients réels
(III.15) P (α) = . . . = P (s−1) (α) = 0 et P (s) (α) 6= 0
Puisque R ⊂ C, un polynôme à coefficients réels peut être considéré comme
un polynôme à coefficients complexes, et ses racines réelles sont aussi des racines
On montre s = r par l’absurde : complexes. En particulier, un polynôme réel a au plus n racines réels. De plus, pour
— si s > r alors, on aurait P (r) (α) = 0 par (III.15), ce qui est contraire aux un tel polynôme P , si α ∈ C, on a P (α) = P (α) (z désigne le nombre complexe
hypothèses. conjugué de z).
— si s < r alors, on aurait P (s) (α) = 0, contredisant (III.15). La proposition suivante donne les propriétés des racines complexes d’un polynôme
Donc s = r et α est de multiplicité r. réel :

35
III. Les polynômes

Proposition 3.16. Soit P ∈ R[X]. Si α ∈ C est racine de P , alors α l’est aussi. — Si P est irréductible, le résultat est obtenu.
De plus, α et α ont même ordre de multiplicité. — Si P n’est pas irréductible, P = P1 P2 avec deg (P1 ) ≥ 1 et deg (P2 ) ≥ 1.
deg (P1 ) + deg (P2 ) = deg (P ) = n donc deg (P1 ) < n et deg (P2 ) < n. Par
Démonstration. Soit r l’ordre de multiplicité de α. On a donc P (k) (α) = 0 pour hypothèse de récurrence P1 et P2 sont tous les deux produits de polynômes
tout k entre 0 et r − 1, et P (r) (α) 6= 0. Donc, P (k) (α) = P (k) (α) = 0 = 0 pour tout irréductibles donc P est aussi produit de polynômes irréductibles.
k ≤ r − 1 et P (r) (α) = P (r) (α) 6= 0.

Corollaire 3.17. Tout polynôme P , de degré impair de R[X] admet au moins une
racine réelle. 4.b. Polynômes irréductibles de C[X]
Théorème 4.4. Les polynômes de degré 1 sont les seuls polynômes irréductibles
Démonstration. En effet, un nombre complexe α est réel si et seulement si α = α.
de C[X].
Il découle donc de la proposition 3.16 que les racines complexes non réelles de P
peuvent se ranger par paires de racines de même multiplicité. Il y a donc un nombre Démonstration. D’après le théorème de d’Alembert, tout polynôme P , de degré ≥
pair de racines complexes non réelles (comptées avec leur ordre de multiplicité). 2, admet au moins une racine α ∈ C. P est donc divisible par (X − α), et il n’est
Puisque, par le corollaire 3.13, P a exactement deg(P ) racines, le nombre de racines pas irréductible.
réelles de P est impair, et donc non nul.
Corollaire 4.5. (Décomposition dans C[X]). Soit P un polynôme de degré n ≥1
Exercice 3.18. Donner une autre démonstration du corollaire 3.17, en étudiant la de C[X]. Sa décomposition en produit de facteurs irréductibles est de la forme :
fonction polynôme associée à P et en utilisant le théorème des valeurs intermé-
diaires. P = λ (X − α1 )r1 · · · (X − αp )rp avec r1 + ... + rp = n,
Exercice 3.19.
où α1 ,. . . αp sont les racines distinctes de P , r1 ,. . . ,rp leurs multiplicités et λ le
d. Montrer que i est racine double du polynôme P = X 6 + X 5 + 3X 4 + 2X 3 + coefficient dominant de P .
3X 2 + X + 1.
e. Déterminer les réels a et b tels que le polynôme P = X 5 +aX 4 +bX 3 −bX 2 −aX−1 4.c. Polynômes irréductibles de R[X]
admette 1 comme racine de plus grande multiplicité possible.
Théorème 4.6. Les seuls polynômes irréductibles de R[X] sont
— les polynômes de degré 1,
4. Complément : polynômes irréductibles
— les polynômes de degré 2, dont le discriminant est strictement négatif.
4.a. Cas général Démonstration. — Si P est de degré 1, il est irréductible.
Définition 4.1. Un polynôme P non constant qui vérifie la condition : — Si P est un polynôme de degré 2 avec ∆ < 0, il est irréductible. Sinon, il
se décomposerait en produit de deux polynômes, chacun de degré 1 :P =
si P est produit de deux polynômes de K[X], l’un des deux est constant
(aX + b) (cX + d). Il aurait deux racines (distinctes ou confondues), et son
est dit irréductible dans K[X]. discriminant serait ≥ 0. Contradiction.
Par convention, les polynômes constants ne sont pas irréductibles. — Si P est un polynôme de degré 2 avec ∆ ≥ 0, il admet deux racines réelles
Exemple 4.2. Un polynôme de degré 1 est irréductible. (distinctes ou confondues) et s’écrit P = a (X − α1 ) (X − α2 ). Il n’est pas
irréductible.
Théorème 4.3. Dans K [X], tout polynôme P non constant se décompose en pro-
— Si P est un polynôme de degré n > 2, d’après le théorème de d’Alembert, il
duit de polynômes irréductibles
admet au moins une racine α ∈ C
Démonstration. Par récurrence sur le degré n de P : Ou bien α ∈ R, P est divisible par (X − α) , et il n’est pas irréductible.
Ou bien α ∈ / R alors α est aussi racine de P .
Initialisation. Si n = 1 alors le polynôme est irréductible. (X − α)(X − α) = X 2 − 2 Re (α)X + |α|2 est un polynôme à coefficients
Hérédité. Supposons que tout polynôme de degré < n soit produit de polynômes réels.
irréductibles. On fait la division euclidienne dans R[X] : P = (X 2 − 2 Re (α)X + |α|2 )Q+R
Soit P un polynôme de degré n. avec deg R ≤ 1. Or R(α) = R(α) = 0 et α 6= α. Donc R = 0.

36
5. Réponse à quelques exercices
√ √
Par conséquent, P n’est pas irréductible dans R[X] car de degré strictement h. √
L’équation
√ x2 = 3 a deux solutions, 3 et −√ 3. On
√ a donc P (x) = 0 ⇐⇒ x ∈
supérieur à 2 tout en étant divisible par un polynôme de degré 2. {− 3, 0, 3}. Les trois racines de P sont 0, − 3 et 3.
Exercice 4.9. P est divisible par (X − 1 − 2 i)(X − 1 + 2 i) = X 2 − 2X + 5. En
Corollaire 4.7. Décomposition dans R[X] effectuant la division euclidienne on obtient P = (X 2 − 2X + 5)(X 2 + 9) qui est
Soit P un polynôme de degré n ≥1 de R[X]. Sa décomposition en produit de bien le produit de deux polynômes irréductibles de R[X]. La décomposition dans
facteurs irréductibles est de la forme : C[X] s’en déduit immédiatement :

P = (X − 1 − 2 i)(X − 1 + 2 i)(X − 3i)(X + 3i).


P = λ (X − α1 )r1 · · · (X − αp )rp (X 2 + β1 X + γ1 )s1 · · · (X 2 + βk X + γk )sk
Exercice 4.10. Les zéros de P sur C sont les racines troisièmes de l’unité : 1,
avec r1 + · · · + rp + 2(s1 + · · · + sk ) = n et βi2 − 4γi < 0 pour i = 1, · · · k,
j = e2iπ/3 et j 2 = j = e−2iπ/3 . La décomposition en facteurs irréductibles de P sur
et les entiers naturels k et n sont non tous deux nuls. C[X] est donc
P (X) = (X − 1)(X − j)(X − j).
Exemple 4.8. X 3 + X = X(X 2 + 1) = X(X + i)(X − i)
La décomposition dans C[X] est X(X + i)(X − i) Pour obtenir la décomposition en facteurs irréductibles sur C[X], on calcule (X −
La décomposition dans R[X] est X(X 2 + 1). j)(X − j) ou on effectue la division euclidienne de P par (X − 1). On obtient
Exercice 4.9. Décomposer en produit de facteurs irréductibles dans R[X] le po-
P (X) = (X − 1)(X 2 + X + 1).
lynôme P = X 4 − 2 X 3 + 14 X 2 − 18 X + 45 sachant qu’il admet 1 + 2 i comme
racine.
Exercice 4.10. Décomposer en produit de facteurs irréductibles le polynôme X 3 + 1
dans R[X] puis dans C[X].

5. Réponse à quelques exercices


Exercice 2.5.
X4 − 2X 2 − X + 1 X2 + X
− X4 − X 3
X2 − X − 1
− X3 − 2X 2 − X + 1
X3 + X2
− X2 − X + 1
X2 + X
1

Le quotient de la division euclidienne de X − 2X − X + 1 par X 2 + X est donc


4 2

X 2 − X − 1, le reste est 1.

De même, on trouve que le quotient de la division euclidienne de X 6 +4X 4 −X 2 +1


par X 2 + 1 est X 4 + 3X 2 − 4, et le reste 5.
Exercice 3.3.
f. 1 est une racine de P .
g. En effectuant la division euclidienne de P par X − 1, on obtient P = (X −
1)(X 2 − 3).

37
III. Les polynômes

6. Travaux dirigés c. D’après la question (b), il existe un polynôme non nul P , à coefficients entiers,
tel que
Exercice III.1. Soit P un polynôme de degré n ∈ N. Donner les degrés des poly-
 π
P cos = 0.
nômes suivants : P 4 + 2P 3 , P 0 P 00 , P − (P 0 )2 . 10
Exercice III.2. Effectuer la division euclidienne de A par B dans chacun des cas Soit m et n des entiers naturels avec n 6= 0. Montrer qu’il existe un polynôme Q
suivants : non nul, à coefficients entiers, tel que
 mπ 
a) A = X 3 , B = X + 2 b) A = X 3 + X 2 + X − 1, B = X 2 + iX + 1 Q cos = 0.
n
c) A = X + 1, B = X 3 + X 2 d) A = 2X 5 + 4X 4 − 1, B = 2X 3 + 2X + 1. On dit que cos mπ
est algébrique.
n

Exercice III.3. A l’aide d’une division euclidienne, déterminer pour quels réels a le Pour d’autres exercices sur les polynômes, on pourra consulter la feuille de TD
polynôme P = X 5 + X 4 + aX 2 − 1 est divisible par Q = X 3 + X + 1. 2 de 2014 :

Exercice III.4. [Link]


4 3
a. Montrer en effectuant une division euclidienne que le polynôme P = X + 2X −
4X − 4 est divisible par X 2 + 2X + 2. 7. Exercices à préparer pour le contrôle continu
2
b. Calculer les racines de X + 2X + 2. Montrer que ce sont aussi des racines de Exercice III.11. Déterminer toutes les racines du polynômes X 4 − 6X 2 − 8X − 3
P . En déduire une autre démonstration du résultat de la question précédente. avec leurs ordres de multiplicité. On pourra commencer par chercher une racine
Exercice III.5. Soit P le polynôme X 8 + 3X 4 + 2. évidente.
a. Le polynôme P a-t-il des racines réelles ? Exercice III.12. Déterminer le reste et le quotient de la division euclidienne de
X 3 + 3X 2 + 2X + 1 par X + 1 (ou toute autre division euclidienne de polynômes).
b. Déterminer les racines complexes de P et leur ordre de multiplicité.
Exercice III.13. Soit P le polynôme
Exercice III.6. Soit P = X 3 − (1 + 3i)X 2 + (−3 + 2i)X + 1 + i.
a. Montrer que i est racine de P et donner son ordre de multiplicité. P = X 4 − 2iX 3 − 3X 2 + 4iX + 2.
b. Déterminer toutes les racines de P et leur ordre de multiplicité. a. Montrer que i est une racine de P . Déterminer son ordre de multiplicité.
Exercice III.7. Soit P = X 4 − 4X 3 + 5X 2 − 4X + 4. b. Déterminer toutes les racines complexes de P avec leurs ordres de multiplicité.
a. Montrer que 2 est racine de P et donner son ordre de multiplicité.
b. Déterminer toutes les racines réelles, puis toutes les racines complexes de P et
leurs ordres de multiplicité.
Exercice III.8. Montrer que le polynôme X 5 + 3X 3 + 2X − 4 a une et une seule
racine réelle. On ne demande pas de calculer cette racine.
Exercice III.9. Soit P ∈ C[X]. Soient a et b deux nombres complexes distincts.
Calculer le reste de la division de P par (X − a)(X − b) en fonction de P (a) et P (b).
F Exercice III.10.
a. Calculer cos(5a) en fonction de cos(a) et sin(a), puis seulement en fonction de
cos(a).
b. A l’aide de la question précédente, montrer
  
 π  π 3π 3π 5 5
X − cos X + cos X − cos X + cos = X4 − X2 + .
10 10 10 10 4 16

38
IV. Matrices et polynômes en C

Le but de ce court chapitre est de donner les bases pour utiliser matrices et poly- 1.c. Structures de contrôle
nômes en programmation. Le langage retenu est le C. Les opérations élémentaires
Elles contrôlent l’enchaînement des instructions de votre code (le “flot”). Il y a le
vues au chapitres précédents (multiplication, évaluation etc.) seront programmées
test d’une expression (ici i==0) :
en TD/TP. La notion de complexité d’un algorithme est introduite en fin de chapitre
et sera étudiée plus en détails dans un chapitre ultérieur. if (i==0)
printf("i est nul");
1. Rappels de base en C else
printf("i n’est pas nul");
1.a. Code source et exécutable La boucle while (tant que) :
Votre code source ou programme est un fichier texte, traditionnellement avec une while (i>0)
extension .c, comme code.c. Vous créez et éditez ce fichier texte avec votre éditeur {
préféré (gedit, emacs. . . ), qu’il faut ensuite le compiler, i.e., le transformer en un i=i-1;
fichier exécutable par la machine : }
gcc code.c -o code
Enfin, très utile pour les matrices ou polynômes qui sont des structures de taille
L’exécutable produit s’appelle ici code (le “o” de l’option -o signifie “output”) et on donnée, la boucle for (pour) itère une partie du code en incrémentant une variable
lance l’exécution par la commande (compteur) à chaque passage (i++) tant qu’une certaine condition est vérifiée (i<p).
On peut les imbriquer, mais attention à utiliser des compteurs différents !
./code
for (i=0; i<p; i++)
1.b. Structure type d’un programme {
for (j=0; j<q; j++)
#include <stdlib.h>
{
#include <stdio.h>
...
}
int blublu (int);
}
int main
{ 1.d. Variables
int i=3; Les variables (y compris les compteurs de boucle for) se déclarent dans la fonction
int j=blublu(3); où elles sont utilisées. Il faut préciser leur type : entier int, flottant float. . . Elles
return EXIT_SUCCESS; peuvent être affectées au moment de leur déclaration ou plus tard. On peut éven-
} tuellement convertir leur type (cast) dans la limite du raisonnable (typiquement :
de flottant à entier).
int blublu (int i)
{ int i;
return i+1; float f=3.14;
} i=(int)f;

39
IV. Matrices et polynômes en C

Attention : l’ensemble des flottants n’est qu’une approximation du corps des réels 2. Matrices et Polynômes
(en particulier, il est fini et n’est pas toujours stable par addition ou multiplication) :
ceci peut parfois être une source difficile à détecter d’erreurs de calcul. Une matrice est un tableau à deux dimensions stocké dans la mémoire de l’ordi-
nateur. Un polynôme an X n + . . . + a0 donné par ses coefficients peut être stocké
en mémoire comme une matrice avec une ligne et n + 1 colonnes, la i-ème colonne
1.e. Pointeurs donnant le coefficient ai du monôme de degré i.
La mémoire d’un ordinateur est comme une longue rue : la valeur d’une variable
y est rangée dans une case mémoire comme un habitant dans sa maison, et pour 2.a. Allocation statique
accéder à cette valeur il faut son adresse, laquelle pointe sur cette valeur. L’adresse
d’une variable i est &i, et le contenu de la case à l’adresse P est *P. Une première façon de manipuler matrices ou polynômes est de les déclarer en
début de fonction, comme ici un tableau t de deux entiers et un tableau 2 × 3 (une
int i=5; //la variable i est initialisée à la valeur 5 matrice) m de flottants :
int* P; //P est une adresse qui pointera sur des entiers (type int*)
P=&i; //on fait pointer P sur i : P est l’adresse de i int t[2];
int j=*P; //j est initialisé par l’entier pointé par P et vaut donc 5 float m[2][3];

Dans l’exemple ci-dessus on aurait pu se passer de P et faire simplement


On écrit ou lit dans ces tableaux de façons très naturelle :
int j=i;
t[0]=1;
Mais l’intérêt de déclarer un pointeur (une adresse) sur des entiers et d’accéder à m[1][2]=t[1];
plusieurs entiers voisins dans la mémoire (ce qui sera bien utile pour les matrices) :
Remarquons que la numérotation commence à 0 (un tableau de taille n est donc
int k=*(P+1); // k est initialisé au contenu (inconnu) du voisin de i numéroté de 0 à n − 1).
Attention cependant à ne pas modifier la mémoire n’importe où, i.e., en dehors On peut aussi initialiser les tableaux dès leur création :
des cases que vous avez explicitement demandées au système (soit en déclarant une
variable, soit via un malloc - memory allocation), sinon c’est le classique et fâcheux int t[2]={1,2};
segmentation fault. int m[2][3]={{1,2,3},{4,5,6}};

Cependant, la taille d’un tableau ainsi défini doit être définie explicitement dans
1.f. Divers le code, i.e., avant compilation, et non par une variable (même si elle est connue
à l’exécution). En outre, comme toute variable définie dans une fonction, un tel
Des commentaires peuvent être mis dans le code du programme, soit entre
tableau est “oublié” à la fin de la fonction (la mémoire correspondante est allouée
/* */, soit sur une ligne après //. Ils sont précieux pour qui lira votre programme,
à l’appel de la fonction et libérée à son retour). La fonction suivante, qui semble
vous au premier chef, n’en soyez pas avare.
pourtant naturelle, est donc doublement incorrecte :
Pour construire des exemples en TD/TP, il sera utile se générer des nombres int t[] suite(int n)
aléatoires (ici un entier entre 0 et 10) : {
int t[n];
int i =(rand() / (double)RAND_MAX * 10);
for (i=0; i<n; i++)
La commande unix printf est également très utile (ne serait-ce que pour un {
debuggage artisanal). On passe à la ligne suivante avec le caractère \n. t[i]=i;
}
printf("Un entier %d, un nombre flottant %f\n",i,x); return t;
printf("Le même flottant avec deux chiffres significatifs %.2f",x); }

40
3. Complexité

2.b. Allocation dynamique


On remédie au problème précédent par une allocation dynamique : on demande
au système de nous allouer (malloc) un bloc mémoire (dont la taille peut être
déterminée à l’exécution) qui servira à stocker notre tableau. La fonction suite
précédente devient alors possible :

int* suite(int n)
{
int* P = malloc(n*sizeof(int)); // place pour n entiers à l’adresse P
int i; // déclaration nécessaire pour la boucle for
for (i=0; i<n; i++)
{
*(P+i)=i; // valeur i dans le i-ème entier après l’adresse P
P[i]=i; // écriture simplifiée équivalente
}
return P;
}

On n’oubliera pas de libérer (free) la mémoire allouée quand on ne s’en sert plus
(le compilateur retient tout seul la taille du bloc à libérer - au moins une chose que
C sait faire tout seul). La fonction précédente s’utilisera donc comme suit :

int* P=suite(100);
...
free(P);

3. Complexité
Un algorithme est une méthode automatique (donc programmable) pour résoudre
un problème donné (par exemple, multiplier deux matrices entre elles). Il peut y
avoir différents algorithmes pour résoudre un même problème. La complexité d’un
algorithme cherche à mesurer son temps d’exécution en fonction de la taille des
données qu’il traite (par exemple, la taille des matrices à multiplier). Pour mesurer
cela, on compte le nombre d’opérations élémentaires (additions, multiplications,
comparaisons. . . ).

Plutôt que le nombre exact d’opérations, on veut avoir une idée générale de ce
qui se passe pour des grandes données. Formellement, étant donnée une fonction
f : N → N, on note

O(f (n)) := {g : N → N | ∃k, ∀n, g(n) ≤ kf (n)},

et on cherche une fonction f “simple” telle que la complexité soit dans O(f (n)). Par
exemple, si le nombre exact d’opérations est 5n2 + 2 log(n) − 5, on se contentera de
de dire qu’il y a O(n2 ) opérations : la complexité est quadratique.

41
IV. Matrices et polynômes en C

42
V. Espaces et sous-espaces vectoriels

Comme dans les chapitres précédents, on fixe K = R ou C. Les éléments de K On note ~0 le vecteur de Kn dont toutes les coordonnées sont nulles :
sont appelés nombres, ou scalaires.
~0 = (0, 0, . . . , 0).

1. Définitions et exemples On a :

(V.1) ∀λ, λ~0 = ~0, ∀~ x = ~0.


x, 0~
1.a. L’espace vectoriel Kn
x = (xj )j=1...n ∈ Kn . On note −~
Soit ~ x le vecteur (−x1 , . . . , −xn ). C’est l’unique
Soit n ≥ 1 un entier. On rappelle que Kn est l’ensemble des n−uplets
x0 tel que ~
vecteur ~ x+~ x0 = ~0. On notera ~
x−~ y =~ x + (−~ y ) la différence de deux
(x1 , . . . , xn ) = (xj )j=1...n , avec xj ∈ K pour tout n. Un élément ~x de Kn est
vecteurs.
appelé vecteur. Les vecteurs seront toujours notés avec une flèche pour les différen-
La multiplication par un scalaire a la propriété de régularité suivante :
cier des éléments de K (les scalaires) notés sans flèche : ainsi ~ x, ~
y, ~
x1 , ~
x2 seront
des vecteurs, x, y, λ, µ, x1 , x2 des scalaires. Les lettres grecques (λ, µ, ν etc...) x ∈ Kn . Alors
Proposition 1.3. Soit λ ∈ K, ~
désigneront systématiquement des scalaires (cf l’alphabet grec p. 53).
x = ~0 =⇒ (λ = 0 ou ~
λ~ x = ~0).
On considère sur Kn les deux opérations suivantes :
Addition : soit ~
x = (xj )j=1...n et ~
y = (yj )j=1...n des vecteurs. Leur somme ~
x+~
y Démonstration. Supposons λ~ x = ~0 et λ 6= 0. En multipliant l’égalité par 1/λ et en
est par définition le vecteur (xj + yj )j=1...n . x = ~0, ce qui
utilisant la propriété d’associativité (iii), ainsi que (V.1), on obtient ~
conclut la preuve.
Multiplication par un scalaire : si λ est un scalaire et ~
x = (xj )j=1...n un vecteur,
leur produit est par définition le vecteur (λxj )j=1...n .
1.b. Espaces vectoriels généraux
Exemples 1.1.
On donne maintenant la définition générale d’un espace vectoriel.
i(i, −1, 2) + (1, i, 4i) = (0, 0, 6i), (k)k=1...10 + (−j + 1)j=1...10 = (1, 1, 1, . . . , 1) . Définition 1.4. On appelle K-espace vectoriel tout ensemble E muni d’une addition
| {z }
10 fois E × E → E et d’une multiplication par un scalaire K × E → E qui vérifient les
propriétés (i), (ii), (iii), (iv) et (v) ci-dessus, et tel qu’il existe ~0 ∈ E vérifiant (V.1).
Avertissement 1.2. On a défini le produit d’un scalaire par un vecteur, et pas le
produit de deux vecteurs. Comme on vient de le vérifier, Kn muni de l’addition et de la multiplication par
un scalaire est un espace vectoriel sur K. Nous avons vu aux chapitres précédents
L’addition et multiplication par un scalaire vérifient les règles de calcul suivantes :
deux autres exemples d’espaces vectoriels :
i. Associativité de l’addition : ∀~
x, ~
y , ~z, (~
x+~
y ) + ~z = ~
x + (~
y + ~z) (on notera — l’ensemble Mp,n (K) des matrices à p lignes et n colonnes (muni de l’addition
~x + ~
y + ~z leur valeur commune). et de la multiplication par un scalaire définis au chapitre II) ;
ii. Commutativité de l’addition : ∀~
x, ~
y, ~
x+~
y=~
y+~
x. — l’ensemble K[X], muni de l’addition et de la multiplication par un scalaire.
Remarquons que la multiplication d’un polynôme P ∈ K[X] par un scalaire
iii. Associativité de la multiplication : Pour tous scalaires λ et µ, pour tout vecteur λ ∈ K est définie puisqu’on sait multiplier les polynômes entre eux, et grâce
~x, λ(µ~x) = (λµ)~
x. à l’identification des polynômes de degré 0 avec K.
iv. Distributivité : Pour tous scalaires λ et µ, pour tous vecteurs ~
x et ~
y , λ(~
x +~
y) = Exercice 1.5. Vérifier que Mp,n (K) et K[X] sont des K-espaces vectoriels en faisant
λ~x + λ~
y et (λ + µ)~x = λ~x + µ~x. référence explicitement à des résultats des chapitres II et III.
v. Pour tout vecteur ~
x, 1~
x=~
x. On définit maintenant une classe importante d’espaces vectoriels.

43
V. Espaces et sous-espaces vectoriels

2. Sous-espaces vectoriels est un sous-espace vectoriel de E, appelée droite (vectorielle) de E. Dans le cas où
E est l’espace vectoriel R2 ou R3 , ces ensembles sont exactement les droites du plan
On fixe un K-vectoriel E. ou de l’espace passant par l’origine.
Exemple 2.8. L’ensemble {(λ, λ, 2λ), λ ∈ R} est un sous-espace vectoriel du R-
2.a. Deux définitions équivalentes espace vectoriel {(λ, µ, λ + µ), λ ∈ R, µ ∈ R} introduit dans l’exemple 2.6.
Proposition 2.1. Soit F un sous-ensemble de E. Les propositions suivantes sont Un sous-espace vectoriel de Kn étant un espace vectoriel, on peut considérer des
équivalentes : sous-espaces vectoriels de sous-espaces vectoriels de Kn .
i. F est un K-espace vectoriel. Exercice 2.9. Soit E l’espace vectoriel
ii. Les trois propriétés suivantes sont vérifiées : E = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 = 0}.
• ~0 ∈ F ;
Parmi ces sous-ensembles de R4 lesquels sont des sous-espaces vectoriels de E ?
• (~ y ) ∈ F 2 =⇒ ~
x, ~ x+~y∈F;
• (~x ∈ F, λ ∈ K) =⇒ λ~x ∈ F. F1 = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 + x3 = 0},

Définition 2.2. Un ensemble F vérifiant les propriétés de la proposition 2.1 est F2 = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 = 0 et x2 + x3 = 0},
appelé sous-espace vectoriel de E. F3 = {(x1 , x2 , x3 , x4 ) ∈ R4 : x1 + x2 = 0 et x1 + x3 = 1}.

Preuve de la proposition 2.1. L’implication (i)=⇒(ii) découle trivialement de la dé- (cf correction p. 49).
finition 1.4 d’un espace vectoriel. Nous omettons la démonstration de l’implication Définition 2.10. On appelle combinaison linéaire de ~ u1 ,. . . ~
un un vecteur de E de
(ii)=⇒(i). Pour une bonne compréhension du cours, il est essentiel pour le lecteur la forme λ1 ~
u1 + . . . + λn ~
un , où λ1 ,. . . ,λn sont des scalaires.
de démontrer lui-même cette implication, c’est à dire de vérifier que (ii) implique
toutes les conditions de la définition 1.4. Proposition 2.11. Soit F un sous-espace vectoriel de E. Alors toute combinaison
linéaire d’éléments de F est un élément de F .
Exemple 2.3. Dans ce cours, conformément au programme de L1 de l’institut Ga-
lilée, nous considérerons principalement des espaces vectoriels qui sont des sous- Démonstration. C’est immédiat, par récurrence sur le nombre de termes de la com-
espaces vectoriels de Kn . binaison linéaire.
Exemple 2.4. Les ensembles {~0} et E sont des sous-espaces vectoriels de E, appelés
sous-espace vectoriels triviaux de E. 2.b. Intersection
n Proposition 2.12. Soit F et G des sous-espaces vectoriels du K-espace vectoriel E.
Exemple 2.5. Soit (a1 , . . . , an ) ∈ K . L’ensemble des solutions ~
x = (x1 , . . . , xn ) de
l’équation linéaire homogène : Alors F ∩ G est un sous-espace vectoriel de E.

a1 x1 + a2 x2 + . . . + an xn = 0 Démonstration. C’est immédiat.


Puisque F et G sont des sous-espaces vectoriels de E, on a ~0 ∈ F et ~0 ∈ G et donc
est un K-espace vectoriel. Cet exemple est essentiel ! On peut également vérifier ~0 ∈ F ∩ G. De même, si ~ y sont des vecteurs de F ∩ G, ce sont des vecteurs de
x et ~
que l’ensemble des solutions d’un système linéaire homogène est un sous-espace F , donc ~
x+~ y ∈ F (car F est un sous-espace vectoriel de E), et des vecteurs de G,
vectoriel de Kn (cf exemple 2.15 plus bas). Attention les équations et systèmes donc ~x+~ y ∈ G (car G est un sous-espace vectoriel de E). Par suite ~ x+~ y ∈ F ∩ G.
linéaires non-homogènes ne sont pas des espaces vectoriels. 1 La preuve de (~x ∈ F ∩ G, λ ∈ K) =⇒ λ~ x ∈ F ∩ G est identique.
Exemple 2.6. L’ensemble {(λ, µ, λ + µ), λ ∈ R, µ ∈ R} est un R-espace vectoriel.
Exemple 2.13. L’intersection des sous-espaces vectoriels de C3
u ∈ E \ {~0}, l’ensemble
Exemple 2.7. Si E est un espace vectoriel, et ~
F = {(0, x2 , x3 ), (x2 , x3 ) ∈ C2 } et G = {(x1 , x2 , 0), (x1 , x2 ) ∈ C2 }
{λ~
u, λ ∈ K}
est le sous-espace vectoriel de C3 :
1. Ce sont des espaces affines, généralisation simple des espaces vectoriels dont l’étude n’est
pas au programme de ce cours. F ∩ G = {(0, z, 0), z ∈ C}.

44
2. Sous-espaces vectoriels

Proposition 2.14. Soit F1 , . . . , Fn des sous-espaces vectoriels de E. Alors F1 ∩ F1 ∩ est un sous-espace vectoriel de E, appelé espace vectoriel engendré par ~ u1 ,. . . ,~
un et
. . . ∩ Fn est un sous-espace vectoriel de E. noté
vect(~u1 , . . . , ~
un ) ou vect{~ un }.
u1 , . . . , ~
Démonstration. Par récurrence sur n, à partir de la proposition 2.12.
Démonstration. Notons F cet ensemble. On a ~0 = 0~ un ∈ F . Il est
u1 + . . . + 0~
L’exemple suivant est fondamental, et fait le lien avec le chapitre I du cours.
également très simple de vérifier que F est stable par addition et multiplication par
Exemple 2.15. Soit (H) un système linéaire homogène : un scalaire, ce qui montre le résultat.


 a11 x1 + a12 x2 + . . . + a1n xn = 0 Exemple 2.19.

 a21 x1 + a22 x2 + . . . + a2n xn = 0 vect(~0) = {~0}.


(H) .. .. Si ~
u est un vecteur non nul de E, vect(~
u) est la droite engendrée par ~
u (cf exemple
. .


2.7).



ap1 x1 + a22 x2 + . . . + apn xn = 0.

u = (1, 0, 1) et ~v = (0, 1, 1). Le sous-espace vectoriel de R3
Exemple 2.20. Soit ~
alors l’ensemble F des solutions de (H) est un sous-espace vectoriel de Kn . En vect(~
u, ~v ) est
effet, notons, pour i ∈ {1, . . . , p}, Fi l’ensemble des solutions de l’équation ai1 x1 +
ai2 x2 + . . . + ain xn = 0. Par l’exemple 2.5, c’est un sous-espace vectoriel de E. Par u + µ~v , (λ, µ) ∈ R2 } = {(λ, µ, λ + µ), (λ, µ) ∈ R2 }.
{λ~
la proposition 2.14, F = F1 ∩ F2 ∩ . . . ∩ Fn est un sous-espace vectoriel de E.
C’est exactement le sous-espace vectoriel de R3 vu dans l’exemple 2.6.
On peut aussi montrer directement que F est un sous-espace vectoriel de E, en
revenant à la définition d’un sous-espace vectoriel. L’espace vectoriel engendré par (~
u1 , . . . , ~
un ) est le plus petit espace vectoriel qui
contient (~
u1 , . . . , ~
un ) :
Avertissement 2.16. Soit F et G deux sous-espaces vectoriels de E. Alors la réunion
F ∪ G n’est pas, en général, un sous-espace vectoriel de E. Par exemple, la réunion Proposition 2.21. Soit (~u1 , . . . , ~
un ) des vecteurs d’un espace vectoriel E, et F un
des sous-espaces vectoriels {(x1 , 0), x1 ∈ R} et {(0, x2 ), x2 ∈ R} de R2 n’est pas sous-espace vectoriel de E tel que
un sous-espace vectoriel de R2 : elle contient les vecteurs (1, 0) et (0, 1) mais pas
leur somme (1, 1). Un résultat plus précis est donné par la proposition suivante. ∀j ∈ {1, . . . , n}, ~
uj ∈ F.

Proposition 2.17. Soit F et G des sous-espaces vectoriels de E. Alors F ∪ G est un Alors vect(~ un ) ⊂ F .
u1 , . . . , ~
sous-espace vectoriel de E si et seulement si F ⊂ G ou G ⊂ F .
Démonstration. Soit F un sous-espace vectoriel de E qui contient ~ u1 , . . . , ~
un . Par
Démonstration. Supposons que F n’est pas inclus dans G et que G n’est pas inclus la proposition 2.11, toute combinaison linéaire d’éléments de F est dans F . Donc
dans F . Il existe alors un vecteur ~
x qui est dans F , mais pas dans G, et un vecteur
~
y qui est dans G, mais pas dans F . Alors ~ y sont tous les deux dans F ∪ G.
x et ~ vect(~ un ) ⊂ F.
u1 , . . . , ~
Mais ~x + ~y∈/ F (sinon on aurait ~y=~ y+~ x−~ x ∈ F ) et ~
x+~ y∈/ G (sinon on aurait
~
x = ~x + ~y−~ y ∈ G. Donc ~ x+~ y ∈/ F ∪ G, ce qui montre que F ∪ G n’est pas un
sous-espace vectoriel de E.
2.d. Somme, somme directe, supplémentaires
2.c. Sous-espace vectoriel engendré par une famille de vecteurs
Somme de deux sous-espaces vectoriels
On donne maintenant un exemple important de sous-espace vectoriel. Soit n ≥ 1
La démonstration (facile) de la proposition suivante est laissée au lecteur :
et ~
u1 ,. . . ,~
un des vecteurs de E (on dit aussi que (~
u1 , . . . , ~
un ) est une famille de
vecteurs de E, cf section 3 plus bas). Proposition 2.22. Soit F et G deux sous-espaces vectoriels d’un K-espace vectoriel
E. L’ensemble H = {~ x+~ y , ~x ∈ F, ~
y ∈ G} est un sous-espace vectoriel de E.
Proposition 2.18. L’ensemble des combinaisons linéaires des vecteurs ~ u1 ,. . . ,~
un de
E : n o Définition 2.23. Le sous-espace vectoriel H de la proposition précédente est noté
λ1 ~ un , (λ1 , . . . , λn ) ∈ Kn
u1 + . . . + λn ~ F + G et appelé somme de F et G.

45
V. Espaces et sous-espaces vectoriels

x = (x1 , x2 , x3 ) ∈ R3 t.q. x1 = 0} et G = {~
Exemple 2.24. Soit F = {~ x ∈ Supposons maintenant F ∩ G = {~0}. Soit ~
x et ~y des vecteurs de F , ~
u et ~v des
R3 t.q. x3 = 0}. Alors vecteurs de G. On suppose
F + G = R3 . ~
x+~ u=~ y + ~v .
x = (x1 , x2 , x3 ) ∈ R3 , on a :
En effet, si ~ Alors
(x1 , x2 , x3 ) = (0, x2 , x3 ) + (x1 , 0, 0), x−~
~ y = ~v − ~
u.
| {z } | {z }
∈F ∈G Donc ~x−~y = ~v − ~
u ∈ F ∩ G (car ~ x−~ u ∈ G). Puisque F ∩ G = {~0},
y ∈ F et ~v − ~
x ∈ F + G.
et donc ~ on en déduit ~
x=~ y et ~
u = ~v , ce qui termine la preuve.
Exemple 2.25. Soit n, p ≥ 1 et ~
u1 , . . . , ~
un , ~v1 , . . . , ~vp des vecteurs de E. Alors
Exemple 2.29. La somme F + G de l’exemple 2.24 n’est pas directe. En effet, on
vect(~
u1 , . . . , ~
un ) + vect(~v1 , . . . , ~vp ) = vect(~
u1 , . . . , ~
un , ~v1 , . . . , ~vp ). voit facilement que

En effet, notons F l’espace vectoriel engendré par les vecteurs ~ uj et G l’espace F ∩ G = {(x1 , x2 , x3 ), t.q. x1 = 0 et x3 = 0} = vect (0, 1, 0) 6= (~0).

vectoriel engendré par les vecteurs ~vj . Par définition, F + G est l’ensemble des ~ x+~ y
x ∈ F et ~
avec ~ y ∈ G. En utilisant la définition d’un espace vectoriel engendré, on Exemple 2.30. La somme des droites de R3 , {(x, 0, 0), x ∈ R} et {(0, y, 0), y ∈ R}
obtient : est directe. Le seul point commun à ces droites est bien l’origine {~0}.
n o
F + G = λ1 ~ un + µ1~v1 + . . . + µp~vp , (λ1 , . . . , λn , µ1 , . . . , µp ) ∈ Kn+p
u1 + . . . + λn ~
Supplémentaires
ce qui donne le résultat annoncé.
Définition 2.31. On dit que les sous-espaces vectoriels F et G sont supplémentaires
Exemple 2.26. La somme des droites de R3 , {(x, 0, 0), x ∈ R} et {(0, y, 0), y ∈ R}
dans E lorsque
est le plan de R3 :
E = F ⊕ G.
{(x, y, 0), x ∈ R}.
Ceci découle immédiatement de la définition de la somme de deux sous-espaces En d’autres termes, la somme de F et G est directe, et égale à E.
vectoriels. C’est aussi un cas particulier de l’exemple précédent (avec n = p = 1,
Donc par définition, F et G sont supplémentaires dans E si et seulement si tout
~
u1 = (1, 0, 0) et ~v1 = (0, 1, 0)).
élément ~z de E s’écrit de manière unique ~z = ~
x+~ x ∈ F et ~
u avec ~ u ∈ G.

Somme directe Exemple 2.32. Les droites vect{(1, 0)} et vect{(0, 1)} sont supplémentaires dans
R2 .
Définition 2.27. Soit F et G deux sous-espaces vectoriels d’un K-espace vectoriel
Exemple 2.33. Les espaces F et G des exemples 2.24 et 2.29 ne sont pas supplé-
E. On dit que la somme de F et G est directe quand tout élément de F + G s’écrit
mentaires dans R3 : leur somme est bien égale à R3 , mais elle n’est pas directe.
de manière unique ~x+~ u avec ~ x ∈ F et ~ u ∈ G. En d’autres termes :
Les deux droites de R3 apparaissant dans l’exemple 2.30 ne sont pas supplémen-
taires dans R3 : leur somme est directe, mais elle ne vaut pas R3 .
   
~
x+~ u=~ y + ~v , (~ y ) ∈ F 2 et (~
x, ~ u, ~v ) ∈ G2 =⇒ ~x=~ y et ~
u = ~v .
Exercice 2.34. Soit F = {(x1 , 0, x3 ), (x1 , x3 ) ∈ K2 } et G = vect{(0, 1, 1)}. Vérifier
On note alors F ⊕ G la somme de F et G. que F et G sont supplémentaires dans R3 . (Correction p. 49.)
Proposition 2.28. La somme F + G est directe si et seulement si F ∩ G = {~0}.
Somme de plusieurs espaces vectoriels
x ∈ F ∩ G. Alors
Démonstration. Supposons que la somme est directe. Soit ~
On généralise maintenant ce qui précède au cas de plusieurs espaces vectoriels.
~ ~0 = ~0 + ~
x + |{z} x ,
|{z} |{z} |{z} Soit E1 ,. . . ,En des sous-espaces vectoriels de E (n ≥ 2).
∈F ∈G ∈F ∈G
La somme E1 + . . . + En (notée encore n
P
j=1 Ej ) est le sous-ensemble de E formé
et par unicité de la décomposition d’un vecteur comme somme d’un élément de F des vecteurs ~v1 + . . . + ~vn , avec ~vj ∈ Ej pour j = 1 . . . n. On montre facilement que
x = ~0. D’où F ∩ G = {~0}.
et d’un élément de G, on obtient ~ c’est un sous-espace vectoriel de E.

46
3. Familles de vecteurs

On dit que cette somme est directe (et on la note E1 ⊕ . . . ⊕ En ) lorsque l’écriture 3.a. Familles de vecteurs : définition
~v = ~v1 + . . . + ~vn avec ~vj ∈ Ej pour tout j est unique, i.e. lorsque
Définition 3.1. Soit n un entier ≥ 1. Une famille (finie) F de n vecteurs de E est un
  n-uplet (~u1 , . . . , ~
un ) de vecteurs de E. On note ~ u ∈ F quand ~u est un des vecteurs
~v1 + . . . + ~vn = ~ un et ∀j ∈ {1, . . . , n}, ~vj ∈ Ej , ~
u1 + . . . + ~ u j ∈ Ej uj . Le nombre n est le cardinal de F, et on note n = |F |. On convient qu’il existe
~
une seule famille de cardinal 0, notée ∅.
=⇒ ∀j ∈ {1, . . . , n}, ~vj = ~
uj .
Soit F = (~ un ) et G = (~v1 , . . . , ~vp ) deux familles de vecteurs. On note
u1 , . . . , ~
F ∪ G = (~ u1 , . . . , ~
un , ~v1 , . . . , ~vp ).
Cette condition est équivalente (le vérifier !) à
Si F = (~u1 , . . . , ~un ) est une famille de vecteurs, et G est une autre famille de la
  forme (~ ukp ) avec 1 ≤ k1 < k2 < . . . < kp ≤ n, on dit que G est extraite de
uk1 , . . . , ~
~v1 + . . . + ~vn = ~0 et ∀j ∈ {1, . . . , n}, ~vj ∈ Ej =⇒ ∀j ∈ {1, . . . , n}, ~vj = ~0. F, et on note G ⊂ F. On dit aussi que la famille F complète la famille G.

Exemple 3.2. Soit


Si la somme est directe, on a j 6= k =⇒ Ej ∩ Ej = {~0}, mais cette condition n’est
pas suffisante dès que n ≥ 3 (cf exemple 2.35 ci-dessous).
   
F = (1, 0, 0), (0, 1, 0), (0, 1, 0), (1, 0, 1) et G = (1, 0, 0), (0, 1, 0), (1, 0, 1) .
Comme dans le cas n = 2, on dit que E1 ,. . . , En sont supplémentaires lorsque
leur somme est directe et vaut E. Ainsi, les espaces (Ej )j=1...n sont supplémentaires
si et seulement si tout élément ~v de E s’écrit de manière unique ~v = n
P Alors F et G sont des familles de vecteurs de R3 , |F | = 4, |G| = 3, et G est extraite
j=1 ~
vj , avec
~vj ∈ Ej pour tout j. de F. Remarquons que le vecteur (0, 1, 0) apparaît deux fois dans F, ce qui n’est
pas du tout interdit par la définition d’une famille.
Exemple 2.35. On considère

P = {(x, y, z) ∈ R3 t.q. x = y}, D1 = vect{(1, 0, 1)}, D2 = vect{(0, 1, 0)}.


3.b. Familles liées et familles libres
Définition 3.3. Une famille F = (~
u1 , . . . , ~
un ) de vecteurs de E est dite liée quand
Alors P + D1 + D2 = R3 . En effet, (x, y, z) ∈ R3 s’écrit :
n
X
(x, y, z) = (z − x)(0, 0, 1) + x(1, 0, 1) + y(0, 1, 0) . ∃(λ1 , . . . , λn ) ∈ Kn , uj = ~0 et (λ1 , λ2 , . . . , λn ) 6= (0, 0, . . . , 0).
λj ~
| {z } | {z } | {z } j=1
∈P ∈D1 ∈D2
Une famille de vecteurs est dite libre quand elle n’est pas liée. On dit aussi que les
On a P ∩ D1 = {~0}, P ∩ D2 = {~0} et D1 ∩ D2 = {~0}, mais la somme n’est pas vecteurs ~
u1 , . . . , ~
un sont linéairement indépendants.
directe :
Remarque 3.4. En niant la définition d’une famille liée, on voit qu’une famille
(1, 1, 1) − (1, 0, 1) − (0, 1, 0) = (0, 0, 0). (~
u1 , . . . , ~
un ) est libre si et seulement si
| {z } | {z } | {z }
∈P ∈D1 ∈D2
n
X
Exemple 2.36. Soit n ≥ 1. Notons ~ej le vecteur de Kn dont toutes les coordonnées ∀(λ1 , . . . , λn ) ∈ Kn , uj = ~0 =⇒ λ1 = λ2 = . . . = λn = 0.
λj ~
sont nulles, sauf la j-ième qui vaut 1. Alors les n droites vect(~ej ), j = 1 . . . n sont j=1
supplémentaires dans Kn .
Exemple 3.5. La famille (0, 1, 1), (1, 1, 2) est libre dans R3 . En effet, supposons


3. Familles de vecteurs λ1 (0, 1, 1) + λ2 (1, 1, 2) = (0, 0, 0),

Dans toute cette partie, E désigne un K-espace vectoriel. On étudie ici certaines ce qui s’écrit λ2 = 0, λ1 + λ2 = 0 et λ1 + 2λ2 = 0 et donc λ1 = λ2 = 0.
propriétés importantes des familles (finies) de vecteurs de E. Ces propriétés seront On voit sur cet exemple que montrer qu’une famille de p vecteurs de Kn est
essentielles pour traiter, dans le chapitre suivant, la notion de dimension d’un espace libre revient à montrer qu’un certain système linéaire homogène à p inconnues et n
vectoriel. équations a pour seule solution la solution nulle.

47
V. Espaces et sous-espaces vectoriels

Exemple 3.6. Soit ~v1 = (1, 0, 1), ~v2 = (1, 1, 0) et ~v3 = (1, 0, 0). La famille G = Supposons d’abord que F ∪ (~v ) est libre. On a
(~v1 , ~v2 , ~v3 ) est libre dans C3 . Comme dans l’exemple précédent, on est ramené à n
étudier un système homogène. Soit (λ1 , λ2 , λ3 ) ∈ C3 tels que λ1~v1 +λ2~v2 +λ3~v3 = ~0. X
(V.2) ∀(x1 , . . . , xn ) ∈ Kn , uj − ~v 6= ~0.
xj ~
Alors j=1
λ1 + λ2 + λ3 = 0, λ2 = 0 et λ1 = 0,
ce qui donne facilement λ1 = λ2 = λ3 = 0. En effet, c’est une combinaison linéaire d’éléments de la famille libre F ∪ (~v ) avec
au moins un des coefficients (celui de ~v ) non nul. Par (V.2), ~v ∈ / vect F.
Exemple 3.7. Soit ~ u1 = (1, 0, 1), ~
u2 = (1, 1, 0) et ~
u3 = (2, 1, 1). Alors la famille Réciproquement, on suppose ~v ∈ / vect F. Soit (x1 , . . . , xn , y) ∈ Kn+1 . On suppose
(~
u1 , ~
u2 , ~
u3 ) est liée. En effet :
n
u3 = ~0.
X
~ u2 − ~
u1 + ~ uj + y~v = ~0
xj ~
j=1
(Si l’on ne voit pas immédiatement cette relation, on peut la retrouver en résolvant
u3 = ~0 , d’inconnues x1 , x2 et x3 ).
Pn
le système x1 ~
u1 + x2 ~
u2 + x3 ~ Alors y = 0 : sinon on aurait ~v = − y1 j=1 uj ∈ vect F. Donc
xj ~
Exemple 3.8. Si ~0 ∈ F , alors F est liée. En effet 1.~0 = ~0, et 1 6= 0. n
u 6= ~0. En effet,
X
Exemple 3.9. Une famille à un élément ~ u est libre si et seulement si ~ uj = ~0,
xj ~
u = ~0 la famille n’est pas libre (cf exemple précédent). En revanche, si ~
si ~ u 6= 0, j=1
alors, par la Proposition 1.3
ce qui implique, la famille étant libre, x1 = x2 = . . . = xn = 0. On a montré que la
u = ~0 =⇒ λ = 0
λ~ famille (~
u1 , . . . , ~
un , ~v ) était libre, ce qui conclut la preuve du lemme.

ce qui montre que la famille (~


u) est libre. Exemple 3.13. Une famille de deux vecteurs (~ u 6= ~0
u, ~v ) est libre si et seulement si ~
3 et ~v n’appartient pas à la droite vect ~
u. Ceci découle immédiatement de l’exemple
Exercice 3.10. On considère les vecteurs suivants de R :
3.10 et du lemme 3.12.
~
u1 = (1, 1, 2), u2 = (−3, −3, −6),
~ ~
u3 = (1, 2, 3),
u4 = (−1, 0, −1),
~ ~
u5 = (0, 2, 3). 3.c. Familles génératrices
Les familles suivantes sont elles libres ? Définition 3.14. La famille F = (~ u1 , . . . , ~
un ) est une famille génératrice de E (ou
simplement est génératrice quand il n’y a pas d’ambiguïté) quand pour tout vecteur
(~
u1 , ~
u2 ), (~
u1 , ~
u3 , ~
u4 ), (~
u1 , ~
u3 , ~
u5 ). ~v de E, il existe (x1 , . . . , xn ) ∈ Kn tel que
(Réponses p. 49). ~v = x1 ~
u1 + . . . + xn ~
un .
La proposition suivante découle immédiatement de la définition d’une famille
libre : On dit aussi que F engendre E.
Proposition 3.11. Si F est une famille libre, tout famille extraite de F est libre. Remarque 3.15. La famille F est génératrice si et seulement si vect F = E.

On termine cette partie sur les famille libres par le lemme utile sur les familles Exemple 3.16. La famille F1 = (1, 0), (0, 1), (1, 1) est une famille génératrice de
libres suivant : R : si (x, y) ∈ R , (x, y) = x(1, 0) + y(0, 1), et donc R2 = vect F1 .
2 2

Exemple 3.17. La famille F2 = (1, 0, 0), (1, 1, 0), (0, 1, 0) n’est pas génératrice de
Lemme 3.12. Soit F une famille libre et ~v ∈ E. Alors la famille F ∪ (~v ) est libre si 3
R . En effet, la dernière coordonnée de tout élément de vect F2 est nulle, et donc
et seulement si ~v ∈
/ vect F.
par exemple (0, 0, 1) n’appartient pas à vect F2 .
Démonstration. On note F = (~ u1 , . . . , ~
un ). On rappelle la définition de l’espace Exemple 3.18. La famille G de l’exemple 3.6 p. 48 est une famille génératrice de
vectoriel engendré par F (cf §2.c) : C3 . En effet, il s’agit de montrer que pour tout (b1 , b2 , b3 ) ∈ C3 , il existe (x1 , x2 , x3 )
n o tel que
vect F = x1 ~u1 + . . . + xn ~ un , (x1 , . . . , xn ) ∈ Kn . x1 (1, 0, 1) + x2 (1, 1, 0) + x3 (1, 0, 0) = (b1 , b2 , b3 ),

48
4. Réponse à quelques exercices

ou encore : Montrons l’unicité de cette écriture. Supposons (x1 , . . . , xn ) ∈ Kn , (y1 , . . . , yn ) ∈


x1 + x2 + x3 = b1 , x2 = b2 , x1 = b3 . Kn et
Xn n
X
Il est facile de résoudre ce système. On peut aussi remarquer que c’est un système yj ~ej = ~
x= xj ~ej .
de Cramer par l’exemple 3.6 : il a 3 équations, 3 inconnues, et une seule solution j=1 j=1
lorsque b1 = b2 = b3 = 0. Il a donc une unique solution quel que soit (b1 , b2 , b3 ). Alors
n
Plus généralement, montrer qu’une famille de p vecteurs (~v1 , . . . , ~vp ) de Kn est X
(xj − yj )~ej = ~0.
génératrice revient à montrer, pour tout ~b ∈ Kn , la compatibilité du système à n
j=1
équations et p inconnues (x1 , . . . , xp ) : x1~v1 + . . . + xp~vp = ~b .
Le résultat suivant est une conséquence directe de la définition d’une famille La famille B étant libre, on en déduit xj − yj = 0 pour tout j ∈ {1, . . . , n}, ce qui
génératrice : conclut la preuve.

Proposition 3.19. Soit F une famille génératrice. Alors toute famille qui complète Notation 3.27. On notera toujours les coordonnées sous la forme d’un vecteur
F est encore génératrice. colonne, i.e. un élément de Mn,1 . Cette notation permet de distinguer entre
Exercice 3.20. La famille (~
u1 , ~ u5 ) de l’exercice 3.10 est-elle génératrice de R3 ?
u3 , ~ un élément de Kn et ses coordonnées. Par exemple, les  coordonnées
 du vecteur
x1
(cf correction p. 50).
(x1 , . . . , xn ) de Kn dans la base canonique de Kn sont  ... . Cette notation sera
 

3.d. Bases xn
également commode pour faire des calculs matriciels sur les coordonnées.
Définition 3.21. Une famille F de E est une base quand elle est à la fois libre et
génératrice.
4. Réponse à quelques exercices
Exemple 3.22. La famille (1, 0), (0, 1) est une base de K2 . Plus généralement, si


n ≥ 1 et j ∈ {1, . . . , n}, définissons ~ej comme le vecteur de Kn dont toutes les Exercice 2.9. Remarquons que E est un espace vectoriel, car c’est l’ensemble
coordonnées sont nulles, sauf la j-ième, qui vaut 1. En d’autres termes, ~ej est le des solutions d’une équation linéaire homogène (cf exemple 2.5). Les ensembles
vecteur (δij )i=1,...,n , où δi,j est le symbole de Kronecker. Alors la famille (~e1 , . . . , ~en ) F1 et F2 contiennent ~0, sont stables par addition et par multiplication par un
est une base de Kn , appelée base canonique de Kn . scalaire : ce sont donc des espaces vectoriels. L’ensemble F2 est inclus dans E :
Exemple 3.23. La famille G de l’exemple 3.6 p. 48 est une base de C3 : on a montré c’est bien un sous-espace vectoriel de E. L’ensemble F1 n’est pas inclus dans E
qu’elle était libre (exemple 3.6) et génératrice (exemple 3.18). (par exemple (1, 0, −1, 0) est dans F1 mais pas dans E). Ce n’est donc pas un sous-
Exemple 3.24. La famille (2, 1, 0), (1, 1, 0) n’est pas une base de R3 : elle est libre espace vectoriel de E. Enfin, F3 n’est pas un espace vectoriel (il ne contient pas


mais pas génératrice (justifier). l’élément nul (0, 0, 0, 0)). Ce n’est donc pas non plus un sous-espace vectoriel de E.

Exemple 3.25. La famille (1, 0, 0), (0, 1, 0), (0, 0, 1), (1, 1, 1) n’est pas une base de y = (y1 , y2 , y3 ) un élément de R3 . On cherche à écrire ~
Exercice 2.34. Soit ~ y comme
3
R : elle est génératrice mais pas libre (justifier). la somme d’un élément (x1 , 0, x3 ) de F et d’un élément (0, λ, λ) de G, i.e résoudre
Proposition et définition 3.26. Soit B = (~e1 , . . . , ~en ) une base de E. Alors tout le système (d’inconnues x1 , λ et x3 ) :
vecteur ~x de E s’écrit de manière unique 

 x1 = y1
n
X λ = y2
~
x= xj ~ej , 
x3 + λ = y3

j=1

avec (x1 , . . . , xn ) ∈ Kn . Les xj sont appelés coordonnées de ~


x dans la base E. Ce système à une unique solution : (x1 , λ, x3 ) = (y1 , y2 , y3 − y2 ), ce qui montre bien
que la somme de F et G est R3 (grâce à l’existence de la solution) et que cette
Démonstration. La famille B étant génératrice, tout vecteur ~
x de E s’écrit somme est directe (grâce à l’unicité de cette solution)
n
Exercice 3.10. On voit tout de suite que ~ u2 = −3~
u1 (ce qui peut s’écrire ~
u2 +3~
u1 =
X
~
x= xj ~ej .
j=1
~0). La famille (~
u1 , ~
u2 ) n’est donc pas libre.

49
V. Espaces et sous-espaces vectoriels

Pour étudier l’indépendance linéaire de la famille (~


u1 , ~
u3 , ~
u4 ), on résout le sys-
tème, d’inconnues (λ1 , λ3 , λ4 ) :

λ1 ~
u1 + λ3 ~ u4 = ~0.
u3 + λ4 ~

Par la méthode du pivot de Gauss, on trouve que ce système a des solutions non
nulles (l’ensemble des solutions est l’ensemble des (λ1 , λ3 , λ4 ) de R3 tels que λ1 =
2λ4 et λ3 = −λ4 ). La famille n’est donc pas libre.
De même, pour étudier la famille (~ u1 , ~
u3 , ~
u5 ), on résout le système

λ1 ~
u1 + λ3 ~ u5 = ~0,
u3 + λ5 ~

d’inconnues (λ1 , λ3 , λ5 ). On trouve que ce système a pour solution unique la solution


nulle, ce qui montre que la famille est libre.
Exercice 3.20. La famille est bien génératrice. En effet, on doit montrer que pour
tout élément (y1 , y2 , y3 ) de R3 , le système

λ1 ~
u1 + λ3 ~
u3 + λ5 ~
u5 = (y1 , y2 , y3 ),

d’inconnues (λ1 , λ3 , λ5 ) a au moins une solution. C’est un système à 3 équations


et 3 inconnues, qui, d’après la correction de l’exercice 3.10, a une unique solution
dans le cas (y1 , y2 , y3 ) = (0, 0, 0). C’est donc un système de Cramer, ce qui montre
qu’il y a bien une solution (unique) quelque soit le second membre (y1 , y2 , y3 ).

50
5. Travaux dirigés
 
5. Travaux dirigés a. (1, 2, −1), (5, 3, 2), (3, −1, 4) dans E = R3 .
 
Exercice V.1. Parmi les sous-ensembles suivants de R2 ou R3 , précisez lesquels sont b. (1, −1, 2), (3, −4, 2), (−1, 5, m) dans E = R3 , en fonction du paramètre m ∈ R.
des R-espaces vectoriels :  
c. (i, 1 + i, 2), (i − 1, 2i, 2 + 2i) dans le C-espace vectoriel E = C3 .
F1 = (x, y) ∈ R2 : y = 1 ; F2 = (x, y) ∈ R2 : x + 2y 6 0 ;
 
 
F3 = (x, y, z) ∈ R3 : z = 0 ; F4 = (x + 1, x + y − 2, x − y) ; (x, y) ∈ R2 ;
  d. (1, 2, −i), (4, 4i, 2), (i, 0, 1) dans le C-espace vectoriel E = C3 .

F5 = (x, y, z) ∈ R3 : x + z = −y ; F6 = (s, 0, 2s + t) ; (s, t) ∈ R2 . Exercice V.7. Rappeler la définition d’une famille génératrice d’un espace vectoriel
 
E. Les familles de vecteurs suivantes sont-elles génératrices dans l’espace vectoriel
Exercice V.2. Donner 4 exemples différents de sous-espaces vectoriels de C4 . E indiqué ?
 
Exercice V.3. a. (1, 0), (0, 1), (1, 1), (2, 3) dans E = R2 .
a. Soit E l’ensemble des (x, y, z) ∈ R3 tels que x + 2y − z = 0. Justifier que E est  
un R-espace vectoriel. b. (1, i), (i, −1), (1 + i, i − 1) dans E = C2 .
b. Parmi les ensembles suivants, lesquels sont des sous-espaces vectoriels de E ?
 
c. (−1, 1, 0), (1, 0, 1) dans E = {(x, y, z) ∈ R3 : x + y − z = 0}.
F1 = {(λ, 3λ, 2λ), λ ∈ R} . Exercice V.8. Soit K = R ou C, et (~
u, ~v , w)
~ trois vecteurs d’un K-espace vectoriel
E.
La droite F2 engendrée par le vecteur ~v = (3, 1, 5).
  a. Montrer que la famille (~
u, ~v , w)
~ est libre si et seulement si la famille (~
u + ~v , ~
u+
F3 = vect (0, 1, 2), (1, −1, −1) , F4 = {(λ + 1, λ − 1, 3λ − 1), λ ∈ R} . w,
~ ~v + w)
~ est libre.
b. Que se passe-t-il si l’on remplace la famille (~
u + ~v , ~
u + w,
~ ~v + w)
~ par la famille
Exercice V.4. Soit E défini par u − ~v , ~
(~ u − w,
~ ~v − w)
~ dans l’assertion précédente ?
E = (x, y, z) ∈ C3 , x + y − iz = 0 .


6. Exercices à préparer pour le contrôle continu


a. Justifier que E est un C-espace vectoriel.
b. Ecrire l’ensemble des solutions de l’équation x + y − iz = 0 sous forme paramé- Le contrôle continu sur ce chapitre portera exclusivement sur des questions de
trique. cours. Soit K = R ou C et E un K-espace vectoriel.
c. Donner deux vecteurs qui engendrent E. Exercice V.9. Rappeler les définitions d’un sous-espace vectoriel de E, d’une famille
Exercice V.5. 3 libre de E, d’une famille génératrice de E.
 On considère
3
les sous-espaces
 vectoriels 3de R suivants : 
— Px = (x, y, z) ∈ R ; x = 0 , Py = (x, y, z) ∈ R ; y = 0 , Pz = (x, y, z) ∈ Exercice V.10. Montrer les propositions 2.1 et 2.22.
R3 ; z = 0 . Exercice V.11. Montrer le lemme utile sur les familles libres (Lemme 3.12 p. 48).
— Dx est le sous-espace vectoriel engendré par le vecteur ~i = (1, 0, 0), Exercice V.12. Soit F et G deux sous-espaces vectoriels de E. Démontrer que F ∩G
— Dy est le sous-espace vectoriel engendré par le vecteur ~j = (0, 1, 0), est un sous-espace vectoriel de E.
— Dz est le sous-espace vectoriel engendré par le vecteur ~k = (0, 0, 1),
Exercice V.13. Soit F et G deux sous-espaces vectoriels de E. Donner la définition
a. Dx est-il un sous-espace vectoriel de Px (respectivement de Py , de Pz ) ? de F + G. Montrer que c’est un sous-espace vectoriel de E.
b. Montrer (au choix) que Px ∩ Py = Dz , que Py ∩ Pz = Dx , que Pz ∩ Px = Dy .
c. Montrer (au choix) que Dx ⊕ Dy = Pz , que Dy ⊕ Dz = Px , que Dz ⊕ Dx = Py .
d. Montrer (au choix) que Px + Py = R3 , que Py + Pz = R3 , que Pz + Px = R3 .
e. Montrer (au choix) que Px ⊕ Dx = R3 , que Py ⊕ Dy = R3 , que Pz ⊕ Dz = R3 .
Exercice V.6. Rappeler la définition d’une famille libre. Déterminer si chacune des
familles suivantes de l’espace vectoriel E est une famille libre.

51
V. Espaces et sous-espaces vectoriels

52
Appendice : alphabet grec

Minuscule Majuscule Nom Minuscule Majuscule Nom


α A alpha ν N nu
β B bêta ξ Ξ xi
γ Γ gamma o O omicron
δ ∆ delta π Π pi
ε E epsilon ρ P rhô
ζ Z zêta σ Σ sigma
η H êta τ T tau
θ Θ thêta υ Υ upsilon
ι I iota φ Φ phi
κ K kappa χ X khi
λ Λ lambda ψ Ψ psi
µ M mu ω Ω oméga

53
Table des matières de la première partie

I. Systèmes linéaires 3
1. Définitions et premiers exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.a. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.b. Quelques exemples simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.c. Notation matricielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2. Méthode du pivot . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.a. Forme échelonnée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.b. Systèmes équivalents. Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.c. Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.d. Système de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3. Systèmes avec paramètres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4. Réponse à certains exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5. Travaux dirigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
6. Exercices à préparer pour le contrôle continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

II. Introduction aux matrices 17


1. Définitions. Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.a. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.b. Multiplication par un scalaire et additions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.c. Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.d. Multiplication des matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.e. Systèmes linéaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.f. Formule du binôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2. Matrices inversibles : définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.a. Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.b. Matrices diagonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.c. Inversibilité des matrices 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.d. Stabilité par multiplication et transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3. Opérations sur les lignes et inversion de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.a. Matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.b. Matrices échelonnées réduites carrées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.c. Inversions de matrices par la méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.d. Caractérisation des matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.e. Système de Cramer et matrice inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4. Réponse à quelques exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
5. Travaux dirigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

55
Table des matières de la première partie

6. Exercices à préparer pour le contrôle continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30

III. Les polynômes 31


1. Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.a. Polynômes comme suites finies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.b. Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.c. Indéterminée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.d. Multiplication . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2. Premières propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.a. Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.b. Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.c. Polynôme dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3. Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.a. Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.b. Polynômes à coefficients complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.c. Polynômes à coefficients réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4. Complément : polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.a. Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.b. Polynômes irréductibles de C[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.c. Polynômes irréductibles de R[X] . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
5. Réponse à quelques exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6. Travaux dirigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
7. Exercices à préparer pour le contrôle continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

IV. Matrices et polynômes en C 39


1. Rappels de base en C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.a. Code source et exécutable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.b. Structure type d’un programme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.c. Structures de contrôle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.d. Variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.e. Pointeurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.f. Divers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2. Matrices et Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.a. Allocation statique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.b. Allocation dynamique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3. Complexité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

V. Espaces et sous-espaces vectoriels 43


1. Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.a. L’espace vectoriel Kn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.b. Espaces vectoriels généraux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2. Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.a. Deux définitions équivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.b. Intersection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

56
Table des matières de la première partie

2.c. Sous-espace vectoriel engendré par une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45


2.d. Somme, somme directe, supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3. Familles de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.a. Familles de vecteurs : définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.b. Familles liées et familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.c. Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.d. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4. Réponse à quelques exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5. Travaux dirigés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
6. Exercices à préparer pour le contrôle continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

57

Vous aimerez peut-être aussi