Coursl1 2
Coursl1 2
PEIP - L1
27 avril 2010
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 2 Algèbre linéaire, Maths générales II
Table des matières
0 Introduction et bibliographie 5
0.1 Algèbre... . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.2 . . . linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
0.3 Bibliographie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
0.4 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3
Table des matières Table des matières
3.2 Systèmes linéaires homogènes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2.1 Noyau d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.2.2 Détermination du noyau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.2.3 Familles libres, Indépendance des colonnes pivotales . . . . . . . . . . . . . . . . . . . . 56
3.2.4 Construction du noyau par les solutions spéciales . . . . . . . . . . . . . . . . . . . . . . 57
3.2.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.3 Résolution d’un système linéaire général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.1 Exemples de résolution de systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.3.2 Caractérisation d’une matrice inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5 Applications linéaires 85
5.1 Définitions et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1.1 Application linéaire de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
5.1.2 Image, noyau et rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.1.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
5.2 Applications linéaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2.1 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
5.2.2 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
5.2.3 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.3 Applications linéaires remarquables : formes linéaires, projecteurs . . . . . . . . . . . . . . . . . 92
5.3.1 Homothéties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
5.3.2 Formes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.3 Projecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.3.4 Symétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
5.3.5 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
6 Déterminants 97
6.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.2 Propriétés élémentaires des déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98
6.3 Application à l’inversibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
6.4 Résolution de systèmes linéaires et formules de Cramer . . . . . . . . . . . . . . . . . . . . . . . 101
6.4.1 Quelques calculs de déterminants . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
6.4.2 Exercices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
Appendices 107
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 4 Algèbre linéaire, Maths générales II
Chapitre 0
Introduction et bibliographie
0.1 Algèbre...
Le mot “algèbre” vient du terme arabe "al-jabr" signifiant littéralement "restauration". Ce terme fut pour la pre-
mière fois employé à propos des mathématiques par le novateur Al-Khwarizmi1 , dans son livre (Livre abrégé sur
le calcul par la restauration et la comparaison) où il procède à l’étude systématique des équations du second degré
et se ramène à six cas de base, en utilisant ce qu’il nomme “restauration" (al-jabr). Cette restauration se traduit
essentiellement par l’ajout d’une même quantité dans les deux membres de l’équation afin d’éliminer les termes
apparaissant en soustraction. Cette idée de modifier une égalité pour la rendre plus simple à résoudre est fonda-
mentale. Il faut se rendre compte qu’à l’époque d’Al-Khwarizmi, le seul fait de penser un problème en termes
d’égalité avec une grandeur inconnue était déjà une avancée considérable.
0.2 . . . linéaire
Voyons maintenant ce qu’est ce qu’un phénomène linéaire. Le prix de détail des marchandises, par exemple :
quand le marchand affiche 2 euros le prix d’un kilo de pommes, il est implicite que x kilos de pommes coûteront
2x euros. Le prix des pommes est donc donné par la fonction de R dans R définie par x 7→ 2x. Le prix que vous
payez est une fonction linéaire du poids. De manière plus générale, une application linéaire de R dans R est une
application qui s’écrit sous la forme x 7→ αx, où α ∈ R est donné. Finalement, dans R, l’algèbre linéaire se
réduit plus ou moins à la règle de trois. . . Le concept de linéarité peut alors s’étendre pour désigner un rapport de
dépendance très simple entre plusieurs variables : la variable y dépend linéairement des variables x1 , ..., xN s’il
existe des constantes α1 , . . . , αN telles que y = α1 x1 + . . . + αN xN . On dit encore que y s’exprime comme
combinaison linéaire de x1 , . . . , xN . Par exemple, si vous achetez x1 kilos de pommes à 2 euros le kilo et x2 kilos
de poires à 3 euros le kilo, le prix total y que vous payez est la combinaison linéaire y = 2x1 + 3x2 . La notion de
combinaison linéaire sera fondamentale dans la suite de ce cours.
Finalement, l’algèbre linéaire est le domaine des mathématiques qui étudie de façon systématique les propriétés
associées à la dépendance linéaire. Les concepts de base sont celui de combinaison linéaire dont on vient de
parler, et les notions d’espace vectoriel et d’application linéaire. Les espaces vectoriels les plus simples sont les
ensembles R, R2 et R3 lorsqu’ils sont munis de deux opérations très simples : l’addition et la multiplication par
un réel, qui présentent un certain nombre de propriétés que nous verrons plus tard.
1 Al-Khwarizmi né vers 783, originaire de Khiva dans la région du Khwarezm qui lui a donné son nom, mort vers 850 à Bagdad, est un
mathématicien, géographe, astrologue et astronome musulman perse dont les écrits, rédigés en langue arabe, ont permis l’introduction de
l’algèbre en Europe. Il est à l’origine des mots algorithme (qui n’est autre que son nom latinisé) et algèbre (issu d’une méthode et du titre
d’un de ces ouvrages) ou encore de l’utilisation des chiffres arabes dont la diffusion dans le Moyen-Orient et en Europe provient d’un autre
de ces livres (qui lui-même traite des mathématiques indiennes) et de l’habitude de désigner l’inconnue par la lettre x dans une équation.
Il a d’ailleurs participé à la traduction de nombreux manuscrits scientifiques grecs et indiens. Son apport en mathématiques fut tel qu’il est
également surnommé “le père de l’algèbre", avec Diophante dont il reprendra les travaux. En effet, il fut le premier à répertorier de façon
systématique des méthodes de résolution d’équations en classant celles-ci.
5
0.3. Bibliographie 0. Introduction et bibliographie
0.3 Bibliographie
– Des livres en français.
D.-C. Lay Algèbre linéaire : Théorie, exercices et applications, 2004, De Boeck.
R. Dalang- et A Chaabouni Algèbre linéaire : Aide mémoire, exercices et applications, 2005, PPUR.
A. Denmat et F. Héaulme Algèbre linéaire : Travaux Dirigés, 1995, Dunod.
F. Liret, D. Martinais Algèbre 1ère année. Cours et exercices avec solutions, 2003, Dunod.
0.4 Exercices
Exercice 1 Des amis vont au bar. Ils consomment 8 cafés et 4 jus d’orange et payent 28 euros. Puis ils recom-
mandent 7 cafés et 5 jus d’orange. Cette fois ci ils payent 29 euros. Quel est le prix du jus d’orange et du café ?
Exercice 2 Un cadet de Gascogne dit à ses amis :"J’ai dépensé 4 écus de plus que le quart de ce que j’avais en
entrant dans la taverne et il me reste 2 écus de plus que le quart de ce que j’avais en entrant dans la taverne"
Combien avait-il en entrant dans la taverne ?
Exercice 3 Un groupe de 24 personnes, composé d’élèves mineurs, d’élèves majeurs et de professeurs, vont au
cinéma. Le billet coute 4 euros pour un élève majeur, 3 euros pour un élève mineur et 9 euros pour un professeur.
Le groupe dépense au total 102 euros. Sachant que lors d’une sortie il y a un professeur pour 5 élèves, combien y
a-t-il d’élèves mineurs, d’élèves majeurs et de professeurs ?
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 6 Algèbre linéaire, Maths générales II
Chapitre 1
Nous allons dans ce chapitre introduire quelques notions nouvelles dans un cadre concret, celui de la droite, du
plan et de l’espace, ce qui nous permettra aussi de réviser quelques connaissances que vous avez acquises en
secondaire et au premier semestre.
1.1 Vecteurs de R2 et R3
1.1.1 Vecteurs et combinaisons linéaires
Dans ce premier chapitre, nous noterons en gras un vecteur u de R2 ou de R3 que vous avez peut être noté − →u
dans vos classes précédentes. On s’affranchira de la notation en gras ou avec flèche au fur et à mesure de ce cours,
en particulier lorsqu’on introduira les vecteurs comme des “éléments d’un espace vectoriel”, dont nous donnerons
une définition précise plus tard.
Soient u et v des vecteurs de R2 qui sont définis (pour l’instant) par des paires de réels (u1 , u2 ) et (v1 , v2 ). On
notera aussi les vecteurs sous forme de colonnes contenant les composantes :
u1 v
u= , v= 1 .
u2 v2
L’addition des deux vecteurs u et v s’écrit :
u1 v u + v1
u+v = + 1 = 1 .
u2 v2 u2 + v2
Ces propriétés s’appliquent bien sûr aussi aux vecteurs de R3 . Un vecteur u de R3 est donné par ses trois compo-
santes (u1 , u2 , u3 ), et le vecteur s’écrit alors :
u1
u = u2 .
u3
7
1.1. Vecteurs de R2 et R3 1. Algèbre linéaire dans R2 et R3
Remarque 1.2 (Notations · · · et (· · · )) On a identifié des couples ou des triplets de réels avec des vecteurs
le vecteur (u
écrits sous forme de colonnes. Toutefois, il faudra bien faire attention de ne pas confondre 1 , u2 , u3 ),
qui est le vecteur colonne dont les composantes sont u1 , u2 et u3 , avec le vecteur u1 u2 u3 qui est un
vecteur ligne dont les composantes sont les mêmes que celles du vecteur u mais qui n’est pas du tout le même
objet mathématique. Ce vecteur ligne s’appelle “vecteur transposé” du vecteur u.
Dans la définition précédente, on a défini une combinaison linéaire de deux vecteurs. Cette définition contient le
cas d’une combinaison linéaire d’un seul vecteur, en prenant le deuxième égal au vecteur nul. Mais on peut aussi
bien sûr généraliser la définition de combinaison linéaire pour trois, quatre, ..., n vecteurs. Une question impor-
tante qui reviendra souvent pendant ce cours est justement de déterminer l’ensemble de toutes les combinaisons
linéaires d’un vecteur, de deux vecteurs, de trois vecteurs ? Evidemment, le résultat dépend des vecteurs... Si par
exemple on cherche toutes les combinaisons linéaires αu et que le vecteur u est le vecteur nul, on obtient que l’en-
semble des combinaisons linéaires est réduit au vecteur nul. Si par contre le vecteur u est non nul, l’ensemble des
combinaisons linéaires est la droite de vecteur directeur u. Par exemple, l’ensemble des combinaisons linéaires
des deux vecteurs
1 1
0 et 1
0 1
est un plan, tandis que l’ensemble des combinaisons linéaires des deux vecteurs :
1 −1
0 et 0
0 0
Exemple 1.3 On cherche à écrire les deux équations que vérifient les inconnues (réelles) α et β pour que la
combinaison linéaire αu + βv soit égale à b, avec :
1 −1 1
u= , v= , et b = .
3 2 5
Pour ce faire, on écrit la combinaison linéaire et l’égalité avec le vecteur b : On écrit ensuite l’égalité compo-
sante par composante. On obtient ainsi le système suivant, qui est un système linéaire à deux équations et deux
inconnues :
α−β =1
3α + 2β = 5.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 8 Algèbre linéaire, Maths générales II
1.2. La notion de matrice 1. Algèbre linéaire dans R2 et R3
On rappelle enfin deux inégalités absolument fondamentales : pour tous vecteurs u et v de R2 ou R3 ,
1.1.3 Exercices
Tous les exercices de cette section sont tirés de ou inspirés par quelques uns des nombreux exercices du livre de
G. Strang dont nous conseillons vivement la lecture. . .
Exercice 4 Décrire géométriquement (droite, plan ou R3 tout entier) l’ensemble des combinaisons linéaires des
vecteurs suivants :
1 2 1 0 1 0 1
(a) 2 et 4 (b) 0 et 1 (c) 0 , 1 et 1
3 6 0 2 0 1 1
Exercice 6 Soit un cube dont trois sommets ont comme coordonnées (0, 0, 0), (1, 0, 0), (0, 1, 0). Donner les co-
ordonnées des autres sommets ainsi que des centres des faces.
Exercice 7 Trouver deux vecteurs v et w qui sont orthogonaux à u = (1, 1, 0) et orthogonaux entre eux.
Exercice 9 Soient u et v deux vecteurs de R3 dont les normes sont kuk = 3 et kvk = 4. Quelles sont les valeurs
maximale et minimale de ku − vk et u · v ?
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 9 Algèbre linéaire, Maths générales II
1.2. La notion de matrice 1. Algèbre linéaire dans R2 et R3
Notons x le vecteur de composantes (3, 2). Le produit Ax de la matrice A par le vecteur x est la combinaison
linéaire 3u + 2v. Plus généralement si x est un vecteur de composantes (x1 , x2 ), le produit Ax est la combinaison
linéaire x1 u + x2 v,c.à..d premiére composante du vecteur fois premiére colonne de la matrice plus deuxiéme
composante du vecteur fois deuxiéme colonne de la matrice. Plus qu’une définition du produit matrice vecteur
(qu’on verra plus en détails au chapitre suivant), ceci est le véritable concept : au départ ce sont les coefficients x1
x2 qui multiplient les vecteurs, maintenant c’est la matrice formée par ces vecteurs qui multiplie le vecteur x dont
les composantes sont x1 et x2 .
A retenir :
Le résultat d’un produit matrice vecteur est toujours une combinaison linéaire des colonnes de la matrice.
On peut alors aussi remarquer que le vecteur Ax s’écrit
2 −1 2x1 − x2 (2, −1) · (x1 , x2 )
Ax = x1 u + x2 v = x1 + x2 = =
1 2 x1 + 2x2 (1, 2) · (x1 , x2 )
La premiére composante de Ax est le produit scalaire de la premiére ligne de A avec le vecteur x, et la deuxiéme
composante de Ax est le produit scalaire de la deuxiéme ligne de A avec le vecteur x. C’est un autre moyen,
extrémement souvent utilisé, de calculer le produit matrice vecteur.
Considérons comme deuxième exemple2 les trois vecteurs de R3 suivants :
1 0 0
u = −1 , v = 1 , w = 0 ,
0 −1 1
Ecrivons la combinaison linéaire αu + βv + γw :
1 0 0 α
α −1 + β 1 + γ 0 = β − α .
0 −1 1 γ−β
On écrit maintenant cette combinaison linéaire sous forme matricielle, c.à.d. à l’aide d’un tableau de nombres,
qu’on note A ; le vecteur u est la première colonne du tableau, le vecteur v la seconde, et le vecteur w la troisième :
1 0 0 α α
−1 1 0 β = β − α .
0 −1 1 γ γ−β
Les scalaires α, β, γ sont les composantes d’un vecteur x de R3 . Le produit de la matrice A par le vecteur x est la
combinaison linéaire αu + βv + γw des trois colonnes de A.
1 0 0 α α
Ax = −1 1 0 β = u v w β = αu + βv + γw.
0 −1 1 γ γ
Revenons sur le concept du produit matrice vecteur exposé plus haut pour un vecteur de R2 : au départ ce sont les
coefficients α β γ qui multiplient les vecteurs, maintenant c’est la matrice formée par ces vecteurs qui multiplie
le vecteur x dont les composantes sont α, β et γ. Du coup on va maintenant renommer les composantes α, β et γ
de x en x1 , x2 , x3 . En notant b1 , b2 , b3 les composantes de Ax = b, on obtient :
1 0 0 x1 x1 b1
Ax = −1 1 0 x2 = x2 − x1 = b2 = b.
0 −1 1 x3 x3 − x2 b3
Comme dans le cas de l’exemple précédent, on peut alors introduire une autre vision (qui est la plus habituelle
dans la plupart des ouvrages) du produit matrice vecteur Ax : les composantes du vecteur b = Ax sont obtenues
en effectuant le produit scalaire de chaque ligne de la matrice avec le vecteur x. Sur l’exemple qu’on vient de voir,
ceci donne :
1 0 0 x1 (1, 0, 0) · (x1 , x2 , x3 ) x1 b1
Ax = −1 1 0 x2 = (−1, 1, 0) · (x1 , x2 , x3 ) = x2 − x1 = b2 = b.
0 −1 1 x3 (0, −1, 1) · (x1 , x2 , x3 ) x3 − x2 b3
En général, quand on fait des calculs à la main de matrice (on aimerait que ce soit le moins souvent possible. . . )
c’est cette façon là qu’on emploie.
2 Cet exemple est tiré du livre de Gilbert Strang, Introduction to Linear Algebra, Wellesley-Cambridge
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 10 Algèbre linéaire, Maths générales II
1.2. La notion de matrice 1. Algèbre linéaire dans R2 et R3
1.2.2 Equations linéaires
Jusqu’à présent, on a supposé que le vecteur x, dont les composantes sont les coefficients de la combinaison
linéaire, était connu, et on cherchait à calculer la combinaison linéaire b résultante. Supposons maintenant au
contraire qu’on cherche les coefficients de la combinaison linéaire des trois vecteurs u, v et w de manière à
ce qu’elle soit égale au vecteur b, qui lui est maintenant supposé connu. On cherche donc x1 , x2 et x3 tels que
x1 u + x2 v + x3 w = b. Ceci revient à résoudre un système linéaire en x1 , x2 et x3 . La question “Trouver les
coefficients x1 , x2 x3 tels que la combinaison linéaire x1 u + x2 v + x3 w soit égale à b” est équivalente à la
question “résoudre le système Ax = b”. Avec la matrice A définie par
1 0 0
A = −1 1 0 ,
0 −1 1
x1 = b1 x1 = b1
le système Ax = b s’écrit −x1 + x2 = b2 et a comme solution x2 = b1 + b2 (1.2.1)
−x2 + x3 = b3 x3 = b1 + b2 + b3 .
Notons que ce système est particulièrement simple parce qu’on a directement x1 à partir de la première équation,
on peut ensuite substituer x1 dans la deuxième équation et trouver x2 , et enfin substituer x1 et x2 dans la troisième
équation et trouver x3 . Ceci est possible parce qu’on travaille avec une matrice “triangulaire inférieure”, c’est à
dire une matrice dont tous les coefficients au dessus de la diagonale sont nuls. Evidemment, tous les systèmes ne
sont pas aussi simples à résoudre.
Remarquons que si b = 0 (le vecteur de composantes (0, 0, 0) la solution x du système est x = 0. Ceci est
une propriété remarquable, qui est vraie pour la matrice A de ce système, mais qui ne l’est pas pour toutes les
matrices. . . Remarquons également que pour n’importe quel b = (b1 , b2 , b3 ), le calcul ci dessus va nous fournir un
unique x = (b1 , b1 + b2 , b1 + b2 + b3 ). Cette propriété est dée au fait que la matrice A est inversible, au sens où,
à partir de n’importe quel b, on peut récupérer un et un seul x (on verra plus loin la définition précise de matrice
inversible).
x1 = b1 1 0 0 b1
Si Ax = b, pour x = x2 = b1 + b2 = 1 1 0 b2 = Sb (1.2.2)
x3 = b1 + b2 + b3 1 1 1 b3
Donc la solution du système Ax = b est donnée par x = Sb. On dit que S est la matrice inverse de A, notée A−1 .
On obtient b à partir de x en multipliant x par A. On retrouve x en multipliant b par A−1 . La matrice A−1 défait
ce que la matrice A a fait. On peut aussi écrire A−1 Ax = x.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 11 Algèbre linéaire, Maths générales II
1.2. La notion de matrice 1. Algèbre linéaire dans R2 et R3
mais aussi tous les vecteurs de la forme αx, α ∈ R. Mais par contre,
1
le système Cx = 0 n’admet aucune solution,
0
car la somme des trois composantes de Cx vaut zéro alors que la somme des trois composantes du second membre
vaut 1. Géométriquement, ceci revient à dire qu’il n’existe pas de combinaison linéaire des trois vecteurs u, v et
w̃ qui donne le vecteur b = (1, 0, 0). Donc l’ensemble des combinaisons linéaires des trois vecteurs u, v et w̃
ne remplit pas tout l’espace R3 . Pour que le système Cx = b ait une solution, il faut que la somme des trois
composantes du second membre soit nulle, puisque la somme des trois composantes de Cx est toujours nulle. En
d’autres termes, toutes les combinaisons linéaires x1 u + x2 v + x3 w̃ sont dans le plan d’équation b1 + b2 + b3 = 0.
On voit ici la différence cruciale entre les combinaisons linéaires de u, v et w, qui remplissaient tout l’espace, et
celles de u, v et w̃, qui ne remplissent qu’un plan.
Le vecteur w n’est pas dans le plan de u et v ; les vecteurs sont “indépendants” ou “libres”.
La seule combinaison qui donne b = 0 est 0u + 0v + 0w.
Les notions de dépendance et d’indépendance sont fondamentales, et nous reviendrons plus en détails dessus par
la suite. On peut déjà remarquer sur cet exemple les liens entre la notion d’indépendance des vecteurs colonnes de
la matrice et la résolution des systèmes :
1.2.4 Exercices
Exercice 11 (On commence tout doucement.)
1. Soit
1 2 2
A= et x = .
−1 1 3
Construire géométriquement le vecteur Ax, et calculer ses composantes.
2. Même question avec
1 −1 2
A= et x = .
2 1 3
3. Effectuer maintenant les produits Axàl’aide des produits scalaires des lignes de la matrice par le vecteur x.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 12 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
(b) On suppose maintenant u et v quelconques. Soit x = (2, −1). Le produit Ax est une combinaison
des colonnes de A. Exprimer cette combinaison linéaire.
1 2
Donner les composantes du vecteur résultant pour u = et v = .
2 −1
2. Soient u, v et w trois vecteurs de R3 . La multiplication d’une matrice A = u v w par le vecteur
colonne x = (2, −1, 3) donne une combinaison descolonnes
de A.Exprimercette
combinaison linéaire.
1 2 0
Donner les composantes du vecteur Ax pour u = 2 , v = −1 et w = 1 .
0 1 2
3. Exprimer la matrice identité Id3 , c.à.d. la matrice telle que Id3 x = x pour tout x ∈ R3 .
Exercice 13 (Un petit modèle de prédation) Sur une éle déserte vivent une bande de loups, une bande de chèvres
et une bande de serpents. Chaque nuit, chaque loup égorge une chèvre, puis chaque chévre restante piétine (à mort)
un serpent et enfin, chaque serpent restant mord un loup (et la blessure est mortelle) . On suppose qu’il n’y a pas
d’autres pertes de vie (par vieillesse par exemple), ni gains (par naissances...). On note `∗ , s∗ et c∗ le nombre
respectif de loups, serpents et chèvres le 11 janvier 2010 au soir, et `, s et c le nombre respectif de loups, serpents
et chèvres le 12 janvier 2010 au matin. Exprimer `, s et c en fonction de `∗ , s∗ et c∗ par une relation matricielle.
N.B. Pour une suite à ce petit modèle, voir l’exercice 59.
Exercice 14 (Produit matrice vecteur pour une matrice n × p) Si A est une matrice de n lignes et p colonnes,
on la multiplie par un vecteur x pour obtenir un vecteur b qui est combinaison linéaire des colonnes de A. Quel
est le nombre de composantes de x et b ?
a b
Exercice 15 (Matrice et linéarité) Soit A = une matrice 2 × 2. Soit u = 1 0 et v = 0 1 .
c d
1. Calculer Au et Av.
2. Soient α et β des réels. Calculer A(αu+βv) et αAu+βAv. Comparer. C’est cette propriété qu’on appelle
linéarité : on verra plus loin que l’application x 7→ Ax est une application linéaire.
1. Calculer b = Ex. Décrire (en français...) l’opération effectuée sur les lignes de x lorsque la matrice E
multiplie le vecteur x.
1 0
2. Soit F = . Calculer c = F b. Décrire (en français...) l’opération effectuée sur les lignes de b lorsque
` 1
la matrice F multiplie le vecteur b.
Regardons ce qui se passe ligne par ligne. Chaque ligne donne l’équation d’une droite, qu’on représente dans
la figure 1.1. Pour que le couple (x, y) vérifie les deux équations, il faut donc que le point de coordonnées x
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 13 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
y
2x − 3y = 1
x + 2y = 4
x = 2, y = 1
F IG . 1.1 – Vision par lignes : la solution du système est l’intersection des droites
et y soit l’intersection des deux droites. C’est ce qu’on appelle la vision “par lignes” du système : la solution
du système (1.3.3) est l’intersection de deux droites. Voyons maintenant un peu ce qui se passe si on regarde les
choses “par colonnes”. On va maintenant lire le système (1.3.3) comme une équation vectorielle faisant intervernir
les vecteurs :
1 2 4
u= v= et b = .
2 −3 1
Avec ces vecteurs, on peut réécrire le système (1.3.3) comme une seule équation vectorielle
xu + yv = b.
On cherche la “bonne” combinaison linéaire de u et v (c.à.d. les bons coefficients x et y) qui va donner b, comme
y
2
·· 2u = 4
····
···
···
···
·
····
1 ···
u= ···
2 ···
···
···
4
·
:··· b =
·· 1
·
···
·· x
··
···
·
··
··
···
··
··
···
··
··
···
·
··
··
2
^··· v =
−3
F IG . 1.2 – Vision par colonnes : la solution du système est l’intersection des droites
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 14 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
on le voit sur la figure 1.2 ; ceci s’écrit aussi avec les vecteurs colonnes :
1 2 4
x +y = = b.
2 −3 1
Avec le choix x = 2 et y = 1, on retrouve bien b : on va donc multiplier le vecteur u par x = 2 et le vecteur v par
y = 1 puis additionner les vecteurs 2u et v pour trouver b.
1 2 4
2 + = =b
2 −3 1
On réécrit maintenant l’équation vectorielle sous forme matricielle. La matrice A est un tableau de 2 × 2 nombres,
dont la première colonne est le vecteur u et la deuxième colonne le vecteur v.
1 2
A=
2 −3
Dans la vision par colonnes, le produit de la matrice A par le vecteur x = (x, y) est égale à la combinaison linéaire
xu + yv :
1 2 x 1 2
Ax = =x +y .
2 −3 y 2 −3
Dans la vision par lignes, le produit de la matrice A par le vecteur x = (x, y) est un vecteur b dont la première
composante est le produit scalaire de la première ligne de la matrice avec le vecteur x et la deuxième composante
le produit scalaire de la deuxième ligne de la matrice avec le vecteur x. Lorsqu’on regarde les lignes de A, on a la
vision “par lignes”, et lorsqu’on regarde les colonnes, on a la vision “par colonnes”. Le système d’équations sous
forme matricielle s’écrit alors :
1 2 x 4
=
2 −3 y 1
On effectue la multiplication matrice vecteur soit en effectuant le produit scalaire des lignes avec le vecteur de
composantes (x, y) soit par combinaison linéaire des colonnes de A. On a vu que la solution de ce système est
x = 2 et y = 1.
Dans le chapitre suivant, on va résoudre des systèmes de n équations à n inconnues, et la matrice du système
sera donc un tableau de n × n nombres. Mais donnons maintenant un exemple dans R3 . On considère le système
linéaire :
x +y +z =3
x +2y +3z = 9 (1.3.4)
x −2y +4z = 12
Vision ligne Chaque ligne du système est l’équation d’un plan dans R3 . Le système (1.3.4) possède une unique
solution si les plans se coupent en un point. Le produit Ax s’effectue par lignes en prenant les produits scalaires :
x (ligne1) · x
Ax = A y = (ligne 2) · x
z (ligne 3) · x
Vision colonne Résoudre le système revient à trouver les bons coefficients x, y et z d’une combinaison linéaire
xu + yv + zw des vecteurs u, v et w pour que xu + yv + zw = b, avec :
1 1 1
u = 1 , v = 2 et w = 3
1 −2 4
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 15 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
Le système (1.3.4) possède une solution si les plans se coupent en un point. Le produit Ax s’effectue par colonnes
en calculant la combinaison linéaire :
Ax = x (colonne 1) + y (colonne2) + z (colonne 3).
Avec la matrice A ci-dessus, on remarque que b = 3(colonne 3). On en déduit que la solution du système est
(x, y, z) = (0, 0, 3) (mais les choses ne sont évidemment pas toujours aussi simples !).
1.3.2 Elimination
Un exemple 2 × 2
Vous avez vu en secondaire comment résoudre un système par élimination et substitution. On va étudier cette
année une procédure systématique d’élimination, celle qui est utilisée dans les programmes informatiques pour la
résolution des systèmes linéaires, et qui est connue sous le nom de méthode de Gauss 3 . Sur le système précédent,
x + 2y = 4 x + 2y = 4 (multiplier la première équation par 2)
devient (1.3.5)
2x − 3y = 1 −7y = −7 (puis soustraire à la deuxième)
La deuxième équation donne alors y = 1, puis en substituant cette valeur dans la première x = 2. L’étape
d’élimination produit un système dont la matrice est triangulaire supérieure (les coefficients sous la diagonale sont
nuls). Une fois que la matrice du système est sous forme triangulaire supérieure, il est très facile de le résoudre
par substitution.
La solution du système d’origine et du système après élimination est la même, comme on peut le voir sur la vision
“en ligne” des figures 1.1 et 1.3.
y
x + 2y = 4
x = 2, y = 1
−7y = −7
F IG . 1.3 – le système après élimination dans la deuxième équation : Vision par lignes : la solution du système est
l’intersection des droites, elle n’a pas changé.
Même si ce système est très simple à résoudre et que vous auriez très certainement réussi à le faire sans ce cours
d’algèbre linéaire, cela vaut le coup d’analyser les opérations qu’on a effectuées pour comprendre la méthode et
l’appliquer dans des cas plus compliqués.
Pour éliminer x dans la deuxième équation, on a multiplié la première équation par 2 et on l’a soustraite à la
deuxième. On a utilisé pour cela le fait que le premier coefficient de la première ligne est 1, et en particulier non
nul : on dit que c’est le pivot. Comme le coefficient devant x dans la deuxième équation est 2, le multiplicateur
pour l’élimination est donc aussi 2.
Prenons le même système, mais où on a multiplié la première ligne par 5 : l’élimination va se faire maintenant de
la manière suivante :
(multiplier la première équation par 52
5x + 10y = 20 5x + 10y = 20
devient (1.3.6)
2x − 3y =1 − 7y = −7 (puis soustraire à la deuxième)
3 Johann Carl Friedrich Gauss (30 avril 1777 – 23 février 1855) est un mathématicien, astronome et physicien allemand. Il est considéré
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 16 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
La solution reste évidemment la même, mais maintenant, le premier coef de la première ligne est 5. Comme le
coefficient devant x dans la deuxième équation reste égal 2, le multiplicateur est maintenant 52 .
La deuxième équation a elle aussi un pivot, qui est égal à -7, et qui permet d’obtenir la solution (on l’utiliserait
pour éliminer y dans la troisème équation s’il y en avait une). Pour résoudre un système de deux équations à deux
inconnues, on a utilisé 2 pivots. Pour résoudre un système de n équations à n inconnues, on aura besoin de n
pivots. Notez qu’à la fin de l’élimination, le système obtenu a une forme triangulaire, et que les pivots sont sur la
diagonale du “triangle”.
Voyons maintenant si les choses peuvent se passer plus mal (et oui... elles le peuvent !)
Exemple 1.6 (Echec total de l’élimination : pas de solution) Avec le système suivant :
x − 2y = 4 x − 2y = 4 (multiplier la première équation par 2)
devient (1.3.7)
2x − 4y = 1 0y = −7 (puis soustraire à la deuxième)
l’élimination ne marche pas parce qu’arpès élimination de x, la deuxième équation a un zéro devant le y, et on ne
peut pas diviser par 0 (comme votre ordinateur vous le fera savoir si vous essayez. . . ) ; on dit aussi qu’on a “un
zéro en position pivotale”, mais il est absolument interdit de dire “un pivot nul”, parce qu’un pivot n’est jamais
nul.
Cet échec peut être interprété géométriquement (vision “lignes”) par le fait que les deux équations du sytème sont
les équations de deux droites parallèles et non confondues, et donc ont une intersection vide.
On peut aussi l’interpréter vectoriellement (vision “colonnes”) par le fait qu’on ne peut pas atteindre le vecteur
(4, 1) par une combinaison linéaire des vecteurs (1, 2) et (−2, −4)
Exemple 1.7 (Echec de l’élimination, mais infinité de solution) Dans l’exemple précédent, on remplace le se-
cond membre (4, 1) par (4, 8) :
x + 2y = 4 x + 2y = 4 (multiplier la première équation par 2)
devient (1.3.8)
2x + 4y = 8 0y = 0 (puis soustraire à la deuxième)
Là encore on a un zéro en position pivotale, et votre ordinateur risque de ne pas aimer si vous n’avez pas mis
de test dans votre programme. . . . Mais contrairement à l’exemple précédent, on a maintenant une solution au
système, et même une infinité de solutions : en effet, tout y ∈ R satisfait la deuxième équation et une fois qu’on a
choisi un y, on obtient x par la première. Dans la vision “lignes”, les droites qui étaient parallèles dans l’exemple
précédent sont maintenant confondues. Dans la vision colonne, le second membre b = (4, 8) est maintenant sur
la même droite que les vecteurs colonnes (1, 2) et (2, 4) de la matrice du système.
Exemple 1.8 (Echec temporaire de l’élimination : deux pivots obtenus par échange de ligne)
Supposons qu’on ait un zéro en position pivotale de la première ligne :
0x + 2y = 4 2x − 3y = 1
(devient, après échange) (des deux lignes) (1.3.9)
2x − 3y = 1 0x + 2y = 4
Le nouveau système est sous forme triangulaire, et il est donc prêt pour l’étape de substitution, dite aussi étape
de remontée. La deuxième équation donne y = 2 puis la première x = 72 . Les pivots du système sont 2 et 2, mais
pour les obtenir on a dé échanger les lignes.
Les deux premiers exemples sont des systèmes non inversibles (ou singuliers) : dans les deux cas on n’a pas de
pivot pour la seonde équation (zéro en position pivotale). Les systèmes singuliers ont soit aucune solution, soit
une infinité de solutions. Le deuxième exemple fait apparaitre un système inversible (ou régulier). On obtient les
deux pivots souhaités (parce qu’on a deux équations et deux inconnues) et on a une solution unique.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 17 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
Théorie générale pour les systèmes 2 × 2
Lemme 1.9 Soient a, b, c, d, α, β des réels. On suppose a 6= 0. Alors le système
ax+ by = α
cx+ dy = β
Démonstration : Soit (x, y) ∈ R2 . Si (x, y) est solution du premier système, alors dans ce premier système, on
multiplie la première équation par −c/a (on a le droit car a 6= 0) et on l’additionne à la seconde équation. On
vérifie ainsi que (x, y) est solution du second système. Réciproquement, si (x, y) est solution du second système,
alors dans ce second système, on multiplie la première équation par c/a et on l’ additionne à la seconde équation.
On vérifie ainsi que (x, y) est solution du premier système. On conclut que les deux systèmes ont même ensemble
de solution. Ils sont donc équivalents.
a b
Théorème 1.10 Soient a, b, c, d des réels et A = . Le système Ax = b admet une solution unique pour
c d
tout b ∈ R2 si et seulement si la matrice A admet deux pivots lors de l’élimination de Gauss.
Démonstration : Dire que la matrice A admet deux pivots lors de l’élimination de Gauss signifie que, quitte à
échanger les deux lignes de A,
• le premier coefficient de la première ligne de A est non nul, et que
• après avoir fait apparaître un 0 en première position de la seconde ligne de A, le coefficient en deuxième position
est non nul.
Par le Lemme 1.9, on peut résumer cela en
• soit a 6= 0 et d − bc/a 6= 0,
• soit a = 0, et dans ce cas on intervertit les deux lignes et on a c 6= 0 et b − da/c 6= 0.
Dans chacun de ces deux cas, l’étape de remontée montre par son procédé consructif qu’il existe une unique
solution au système. On a ainsi montré que l’existence de deux pivots entraéne l’existence et unicité de la solution
du système.
Montrons maintenant que si on n’a pas deux pivots alors on n’a pas existence et unicité. Si on n’a pas deux pivots
en sortie de l’élimination, on n’est donc dans aucun des cas ci-dessus, et alors on est dans l’une des situations
suivantes :
• a = 0 = c : on est ramené au système
by = α
dy = β
qui a 0 ou une infinité de solution,
• a 6= 0 et d − bc/a = 0 : on est ramené au système
ax+ by =α
0y = β − ac α
a b
Définition 1.11 Soient a, b, c, d des réels. On appelle déterminant de la matrice A = et on note det(A)
c d
le réel défini par det(A) = ad − bc.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 18 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
a b
Proposition 1.12 Si la matrice A = a deux pivots, le déterminant de la matrice A est égal au produit des
c d
pivots. Si le nombre de pivots est strictement inférieur à 2, det(A) = 0.
Le système Ax = b admet donc une solution unique pour tout b ∈ R2 si et seulement si det(A) 6= 0.
Démonstration : Voir exercice 26.
1.3.3 Un système 3 × 3
On va maintenant effectuer l’élimination de Gauss sur le système 3 × 3 suivant :
2x1 + 4x2 − 2x3 = 2
4x1 + 9x2 − 3x3 = 8 (1.3.10)
−2x1 − 3x2 + 7x3 = 10
Le premier pivot est le premier coefficient non nul de la première ligne, c.à.d. 2. On utilise ce pivot pour annuler
les coefficients de x1 dans les lignes 2 et 3. On soustrait 2 fois la ligne 1 à la ligne 2, et on soustrait (-1) fois la
ligne 1 à la ligne 3 :
2x1 + 4x2 − 2x3 = 2 −→ 2x1 + 4x2 − 2x3 = 2
`2 `2 −2`1
4x1 + 9x2 − 3x3 = 8 `3 `3 −(−1)`1 y + x3 = 4
−2x1 − 3x2 + 7x3 = 10 x2 + 5x3 = 12
Dans les formules ci dessus la phrase `2 `2 − 2`1 estàcomprendre par “la ligne 2 est remplacée par la la ligne 2
- deux fois la ligne 1". On cherche maintenant le pivot de la deuxième équation, il se trouve que c’est le coefficient
de x2 , égal à 1. On utilise ce pivot pour annuler le coefficient de x2 dans la ligne 3 :
2x1 + 4x2 − 2x3 = 2 −→ 2x1 + 4x2 − 2x3 = 2
1x2 + x3 = 4 `3 `3 −`2 1x2 + x3 = 4
x2 + 5x3 = 12 4x3 = 8
La troisième ligne comporte un pivot égal à 4 devant x3 et donc le système est transformé par l’élimination de
Gauss en un système triangulaire supérieur :
2x1 + 4x2 − 2x3 = 2 2x1 + 4x2 − 2x3 = 2
devient, après
4x1 + 9x2 − 3x3 = 8 1x2 + 1x3 = 4 (1.3.11)
élimination de Gauss
−2x1 − 3x2 + 7x3 = 10 4x3 = 8.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 19 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
Dans le cas d’un système 4×4 ou n×n, la méthode d’élimination de Gauss fonctionne selon les mêmes principes ;
on part d’une matrice, et de colonne en colonne, on transforme A en une matrice triangulaire U , si l’élimnation
marche jusqu’au bout, selon le schéma suivant :
Etape 1 Utiliser la première équation pour créer des zéros sous le premier pivot dans la colonne 1.
Etape 2 Utiliser la nouvelle équation 2 pour créer des zéros sous le deuxième pivot dans la colonne 2.
Etape 3 à n. Continuer à chercher les n pivots et la matrice triangulaire U pour les colonnes 3 à n.
∗ ∗ ∗ ∗
0 ∗ ∗ ∗
Après l’étape 2, on a une matrice de la forme 0 0 ∗ ∗
0 0 ∗ ∗
∗ ∗ ∗ ∗
0 ∗ ∗ ∗
et on cherche une matrice de la forme 0 0 ∗ ∗
0 0 0 ∗
1.3.4 Exercices
Algèbre linéaire et géométrie
Exercice 18 (Intersection de droites dans R2 ) Déterminer parmi les couples de droites suivantes, lesquelles
sont sécantes, parallèles ou confondues. Si elles sont sécantes, déterminer les coordonnées du point d’intersection,
si elles sont parallèles ou confondues donner un vecteur directeur et un vecteur normal. Ecrire pour chaque
couple de droites la vision “par colonnes”, c.à.d. en écrivant les systèmes linéaires à résoudre sous forme de
combinaisons linéaires, puis sous forme matricielle.
1. D1 : 3x + 5y − 2 = 0 et D2 : x − 2y + 3 = 0
2. D1 : 2x − 4y + 1 = 0 et D2 : −5x + 10y + 3 = 0
x = 3 + 4t x=5−s
3. D1 : t ∈ R et D2 : ,s ∈ R
y =2−t y = 2 + 3s
x = 1 + 2t x = 3 − 4s
4. D1 : , t ∈ R et D2 : ,s ∈ R
y = 2 − 3t y = −1 + 6s
x=2+t
5. D1 : x − 2y + 3 = 0 et D2 : ,t ∈ R
y = 3 − 2t
x = 1 − 4t
6. D1 : 3x − 2y + 1 = 0 et D2 : ,t ∈ R
y = 2 − 6t
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 20 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
Elimination par Gauss
Exercice 21 (Pivots)
2 1
1. Si A est la matrice , quels sont ses pivots ?
6 6
0 1
2. Même question pour A = .
6 6
1 2 3
3. Même question pour A = 1 4 5
2 4 6
Exercice 22 (Un système particulier) Soient a, α et β des réels. On considère le système suivant :
ax + y = α
x + ay = β
Exercice 23 (Un petit peu de réflexion) Montrer qu’ un système linéaire 2 × 2 (ou 3 × 3) ne peut pas avoir
exactement deux solutions.
a 1 2
Exercice 24 Soit A = a a 3. Pour quelles valeurs de a l’élimination de Gauss va-t-elle échouer ?
a a a
Exercice 25 (Matrices A et U dans l’algorithme d Gauss) On suppose que l’élimination de Gauss sur Ax = b
a produit le système triangulaire supérieur (équivalent) U x = c sans permutation de ligne.
1. De quelles lignes de A la ligne i de U est-elle une combinaison linéaire ?
2. Si Ax = 0, a-t-on U x = 0 ?
3. Si Ax = b, a-t-on U x = b ?
4. Si A est triangulaire inférieure, comment est la matrice U ?
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 21 Algèbre linéaire, Maths générales II
1.3. Méthode du pivot de Gauss 1. Algèbre linéaire dans R2 et R3
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 22 Algèbre linéaire, Maths générales II
Chapitre 2
2.1.1 Définitions
Définition 2.1 Pour tous entiers strictement positifs n et p, on appelle matrice de taille n × p à coefficients
dans K un tableau à n lignes et p colonnes :
a1,1 ··· a1,p
.. .. .
. .
an,1 ··· an,p
Les ai,j s’appellent les coefficients de la matrice. Le premier indice est celui de la ligne et le second celui de la
colonne.
On note Mn,p (K) l’ensemble des matrices à n lignes et p colonnes. Lorsque n = p, on note simplement
Mn (K) = Mn,n (K) et on parle alors de matrice carrée. Pour n 6= p, les matrices seront dites “rectangulaires".
Si n > p, la forme de la matrice sera celle d’un rectangle “debout" (plus haut que large), alors que si n < p, ce
sera un rectangle “couché" (plus large que haut).
0 ··· 0 1
a1,1 0 ··· 0
.. ..
0 a2,2 . .
– les matrices diagonales A = .
,
.. .. ..
. . 0
0 ··· 0 an,n
23
2.1. Matrices et opérations sur les matrices 2. Systèmes
linéaires et matrices
? ? ··· ? ? 0 ··· 0
.. .. .. .
. ..
0 ? . ., et inférieures L = ? ?
– les matrices triangulaires supérieures U =
. . .
.
.. .. ..
. . ..
. . ? . . . 0
0 ··· 0 ? ? ··· ? ?
• les éléments de M1,p (K) sont appelés matrices lignes ou vecteurs lignes,
• les éléments de Mn,1 (K) sont appelés matrices colonnes ou vecteurs colonnes.
On peut extraire des matrices lignes ou colonnes de matrices à plusieurs lignes et colonnes :
Définition 2.2
– On appelle ième ligne de la matrice A = (ai,j ) ∈ Mn,p (K) la matrice ligne ai,1 · · · ai,p notée `i (A).
C’est un élement de M1,p (K).
a1,j
– On appelle j ème colonne de la matrice A = (ai,j ) ∈ Mn,p (K) la matrice colonne ... notée cj (A). C’est
an,j
un élement de Mn,1 (K).
Remarque 2.4 (Attention aux tailles des matrices pour la somme !) On ne peut pas définir la somme de deux
matrices de tailles différentes.
Au premier chapitre, on a défini le produit d’une matrice A par un vecteur x comme la combinaison linéaire
des colonnes de A avec comme coefficients les composantes de x. Par exemple, soit A une matrice 3 × 3 de
coefficients ai,j , i = 1, . . . , 3, j = 1, . . . , 3 ; l’indice i représente la ligne, et l’indice j représente la colonne. On
note c1 (A), c2 (A), c3 (A) les colonnes de la matrice A. Soit x ∈ R3 , et (x1 , x2 , x3 ) les composantes de x, alors
Ax = x1 c1 (A) + x2 c2 (A) + x3 c3 (A). On peut à partir de là définir facilement le produit de deux matrices. Soit
la matrice B = (bi,j ) i=1,...,3 ∈ M3 (K) dont les colonnes sont
j=1,...,3
b1,1 b1,2 b1,3
c1 (B) = b2,1 , c2 (B) = b2,2 , et c3 (B) = b2,3 .
b3,1 b3,2 b3,3
On peut alors considérer chaque colonne cj (B) , j = 1, 2, 3, comme un vecteur et effectuer le produit matrice
vecteur Acj (B) :
Acj (B) = b1,j c1 (A) + b2,j c2 (A) + b3,j c3 (A).
Chaque produit donne un vecteur colonne, qu’il est naturel de définir comme la j-éme colonne de la matrice
AB. Chaque colonne de la matrice AB est donc une combinaison linéaire des colonnes de la matrice A.
Calculons le coefficient (i, j) c.é.d de la i-éme ligne et j-éme colonne de la matrice AB, qu’on va noter (AB)i,j .
Il s’agit donc de la i-éme composante du vecteur colonne Acj (B) = b1,j c1 (A) + b2,j c2 (A) + b3,j c3 (A) On a
donc (AB)i,j = b1,j ai,1 + b2,j ai,2 + b3,j ai,3 . Ceci peut encore s’écrire :
3
X
(AB)i,j = ai,1 b1,j + ai,2 b2,j + ai,3 b3,j = ai,k b2,k
k=1
De maniére plus générale, on définit donc le produit de deux matrices quelconques de la maniére suivante :
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 24 Algèbre linéaire, Maths générales II
2.1. Matrices et opérations sur les matrices 2. Systèmes linéaires et matrices
Définition 2.5 Le produit de deux matrices A = (ai,j ) ∈ Mn,p (K) et B = (bi,j ) ∈ Mp,q (K) est la matrice
C = (ci,j ) ∈ Mn,q (K) avec
p
X
ci,j = ai,1 b1,j + · · · + ai,p bp,j = ai,k bk,j
k=1
– Si A ∈ Mn,p (K) et B ∈ Mq,` (K) on ne peut effectuer le produit AB que si p = q et le produit BA que si
` = n.
– En général, même si p = n = ` = q, AB 6= BA.
De la méme façon qu’on a remarqué que les colonnes de la matrice AB sont des combinaisons linéaires des
colonnes de la matrice A, on peut aussi remarquer maintenant que les lignes de la matrice AB sont des combi-
naisons linéaires des lignes de la matrice B. C’est cette propriété qu’on utilise dans les procédures d’élimination
du style de la méthode de Gauss, qu’on verra prochainement. Par exemple, pour le produit des deux matrices 3 × 3
A et B vues précédemment, on a (AB)i,j = ai,1 b1,j + ai,2 b2,j + ai,3 b3,j , et donc, en notant `i (AB) et `i (B) les
lignes respectives de AB et B, on a :
ce qui montre bien que la ligne i de AB est une combinaison linéaire des lignes de B.
En résumé, la multiplication de A é droite par une matrice par une matrice opére sur les colonnes de la matrice
A, tandis qu’une multiplication de A é gauche par une matrice opére sur les lignes de A.
yn
p
X
yi = ai,k xk , i = 1, . . . , n.
k=1
n,p (K) et X = x1 · · · xn ∈ M1,n (K) est un vecteur ligne, le produit XA est un
• Si A = (ai,j ) ∈ M
vecteur ligne Y = y1 · · · yp ∈ M1,p (K) avec
n
X
yj = xk ak,j , j = 1, . . . , p.
k=1
y1
xn ∈ M1,n (K) est un vecteur ligne et Y = ... ∈ Mn,1 (K) est un vecteur colonne
• Si X = x1 ···
yn
alors le produit XY ∈ M1,1 (K) est un nombre donné par
n
X
x1 y1 + · · · + xn yn = xi yi .
i=1
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 25 Algèbre linéaire, Maths générales II
2.1. Matrices et opérations sur les matrices 2. Systèmes linéaires et matrices
• Soit A = (ai,j ) ∈ Mn,p (K), on note Ej ∈ Mp,1 (K), Fi ∈ M1,n (K) les matrices
0
..
.
0
ème
Ej = 1 ← j
ligne, Fi = 0 · · · 0 1 0 · · · 0 .
0 ↑
ième colonne
.
..
0
Alors on a AEj = cj (A), c’est-à-dire la j ème colonne de la matrice A et Fi A = `i (A), c’est-à-dire la ième
ligne de la matrice A.
Définition 2.9 (Puissance d’une matrice carrée) Soit A une matrice de Mn (K) et k ∈ N. On définit les puis-
sances de la matrice A de la façon suivante :
AB = BA = Idn .
Si B existe, elle est unique et on note B = A−1 et A−1 est appelé l’inverse de A. On notera GLn (K)1 l’ensemble
des matrices inversibles de taille n × n.
Démonstration : Il y a un point à montrer : l’unicité de l’inverse. Soient B1 , B2 ∈ Mn (K) telles que AB1 =
B2 A = Idn . On multiplie à droite l’égalité B2 A = Idn par B1 . Il vient (B2 A)B1 = Idn B1 = B1 . Par associa-
tivité de la multiplication dans le membre de gauche, on a B2 (AB1 ) = B1 et donc B2 = B1 . D’où l’unicité (on
a en fait montré un peu mieux : s’il existe un inverse à gauche et un inverse à droite, alors ces deux matrices sont
égales).
Remarque 2.11 (Inverse à gauche et à droite) En fait on peut montrer que si A est une matrice carrée et s’il
existe une matrice “inverse à gauche" A−1 telle que A−1 A = Id, alors A−1 est aussi une “inverse à droite",c.à..d
AA−1 = Id. La démonstration de ce résultat nécessite des outils qu’on ne verra qu’un peu plus tard. Il est
cependant bien pratique car il permet, lorsqu’on veut calculer l’inverse d’une matrice, de ne calculer que l’inverse
à gauche (par l’algorithme de Gauss-Jordan qu’on verra prochainement) sans vérifier que c’est aussi un inverse
à droite.
1 La notation GL veut dire “groupe linéaire", et provient du fait que l’ensemble des matrices inversibles muni de la multiplication des
matrices est un groupe2 non commutatif dont l’élément neutre est Idn ; voir l’exercice 52àce sujet.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 26 Algèbre linéaire, Maths générales II
2.1. Matrices et opérations sur les matrices 2. Systèmes linéaires et matrices
Attention. On ne parle de matrices inversibles que pour des matrices carrées ! ! !
(AB)−1 = B −1 A−1 .
Définition 2.13 (Matrice transposée) On appelle transposée d’une matrice A ∈ Mn,p (K), la matrice de
Mp,n (K) que l’on note At = (αi,j )i,j=1,...,n dont les coefficients sont définis par αi,j = aj,i .
Proposition 2.14 1. Soient A, B ∈ Mn,p (K), alors (A + B)t ∈ Mp,n (K) et (A + B)t = At + B t .
2. Soient A ∈ Mn,p (K), B ∈ Mp,q (K). Alors (AB)t ∈ Mq,n (K) et (AB)t = B t At .
3. Si A ∈ Mn (K) est inversible, alors (A−1 )t = (At )−1 .
Enfin, si A est inversible alors AA−1 = Id. Donc (AA−1 )t = (Id)t = Id. Par le point précédent, (AA−1 )t =
(A−1 )t At . Donc At est inversible et (At )−1 = (A−1 )t .
Définition 2.15 (Matrices symétrique et antisymétrique) Soit A ∈ Mn,n (K), on dit que A est symétrique si
At = A et antisymétrique si At = −A.
Définition 2.16 (Matrice de permutation) Soit P ∈ Mn (R). On dit que P est une matrice de permutation si P
a exactement un coefficient égal à 1 dans chaque ligne et chaque colonne, et que tous ses autres coefficients sont
nuls. Une matrice de permutation a donc les mêmes lignes que la matrice identité mais dans un ordre qui peut
être différent.
2.1.4 Exercices
Opérations sur les matrices
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 27 Algèbre linéaire, Maths générales II
2.1. Matrices et opérations sur les matrices 2. Systèmes linéaires et matrices
Exercice 29 (Matrice d’élimination) Soit A une matrice carrée d’ordre 3. Ecrire la matrice T2,1 (−3) qui, lors-
qu’on effectue le produit T2,1 (−3)A, soustrait 3 fois la ligne 1 de la ligne 2 ? Ecrire ensuite la matrice P3,2 qui
permute les lignes 2 et 3.
Effectuer ensuite les produits AT2,1 (−3) et AP3,2 et décrire la matrice résultante.
On considére le système Ax = b avec
1 1 1 2
A = 3 3 1 b = 8
0 2 1 1
Ecrire le système T2,1 (−3)Ax = T2,1 (−3)b puis le système P3,2 T2,1 (−3)Ax = P3,2 T2,1 (−3)b. Calculer le
produit C = P3,2 T2,1 (−3) puis écrire le système CAx = Cb.
Exercice 31 (Matrices qui commutent) Soient a et b deux nombres réels non nuls. Trouver les matrices qui
commutent avec la matrice
a b
A= .
0 a
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 28 Algèbre linéaire, Maths générales II
2.1. Matrices et opérations sur les matrices 2. Systèmes linéaires et matrices
Exercice 35 (Un modèle de prédation à deux niveaux) Dans la chaéne alimentaire, sur une période, le lion
consomme 4 gazelles, 5 gnous et 2 antilopes. Le guépard, plus agile, consomme 7 gazelles et 1 antilope. Pour ne
pas se laisser abattre, les gazelles, gnous et antilopes consomment quelques végétaux : arbres, pelouses, herbes
hautes et racines. Une gazelle consomme 100g de feuilles d’arbres, 300g de pelouse, 150g d’herbes hautes et
50g de racines. Un gnou consomme 500g de feuilles d’arbres, 100g de pelouse, 750g d’herbes hautes et pas de
racines. Une antilope consomme 200g de feuilles d’arbres, 400g de pelouse, 250g d’herbes hautes et 150g de
racines. Malheureusement la pollution a affecté les arbres et la pelouse. La concentration de pesticide est de
c1 = 30 par gramme de feuille d’arbre et de c2 = 50 par gramme de pelouse. Bien heureusement les racines et les
herbes hautes sont préservées. Calculer la masse totale de pesticide ingérée par le lion et le guépard en effectuant
le produit de trois matrices que l’on explicitera.
Exercice 37 (Identités remarquables ?) Quelles sont parmi les matrices suivantes celles qui sont égalesà(A −
B)2 , pour toutes les matrices A et B carrées d’ordre n ?
Exercice 38 (Matrices nilpotentes) On dit qu’une matrice A ∈ Mn (K) est nilpotente3 d’ordre q si Aq−1 6= 0 et
Aq = 0. Donner un exemple de matrices carrées 2 × 2 et 3 × 3 nilpotentes d’ordre 2. Donner ensuite un exemple
de matrice carrée nilpotente d’ordre 3.
Exercice 40 (Matrice d’adjacence d’un graphe) Un graphe est un ensemble de points, dont certaines paires
sont directement reliées par un “lien". Ces liens peuvent étre orientés, c’est-é-dire qu’un lien entre deux points u
et v relie soit u vers v, soit v vers u : dans ce cas, le graphe est dit orienté. Sinon, les liens sont symétriques, et le
graphe est non-orienté. Les points sont généralement appelés sommets, et les liens “arêtes". On peut représenter
le graphe par une matrice, qu’on appelle matrice d’adjacence : le coefficient de la i-éme ligne et j-éme colonne
est 1 s’il existe une aréte entre les sommets i et j, et 0 sinon. Remarquer que si le graphe est non orienté, sa
matrice d’adjacence est symétrique.
1 1 0
On considére un graphe à trois sommets, dont la matrice d’adjacence est A = 1 0 0.
1 0 1
Dessiner le graphe. Calculer A2 . Expliquer pourquoi le coefficient i, j de de A2 donne le nombre de cheminsàdeux
arétes entre i et j. Que donnent les coefficients de A3 ?
Matrices inverses
Exercice 41 (Inverse d’une matrice d’élimination) Soit E la matrice 3×3 qui lorsqu’on effectue le produit EA
soustrait la premiére ligneàla deuxiéme, et P la matrice qui échange les lignes 2 et 3 . Quelle est l’opération qui
va ramener la matriceàson état initial ? Ecrire E et E −1 . Vérifier que EE −1 = E −1 E = Id3 .
Exercice 42 (système linéaire et matrice inverse) Soit A une matrice 3 × 3. Supposons qu’on sache trouver x,
y et z tels que
1 0 0
Ax = 0 Ay = 1 Az = 0
0 0 1
Soit X = x y z . Calculer AX.
3 nilpotente : du latin nihil : rien et potere pouvoir
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 29 Algèbre linéaire, Maths générales II
2.1. Matrices et opérations sur les matrices 2. Systèmes linéaires et matrices
Exercice 43 (CNS d’inversibilité d’une matrice 2 × 2) Soit
a b
A=
c d
avec a, b, c, d ∈ K. On suppose que cette matrice est inversible. Calculer la matrice A−1 en fonction de a, b, c, et
d par identification. Exprimer la condition sur a, b, c, et d pour que la matrice soit inversible.
Calculer A2 et montrer que A2 = 2Id2 − A, en déduire que A est inversible et calculer A−1 .
Exercice 45 (Calcul de l’inverse d’une matrice par produit de matrice et produit scalaire) Soit A une matrice
carrée d’ordre n. On appelle trace de A, qu’on note Tr(A), la somme de ses éléments diagonaux. Soit A la ma-
trice carrée d’ordre 3 suivante :
1 2 3
A = 4 3 1
2 1 1
1. Calculer B0 = A − Tr(A)Id3 .
2. Calculer B1 = B0 A
Tr(B1 )
3. Calculer B2 = B1 − 2 Id3
4. Calculer B3 = B2 A
5. En déduire A−1
Cet algorithme4 de calcul de l’inverse dé à Jean-Marie Souriau5 ne nécessite donc qu’un seul produit matrice
vecteur et deux calculs de trace. Il peut se généraliser à une matrice n × n et on peut démontrer qu’il donne
effectivement l’inverse d’une matrice si celle-ci est inversible6 .
Exercice 46 (Puissance et inverse) Soit A une matrice carrée d’ordre n ; on suppose que A2 est une combinaison
linéaire de A et Idn : A2 = αA + βIdn .
1. Montrer que Ap est également une combinaison linéaire de A et Idn pour tout p ∈ N∗ .
2. Montrer que si β est non nul, alors A est inversible et que A−1 est encore combinaison linéaire de A et Idn .
3. Application 1 : soit A = Jn − Idn , où Jn est la matrice Attila (envahie par les uns...), avec n ≥ 1. Montrer
que A2 = (n − 2) A + (n − 1) Idn ; en déduire que A est inversible, et déterminer son inverse.
Application 2 : montrer que si n = 2, A2 est toujours une combinaison linéaire de A et Id2 , et retrouver la formule
donnant A−1 en utilisant 2.
Transposition, permutation
Exercice 47 Verifier par le calcul sur les matrices suivantes que (AB)t = B t At mais 6= At B t .
3 6 1 −6
A= B=
−1 −2 3 4
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 30 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
Exercice 49 (Opérations sur les matrices symétriques) Soient A et B deux matrices carrées symétriques. Les
matrices A2 , AB, A2 − B 2 , (A + B)(A − B), BAB et BABA sont elles symétriques ? (si oui, justifier, sinon,
contreexemple).
Exercice 50 (Transposition et symétrie) Soit A une matrice n × p.
1. Quelles sont les tailles respectives de AAt et At A ?
2. Montrer que les coefficients diagonaux de AAt et At A sont forcément positifs ou nuls.
3. Soit B une matrice p × p symétrique. Montrer que la matrice ABAt est symétrique.
Exercice 51 (Matrices rigolotes)
Ecrire la matrice A ∈ M2 (R) dont les coefficients sont définis par ai,j = i + j et la matrice B ∈ M2 (R) dont
les coefficients sont définis par bi,j = i − j. Calculer AB et BA, en utilisant les deux techniques pour le produit
(combinaison linéaire des colonnes, produit scalaire des lignes).
Ecrire les matrices A et B sous la forme C + C t et C − C t où C est une matrice bien choisie.
Montrer que pour n’importe quelle matrice C ∈ Mn (R), si A = C + C t et B = C − C t alors BA = −(AB)t .
Dans quel cas a -t-on AB = BA ? (rép. : si C et C t commutent)
Exercice 52 (Groupe linéaire et sous groupes) Montrer que l’ensemble des matrices inversibles GLn (R) muni
de la multiplication des matrices est un groupe. Quel est son élément neutre ? Ce groupe est-il commutatif ?
Parmi les sous ensembles suivants de Mn (R), dire quels sont ceux qui sont des sous-groupes7 de GLn (R) :
– les matrices triangulaires supérieures,
– les matrices triangulaires inférieures dont tous les coefficient sont égauxà1,
– les matrices diagonales dont tous les coefficients sont non nuls,
– les matrices symétriques inversibles,
– les matrices inversibles Q telles que Q−1 = Qt .
Pour les ensembles qui sont des sous-groupes, dire ceux qui sont commutatifs.
Trouver d’autres ensembles de matrice qui sont des sous-groupes de GLn (R).
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 31 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
1 0 0
Ceci revient à multiplier à à gauche par la matrice T31 (1) = 0 1 0
1 0 1
La deuxième ligne a un terme non nul en deuxième position (2) : c’est un pivot. On va maintenant annuler le
deuxième terme de la troisième ligne ; pour cela, on retranche 1/2 fois la ligne 2àla ligne 3 :
1 1 1 2 1 0 1 2
`3 →`3 −1/2`2
0 2 −1 1 −→ 0 2 −1 1
0 1 −1 0 0 0 − 21 − 12
1 0 0
Ceci revient à multiplier la matrice précédente à gauche par la matrice T32 (− 12 ) = 0 1 0 . On a ici
0 − 12 1
obtenu une matrice sous forme triangulaire supérieure à trois pivots : on peut donc faire la remontée pour obtenir
la solution du système, et on obtient (en notant xi les composantes de x) : x3 = 1 puis x2 = 1 et enfin x1 = 1.
On a ainsi résolu le système linéaire.
Le fait de travailler sur la matrice augmentée est extrémement pratique car il permet de travailler simulta-
nément sur les coefficients du système linéaire et sur le second membre.
Finalement, au moyen des opérations décrites ci-dessus, on a transformé le système linéaire
1 1
Ax = b en U x = T32 (− )T31 (1)b, oé U = T32 (− )T31 (1)A
2 2
est une matrice triangulaire supérieure.
Factorisation LU Tout va donc très bien pour ce système, mais supposons maintenant qu’on aitàrésoudre 3089
systèmes avec la méme matrice A mais 3089 seconds membres b différents9 . Il serait un peu dommage de recom-
mencer les opérations ci-dessus 3089 fois, alors qu’on peut en éviter une bonne partie. Comment faire ? L”idée est
de “factoriser" la matrice A,c.à..d de l’écrire comme un produit A = LU , oé L est triangulaire inférieure (lower
triangular) et U triangulaire supérieure (upper triangular). On reformule alors le système Ax = b sous la forme
LU x = b et on résout maintenant deux systèmes facilesàrésoudre car triangulaires : Ly = b et U x = y.
La factorisation LU de la matrice découle immédiatement de l’algorithme de Gauss. Voyons comment sur l’exemple
précédent.
1/ On remarque que U = T32 (− 21 )T31 (1)A peut aussi s’écrire A = LU , avec L = (T32 (− 12 )T31 (1))−1 .
2/ On sait que (T32 (− 12 )T31 (1))−1 = (T31 (1))−1 (T32 (− 12 )−1 .
3/ Les matrices inverses T31 (1)−1 et T32 (− 12 )−1 sont facilesàdéterminer : comme T32 (− 12 )−1 consisteàretrancher
1/2 fois la ligne 2àla ligne 3, l’opération inverse est d’ajouter 1/2 fois la ligne 2àla ligne 3, et donc
1 0 0
1 −1 1
T32 (− ) = T32 ( ) = 0 1 0 .
2 2
0 12 1
1 0 0 1 0 0
De méme T31 (1)−1 = T31 (−1) = 0 1 0 et donc L = T31 (1)−1 T32 (− 12 )−1 = 0 1 0 .
−1 0 1 −1 12 1
La matrice L est une matrice triangulaire inférieure (et c’est d’ailleurs pour cela qu’on l’appelle L, pour “lower" in
English...) dont les coefficients sont particuliérement simplesàtrouver : les termes diagonaux sont tous égauxàun,
et chaque terme non nul sous-diagonal Li,j est égal au coefficient par lequel on a multiplié la ligne pivot i avant
de la retrancheràla ligne j.
4/ On a bien donc A = LU avec L triangulaire inférieure (lower triangular) et U triangulaire supérieure (upper
triangular).
La procédure qu’on vient d’expliquer s’appelle méthode LU pour la résolution des systèmes linéaires, et elle
est d’une importance considérable dans les sciences de l’ingénieur, puisqu’elle est utilisée dans les programmes
informatiques pour la résolution des systèmes linéaires.
9 Ceci est courant dans les applications. Par exemple on peut vouloir calculer la réponse d’une structure de génie civilà3089 chargements
différents.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 32 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
Dans l’exemple que nous avons étudié, tout se passait très bien car on n’a pas eu de zéro en position pivotale.
Si on a un zéro en position pivotale, la factorisation peut quand méme se faire, mais au prix d’une permutation.
Le résultat général que l’on peut démontrer est que si la matrice A est inversible, alors il existe une matrice de
permutation P , une matrice triangulaire inférieure L et une matrice triangulaire supérieure U telles que P A = LU
Théorème 2.17 (Factorisation LU) Soit A une matrice inversible, alors il existe une matrice P de permutation,
une matrice L triangulaire inférieure et U une matrice triangulaire supérieure telle que P A = LU .
Le petit miracle de la décomposition LU est que la permutation P n’a pas besoin d’étre connue avant de mettre
en oeuvre la factorisation ; elle est calculée au cours de l’algorithme, voir les algorithmes en annexe à la fin du
polycopié.
Factorisation LDU On peut aussi procéderàune factorisation dite LDU en remarquant que si on divise chaque
ligne de la matrice U obtenue par la décomposition LU par son coefficient diagonal (qui est non nul puisque la
matrice est inversible) alors on obtient une matrice triangulaire supérieure Ũ avec que des uns sur la diagonale, et
on peut écrire U = DŨ , oé D est la matrice diagonale contenant les pivots.
Lorsqu’on parle de factorisation LDU on sous entend donc toujours que la matrice U a des uns sur la diagonale.
Sur l’exemple précédent, cette nouvelle décomposition s’écrit
1 0 1 1 0 0 1 0 0 1 0 1
A = 0 2 −1 = LDU = 0 1 0 0 2 0 0 1 − 12
−1 1 −2 −1 21 1 0 0 − 12 0 0 1
– Soient i, j deux entiers distincts de {1, . . . , n} (i 6= j), on définit la matrice Ei,j comme la matrice dont tous
les coefficients sont nuls sauf le coefficient i, j qui est egal à 1.
– Soient i, j deux entiers distincts de {1, . . . , n} (i 6= j), pour tout λ ∈ K la matrice Ti,j (λ) = Idn + λEi,j :
Proposition 2.19 On a
1. (Di (a))t = Di (a), (Ti,j (λ))t = Tj,i (λ).
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 33 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
2. Si a 6= 0, (Di (a))−1 = Di 1
, (Ti,j (λ))−1 = Ti,j (−λ).
a
Démonstration : Le premier point est immédiat. Montrons le deuxième point. Pour les dilatations, on remarque
que le produit de deux matrices diagonales D1 et D2 est une matrice diagonale dont les coefficients diagonaux
sont les produits des coefficients diagonaux de D1 et D2 . Effectuons le produit des matrices Ti,j (λ)Ti,j (−λ). On
a
Ti,j (λ)Ti,j (−λ) = (Idn + λEi,j )(Idn − λEi,j ) = Idn − λ2 Ei,j Ei,j = Idn
car lorsque i 6= j, Ei,j Ei,j = 0.
Lemme 2.20 Si E ∈ Mn (K) est le produit de matrices élémentaires, alors E est inversible et son inverse est
encore un produit de matrices élémentaires.
Démonstration : On montre le résultat par récurrence sur le nombre de facteurs du produit, en utilisant la Propo-
sition 2.12 et le fait que chaque matrice élémentaire est inversible et son inverse est une matrice élémentaire.
Théorème 2.21 (Opérations élémentaires sur les lignes d’une matrice) Soit A ∈ Mn,p (K).
1. La matrice Di (a)A est la matrice obtenue à partir de A en multipliant la ième ligne de A par a.
2. La matrice Ti,j (λ)A est la matrice obtenue à partir de A en ajoutant à la ième ligne de A, λ fois la j ème
ligne.
Démonstration : On rappelle que la multiplication des matrices peut s’effectuer parPlignes. Si on note `k (A) les
n
lignes d’une matrice A, chaque ligne du produit de matrices M A s’écrit `i (M A) = k=1 Mi,k `k (A), où n est le
nombre de colonnes de M (et de lignes de A). Avec M = Di0 (a) qui est diagonale, on a donc :
n
(
X a`i0 (A) si i = i0 ,
`i (Di0 (a)A) = (Di0 (a))i,k `k (A) = Di0 (a))i,i `i (A)
k=1
`i (A) sinon.
Autrement dit, une matrice n × p est sous forme échelonnée si les deux conditions suivantes sont vérifiées :
1. s’il existe des lignes de zéros, alors elles sont toutes en bas de la matrice ;
2. si deux lignes successives sont non nulles, alors la seconde a plus de zéros à gauche que la première.
Voici à quoi ressemblent des matrices échelonnées :
0 ... coefficients
coefficients
...
0 quelconques 0 0 quelconques
.. . .
. . 0 ...... 0
. . .
0 0 0 ... 0 ... ... ... 0
0 ... 0 ... ... ... 0
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 34 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
ou encore :
coefficients
0 quelconques
.. ..
0 ... 0
.
.
.. .. coefficients
0 ... . .
0 quelconques
.. . . .
0
. .. 0 ... ... 0
0
. 0
Exemple 2.23 (Matrices échelonnées) Dans toutes les matrices ci dessous ? désigne n’importe quel réel.
– Dans M2 (K)
2 ? 1 ? 0 3 0 0
, , , .
0 1 0 0 0 0 0 0
– Dans M3 (K)
1 ? ? 5 ? ? 0 3 ? 0 2 ? 0 0 1 0 0 0
0 1 ? , 0 0 4 , 0 0 2 , 0 0 0 , 0 0 0 , 0 0 0 .
0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
– Dans M4 (K)
1 ? ? ? 0 8 ? ? 0 2 ? ? 0 0 2 ? 0 0 0 5 0 0 0 0
0 3 ? ? 0 0 1 ? 0 0 0 4 0 0 0 0 0 0 0 0 0 0 0 0
0 0 4 ? ,
, , , , .
0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
0 0 0 5 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
Dans le cas des matrices carrées, une matrice échelonnée est triangulaire supérieure :
Démonstration : Soit donc A = (ai,j ) ∈ Mn (K) une matrice échelonnée. On montre par récurrence sur
2 ≤ i ≤ n que ai,j = 0 si j < i.
Pour i = 2, si la ligne 2 est nulle, la propriété est trivialement vraie. Si la ligne 2 n’est pas nulle, le point 2. de
la définition des matrices échelonnées montre que sur la ligne 2 le premier coefficient non nul se trouve sur une
colonne k > 1, autrement dit a21 = 0. La propriété est donc vraie pour i = 2.
Supposons la propriété vraie pour 2 ≤ i ≤ n − 1 et montrons-la pour i + 1. Si la ligne i + 1 est nulle, la propriété
est trivialement vraie. Si la ligne i + 1 n’est pas nulle, la ligne i n’est pas nulle (par le point 1. de la définition des
matrices échelonnées). Alors, comme ai,j = 0 si j < i par hypothèse de récurrence, le premier terme non nul de
la ligne i se trouve sur une colonne j0 ≥ i. D’après le point 2., le premier terme non nul de la ligne i + 1 se trouve
donc sur une colonne j ≥ j0 + 1 ≥ i + 1. Ainsi, ai+1 j = 0 pour tout j < i + 1.
La propriété est donc vraie pour tout i : la matrice A est donc triangulaire supérieure.
Pour démontrer le théorème, on décrit un algorithme qui donne explicitement la matrice E. Avant de traiter le cas
général, on va décrire l’algorithme sur un exemple.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 35 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
On veut échelonner la matrice
1 2 −2 4 1 1
0 1 3 −4 2 1
A :=
.
1 0 −8 0 0 1
1 1 −5 0 0 1
L’idée est de procéder colonne par colonne. A l’étape i de l’algorithme, la matrice formée des i premières colonnes
est échelonnée. Lorsqu’on arrive à l’étape 6 (= le nombre de colonnes de A), la matrice obtenue est échelonnée.
On commence par l’étape 1. Il s’agit d’échelonner le premier vecteur colonne :
1
0
C1 = 1 .
1
Comme il est non nul, cela signifie qu’on veut, par des manipulations de lignes (c’est-à-dire en multipliant A à
gauche par des matrices élémentaires), se ramener au vecteur :
1
0
.
0
0
(Si le premier vecteur colonne était nul, en particulier il serait échelonné, on ne le modifierait pas et on passerait
au vecteur colonne suivant). La première ligne de C1 est un 1 donc on ne la change pas. Ensuite, en se servant de
ce 1, on fait apparaître des 0 sur les lignes suivantes de C1 . On commence par retrancher à la troisième ligne 1
fois la première. Pour cela, on multiplie la matrice A par T31 (−1) avec
1 0 0 0
0 1 0 0
T31 (−1) = −1 0 1 0 .
0 0 0 1
On obtient la matrice A1 = T31 (−1)A, c’est-à-dire :
1 2 −2 4 1 1
0 1 3 −4 2 1
A1 = 0 −2 −6 −4 −1 0
1 1 −5 0 0 1
(pour obtenir A1 à partir de A, on a effectivement ajouté à la troisième ligne −1 fois la première). On a obtenu ce
qu’on voulait : un 0 sur la troisième ligne du premier vecteur colonne. Pour obtenir un zéro sur la quatrième ligne
du premier vecteur colonne, on ajoute à la quatrième ligne −1 fois la première, c’est-à-dire on multiplie la matrice
A1 par T41 (−1) :
1 0 0 0
0 1 0 0
T41 (−1) =
0 0 1 0 .
−1 0 0 1
On obtient la matrice A2 = T41 (−1)A1 = T41 (−1)T31 (−1)A :
1 2 −2 4 1 1
0 1 3 −4 2 1
A2 =
0 −2 −6 −4 −1 0
.
0 −1 −3 −4 −1 0
La première colonne de A2 est de la forme
1
0
0
0
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 36 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
et donc on en a fini avec la première colonne, car celle-ci est échelonnée. De plus, on note qu’elle a 3 lignes nulles.
La deuxième étape consiste à échelonner la matrice formée des deux premières colonnes de A2 . Pour cela, on va
échelonner le deuxième vecteur colonne de A2 à partir de la deuxième ligne (noter que la deuxième ligne est la
première ligne nulle de la première colonne). On verra que ça ne modifie pas la première colonne. La deuxième
colonne de A2 est
2
1
−2 .
−1
Echelonner ce vecteur colonne à partir de la deuxième ligne veut dire qu’ on se ramène par des combinaisons
linéaires de lignes à une deuxième colonne du type
∗
1
0
0
où ∗ représente un nombre quelconque. Cette opération revient à multiplier A2 à gauche par des matrices élémen-
taires).
Il y a déjà un 1 sur la deuxième ligne. Pour faire apparaître un 0 sur la troisième ligne, on retranche à la troisième
ligne −2 fois la seconde (on se sert ainsi du 1 qui est sur la deuxième ligne). On obtient
1 2 −2 4 1 1
0 1 3 −4 2 1
A3 = T32 (2)A2 = T32 (2)T41 (−1)T31 (−1)A = .
0 0 0 −12 3 2
0 −1 −3 −4 −1 0
Noter qu’on n’a pas modifié la première colonne. Ceci est dû au fait qu’il y a un 0 sur la deuxième ligne de la
première colonne.
On poursuit le travail sur la deuxième colonne, en gagnant un 0 sur la quatrième ligne. Pour cela, on retranche à
la quatrième ligne −1 fois la deuxième, autrement dit, on multiplie A3 par T42 (1) pour obtenir
1 2 −2 4 1 1
0 1 3 −4 2 1
A4 := T42 (1)T32 (2)T41 (−1)T31 (−1)A = 0 0 0 −12 3 2 .
0 0 0 −8 1 1
La deuxième colonne a bien la forme qu’on attendait. La première colonne n’a pas été modifiée. La matrice formée
des deux premières colonnes de A4 est échelonnée, et on note qu’elle a deux lignes nulles.
Passons à la troisième étape : on travaille sur la troisième colonne. Il s’agit de l’échelonner à partir de la troisième
ligne (qui est la première ligne nulle de la matrice formée des deux premières colonnes de A4 ). La matrice formée
des trois premières colonnes de A4 sera ainsi échelonnée. Comme le vecteur colonne constitué des 2 dernières
lignes de la troisième colonne est nul, on n’a rien à faire sur la troisième colonne : elle est déjà échelonnée à partir
de la troisième ligne. On remarque que la matrice formée des trois premières colonnes de A4 a encore deux lignes
nulles.
On passe à la quatrième colonne, qu’on veut échelonner à partir de la troisième ligne car c’est la première ligne
nulle de la matrice formée des trois premières colonnes de A4 . Ainsi, on veut ramener le quatrième vecteur colonne
à un vecteur colonne de la forme :
∗
∗
a .
0
avec a non nul. On voit que pour cela, il suffit de retrancher à la quatrième ligne 2/3 fois la troisième, autrement
dit de multiplier A4 par T43 (−2/3). On obtient
1 2 −2 4 1 1
0 1 3 −4 2 1
A5 := T43 (2)T42 (1)T32 (2)T41 (−1)T31 (−1)A = 0 0 0 −12 3
.
2
0 0 0 0 −1 −1/3
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 37 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
Ceci achève le travail sur la quatrième colonne : la matrice formée des 4 premières colonnes est échelonnée. De
plus, elle a 1 ligne nulle. Pour la cinquième étape : le cinquième vecteur colonne est échelonné à partir de la
quatrième ligne. Donc on n’y touche pas. La matrice formée des 5 premières colonnes est échelonnée et n’a pas
de ligne nulle. L’algorithme s’arrête donc ici : la matrice A5 elle-même est échelonnée.
De plus, on a A5 = EA avec
On sait que T41 (−1)T31 (−1) est obtenue à partir de T31 (−1) en retranchant à la quatrième ligne 1 fois la première
(parce que c’est l’effet de la multiplication à gauche par T41 (−1)). On obtient donc :
1 0 0 0
0 1 0 0
T41 (−1)T31 (−1) = −1 0 1 0 .
−1 0 0 1
De même, T32 (2)T41 (−1)T31 (−1) est obtenue à partir de T41 (−1)T31 (−1) en retranchant à la troisième ligne −2
fois la deuxième (parce que c’est l’effet de la multiplication à gauche par T32 (2)). On obtient donc :
1 0 0 0
0 1 0 0
T32 (2)T41 (−1)T31 (−1) = −1 2 1 0 .
−1 0 0 1
Pour obtenir E en même temps qu’une matrice échelonnée à partir de A, on peut aussi échelonner directement
la matrice augmentée A Id4 jusqu’à la dernière colonne de A. Mais ceci n’est jamais effectué en pratique.
D’abord la matrice E n’est pas très intéressante en soi ; c’est la matrice L = E −1 qui est utile en pratique : dans
le cas où on n’a pas besoin de permutation de lignes, on obtient la factorisation A = LU de la matrice avec
une matrice L = E −1 triangulaire inférieure et une matrice U triangulaire supérieure. Dans le cas de l’exemple
−1
ci-dessus, la matrice L s’écrit : L = E −1 (T32 (2)T41 (−1)T31 (−1)) = T31 (1)T41 (1)T32 (2). Les coefficients
de la matrice L s’obtiennent donc très facilement à partir des coefficients utilisés lors de l’échelonnement pour la
construction de la matrice U .
On va maintenant démontrer le Théorème 2.25 en décrivant l’algorithme d’échelonnement dans le cas général. On
commence par considérer le cas d’une matrice colonne (c’est-à-dire p = 1).
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 38 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
I Si a1 6= 0 alors on utilise a1 pour éliminer les coefficients qui sont en-dessous, à l’aide des matrices élémen-
taires. On commence par retrancher à la deuxième ligne a2 /a1 fois la première :
a1
0
T2,1 (−a2 /a1 ) A = a3 .
..
.
an
I Si a1 = 0, il existe i ≥ 2 tel que ai 6= 0 car on a supposé A 6= 0. Auquel cas, si on ajoute à la première ligne 1
fois la iième ligne, on obtient
ai
a2
T1,i (1) A = . .
..
an
Dans le cas où a1 est nul, on aurait aussi pu intervertir les lignes 1 et i au lieu d’ajouter à la première ligne la
iième .
Pour passer au cas général, on a besoin de la généralisation suivante. On dit qu’un vecteur X ∈ Mn,1 (K) est
échelonné à partir de la ligne 1 ≤ i ≤ n si le vecteur A0 ∈ Mn−i+1,1 constitué des lignes i, . . . , n du vecteur X
est échelonné (au sens de la Définition 2.22). En particulier, un vecteur est échelonné s’il est échelonné à partir de
la ligne 1.
L’algorithme d’échelonnement d’un vecteur colonne peut être généralisé pour obtenir un vecteur échelonné à
partir d’une ligne quelconque 1 ≤ i ≤ n − 1. Pour cela, il suffit d’éliminer les lignes qui sont au-dessous de i en
utilisant le coefficient qui est sur la ligne i. Plus précisément,
Lemme 2.27 Soit A = (ak )k=1,...,n ∈ Mn,1 (K) et 1 ≤ i ≤ n − 1. On suppose que l’une des lignes i, . . . , n de
A n’est pasnulle. Alors il existe une matrice E ∈ Mn (K) produit de matrices élémentaires et a ∈ K, a 6= 0, tels
a1
..
.
ai−1
que EA = a .
0
.
..
0
Démonstration : C’est la même preuve que pour le lemme précédent sauf qu’on ne regarde que les lignes qui
sont au-dessous de la iième .
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 39 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
I Si ai 6= 0 alors en retranchant à la (i + 1)ième ligne ai+1 /ai fois la iième ligne, on obtient
a1
..
.
ai−1
−ai+1 ai
Ti+1,i A=
0 .
ai
ai+2
.
..
an
I Si ai = 0, il existe j ≥ i + 1 tel que aj 6= 0. Auquel cas, si on ajoute la j ième ligne à la iième ligne, on obtient
a1
..
.
ai−1
aj .
Ti,j (1)A =
ai+1
.
..
an
On observe que dans cet algorithme, on modifie seulement les lignes i, . . . , n de A. En effet, les matrices élémen-
taires par lesquelles on multiplie A n’agissent que sur ces lignes : les coefficients non diagonaux et non nuls étant
tous placés sur ces lignes-là.
Algorithme d’échelonnement d’une matrice et preuve du théorème 2.25. On rappelle que si A est une ma-
trice, cj (A) désigne la j ième colonne de A. On notera c1 (A) . . . cj (A) la matrice constituée des j premières
colonnes de la matrice A.
Soit A ∈ Mn,p (K). On montre par récurrence sur 1 ≤ k ≤ p qu’il existe une matrice Ek ∈ Mn (K) produit de
matrices élémentaires telle que c1 (Ek A) . . . ck (Ek A) est une matrice échelonnée.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 40 Algèbre linéaire, Maths générales II
2.2. Elimination par les matrices 2. Systèmes linéaires et matrices
I Pour k = 1, si c1 (A) = 0, la propriété est trivialement vraie avec 1E = Id. Si c1 (A) 6= 0, on applique le
a
0
lemme 2.27 à c1 (A) avec i = 1 : il existe E1 telle que E1 c1 (A) = . . Alors [c1 (E1 A)] = E1 c1 (A) est bien
..
0
une matrice échelonnée.
I Supposons la propriété vraie à l’ordre k ≤ p − 1 et montrons-la à l’ordre k + 1. Par hypothèse de ré-
currence,
k ∈ Mn (K) produit de matrices élémentaires telle que la matrice Ak :=
il existe une matrice E
c1 (Ek A) ... ck (Ek A) est une matrice échelonnée.
On distingue plusieurs cas.
• Si Ak n’a aucune ligne nulle, on pose Ek+1 = Ek et on vérifie que 1 k+1
c (E A) . . . ck+1 (Ek+1 A)
= Ak ck+1 (Ek A) est bien une matrice échelonnée.
• Sinon, Ak a une ligne nulle. Notons ik l’indice de la première ligne nulle de Ak . Alors les lignes ik+1 , . . . , n
de Ak sont nulles, car Ak est échelonnée. Si les lignes ik , . . . , n de ck+1 (E
k A)
sont aussi toutes nulles,
on peut poser Ek+1 = Ek et on a bien c1 (Ek+1 A) . . . ck+1 (Ek+1 A) = Ak ck+1 (Ek A) qui est
échelonnée.
Si au contraire ck+1 (Ek A) a au moins une ligne non nulle parmi les lignes ik , . . . , n, alors on applique le
lemme 2.27 à ck+1 (Ek A) avec i = ik . Il existe une matrice Fk+1 ∈ Mn (K) produit de matrices élémentaires
telle que
α1
..
.
αik −1
Fk+1 ck+1 (Ek A) = a .
0
.
..
0
On a déjà observé dans la preuve du lemme 2.27 que multiplier une matrice à gauche par Fk+1 ne modifiait
pas les lignes i ≤ ik . Comme les lignes ik , . . . , n de Ak sont nulles, on en déduit Fk+1 Ak = Ak . Donc
c1 (Fk+1 Ek A) ... ck+1 (Fk+1 Ek A) = Ak ck+1 (Fk+1 Ek A)
est bien une matrice échelonnée. Dans ce cas, on pose donc Ek+1 = Fk+1 Ek .
I La propriété est vraie pour tout k, en particulier pour k = p. Le Théorème 2.25 est démontré.
Remarque 2.28 Lorsque l’on rencontre un zéro en position pivotale (et non pas un “pivot nul”, car, par définition,
un pivot n’est jamais nul) durant l’échelonnement de la matrice on peut, au lieu de transformer la ligne en
question, permuter la ligne où se trouve ce zéro avec une des lignes qui se trouve en dessous de celle où se
trouve ce zéro. C’est d’ailleurs ce qui est effectué en pratique dans les programmes informatiques qui effectuent
la méthode de Gauss, ou qui effectuent la décomposition LU d’une matrice telle qu’on l’a introduite dans la
première partie de ce chapitre.
La matrice de permutation Pi,j des lignes i et j est la matrice identité, sauf pour les lignes i et j : la ligne i a des
zéros partout sauf en colonne j où il y a un 1 ; la ligne j a des zéros partout sauf en colonne i où il y a un 1. Elle
peut encore s’écrire : Pi,j = Idn − Ei,i − Ej,j + Ei,j + Ej,i . Par exemple pour n = 2 :
0 1
P12 =
1 0
et pour n = 6 :
1 0 0 0 0 0 1 0 0 0 0 0
0 0 1 0 0 0 0 0 0 0 1 0
0 1 0 0 0 0 0 0 1 0 0 0
P23 =
0
P25 =
0 0 1 0 0
0
0 0 1 0 0
0 0 0 0 1 0 0 1 0 0 0 0
0 0 0 0 0 1 0 0 0 0 0 1
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 41 Algèbre linéaire, Maths générales II
2.3. Calcul de l’inverse d’une matrice, échelonnement total 2. Systèmes linéaires et matrices
On peut vérifier facilement que multiplier une matrice A ∈ Mn,p (K) par la matrice Pi,j revient à intervertir
les lignes i et j. Evidemment lorsqu’on permute les lignes de la matrice du système linéaire, on doit également
permuter les lignes correspondantes du vecteur second membre lorsqu’on résout un système linéaire. Ceci se fait
de maniére automatique lorsqu’on travaille sur la matrice augmentée.
Dans la suite, il sera utile de repérer quelles sont les colonnes pivotales d’une matrice échelonnée, dont on a déjà
parlé lors de l’élimination de Gauss. En voici une définition pour une matrice échelonnée rectangulaire n × p.
Définition 2.29 (Pivots, colonnes pivotales, rang) On note r le nombre de lignes non nulles d’une matrice n × p
échelonnée. On appelle pivot le premier terme non nul de chaque ligne non nulle de la matrice échelonnée.
On appelle colonnes pivotales d’une matrice échelonnée les colonnes dans lesquelles aparaissent les pivots des
lignes non nulles (attention ce ne sont pas forcément les r premières colonnes de la matrice). On note k1 , . . . , kr
les indices de ces colonnes. On appelle colonnes non pivotales les autres colonnes, dont les indices sont notés
kr+1 , . . . , kp .
Les colonnes pivotales sont donc les colonnes cj (A) telles que j ∈ J, où J = {k1 , . . . , kr } est l’ensemble des
indices des colonnes dans lesquelles apparaissent les pivots.
On définit le rang de la matrice comme le nombre de lignes non nulles (ou de colonnes pivotales).
2.2.5 Exercices
Exercice 53 (Des petits systèmes gentils) Résoudre les systèmes linéaires suivants en utilisant l’échelonnement :
x + y = 2 3x − 2y = 1
x − y = 0 6x + y = 1/2
Exercice 54 (Echelonnement et factorisation LU et LDU ) Echelonner les matrices suivantes, et lorsqu’elle existe,
donner leur décomposition LU et LDU
1 3 1
2 1 2 0 4
1 3
−1 −3 −3
Exercice 55 (Des systèmes un peu plus gros) Résoudre en utilisant l’algorithme du pivot de Gauss ( ou l’éche-
lonnement) les systèmes suivants :
x +y +z = 2 x +2y −2z = 1
5x +4y +3z = 2 −x +3y = 0
6x +3y +2z = −4 −2y +z = −3
x +2y −2z +4t +u = 0
x +2y −2z +4t = 2
y +3z −4t +2u = 0
y +3z −4t = −2
x +z −2t +3u = 0
z −2t = 0 x +y +4z −6t +5u = 0
x +y −z +2t = 2
3y +2t = 0
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 42 Algèbre linéaire, Maths générales II
2.3. Calcul de l’inverse d’une matrice, échelonnement total 2. Systèmes linéaires et matrices
à 1 et toutes les autres nulles. Supposons qu’on connaisse A−1 . Quand on multiplie A par la première colonne de
A−1 , on obtient la première colonne de la matrice AA−1 , qui est égale ? la matrice Idn ; cette première colonne
est le vecteur e1 . De même, quand on multiplie A par la i-ème colonne de A−1 , on obtient la i-ème colonne de
AA−1 = Idn , c.à.d. le vecteur ei . On a donc, en notant ci (A−1 ) la i-ème colonne de A−1 :
A ci (A−1 ) = ei , i = 1, . . . , n
Le calcul de A−1 peut donc s’effectuer en résolvant les n systèmes linéaires avec matrice A, inconnue ci (A−1 ) et
second membre ei .
Remarquons donc tout de suite que l’inversion d’une matrice est beaucoup plus chère que la résolution d’un
système linéaire (n fois, très précisément...). Il est donc idiot d’inverser une matrice pour résoudre un système
linéaire. Par contre, il est intéressant de savoir comment on peut trouver l’inverse d’une matrice par la méthode de
Gauss-Jordan, en s’inspirant de celle effectuée pour résoudre le système linéaire.
Au lieu d’introduire une matrice augmentée avec la matrice de départ et un vecteur second membre, on introduit
maintenant une matrice augmentée avec la matrice de départ et n vecteurs second membre (les vecteurs ei ) ; ceci
revient à considérer la matrice augmentée n × 2n constituée de la matrice A et la matrice Idn :
à = A Idn .
Si la matrice A est inversible, en appliquant l’algorithme de Gauss-Jordan qu’on décrit si dessous, on obtient alors
l’inverse de la matrice dans la partie droite (où se trouveait auparavant la matrice identité) de la forme “totalement
échelonné" de la matrice augmentée.
Si
A est inversible, sa
forme totalement échelonnée R est Id n , et l’algorithme de Gauss-Jordan sur à = A Id n =
A e1 . . . en donne :
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 43 Algèbre linéaire, Maths générales II
2.3. Calcul de l’inverse d’une matrice, échelonnement
total 2. Systèmes linéaires et matrices
1 0 1 1 0 0
`3 →`3 −(1/2)`2
−→ 0 2 −1 0 1 0 .
0 0 −1/2 −1 −1/2 1
On a obtenu une matrice échelonnée. On reprend alors l’algorithme à la fin de Gauss, et on écrit maintenant la
partie “Jordan”11 de l’algorithme dit de Gauss-Jordan.
Pour cela, on fait apparaître des 0 au-dessus des pivots en commençant par les colonnes les plus à droite, et en
progressant vers la gauche.
On multiplie la dernière ligne par -2 pour obtenir le pivot 1 :
1 0 1 1 0 0 1 0 1 1 0 0
`3 →−2`3
0 2 −1 0 1 0 −→ 0 2 −1 0 1 0
0 0 −1/2 −1 −1/2 1 0 0 1 2 1 −2
Puis on metàzéro le troisième coefficient de la deuxième ligne (à l’aide de la troisième) :
1 0 1 1 0 0 1 0 1 1 0 0
0 2 −1 0 1 0 `2 →` −→ 2 +`3
0 2 0 2 2 −2
0 0 1 2 1 −2 0 0 1 2 1 −2
On annule ensuite le troisième coefficient de la première ligne (toujours à l’aide de la troisième) :
1 0 1 1 0 0 1 0 0 −1 −1 2
0 2 0 2 2 −2 `1 →` −→ 1 −`3
0 2 0 2 2 −2
0 0 1 2 1 −2 0 0 1 2 1 −2
On multiplie enfin la deuxième ligne par 1/2 pour obtenir le pivot 1 :
1 0 0 −1 −1 2 1 0 0 −1 −1 2
`2 →1/2`2
0 2 0 2 2 −2 −→ 0 1 0 1 1 −1
0 0 1 2 1 −2 0 0 1 2 1 −2
Les trois premières colonnes forment la matrice identité. Elle constitue la forme totalement échelonnée de la
matrice A : c’est le cas pour toute matrice inversible. On verra plus loin que la réciproque est également vraie :
si la forme totalement échelonnée de la matrice A est l’identité, A est inversible.
Notons que dans une forme totalement échelonnée, les pivots sont toujours égaux à 1, ce qu’on n’a pas demandé
pour les matrices échelonnées.
la fois pour son travail fondamental dans la théorie des groupes et pour son cours d’analyse.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 44 Algèbre linéaire, Maths générales II
2.3. Calcul de l’inverse d’une matrice, échelonnement total 2. Systèmes linéaires et matrices
– La matrice 4 × 6 :
0 1 2 0 0 2
0 0 0 1 0 1
0 0 0 0 1 3
0 0 0 0 0 0
est sous forme totalement échelonnée, et a trois colonnes pivotales k1 = 2, k2 = 4, k3 = 5, et trois colonnes
non pivotales : k4 = 1, k5 = 3, k6 = 6.
– La matrice suivante est échelonnée, mais pas totalement échelonnée :
1 0 0
0 1 2 .
0 0 1
Théorème 2.34 (Echelonnement total) Soit A ∈ Mn,p (K). Il existe une matrice E produit de matrices élémen-
taires telle que la matrice EA est totalement échelonnée.
Encore une fois, la preuve du théorème donne un algorithme qui permet de calculer explicitement E. D’après le
Théorème 2.25, on peut supposer que A est une matrice échelonnée.
Algorithme d’échelonnement total On commence par le cas d’une matrice colonne (p = 1).
a1
..
.
ai
0 ∈ Mn,1 (K) un vecteur échelonné avec ai 6= 0. Alors il existe une matrice E ∈
Lemme 2.35 Soit A =
.
..
0
0
..
.
0
Mn (K) produit de matrices élémentaires telle que EA =
1, le 1 étant sur la ligne i.
0
.
..
0
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 45 Algèbre linéaire, Maths générales II
2.3. Calcul de l’inverse d’une matrice, échelonnement total 2. Systèmes linéaires et matrices
On note J = (j1 , . . . , jr ) l’ensemble des indices des colonnes pivotales de A (rangés par ordre croissant). On
définit par récurrence sur 0 ≤ l ≤ r − 1 des matrices Ar−l échelonnées et telles que : pour tout 1 ≤ i ≤ r, Ai est
de la forme Ei A, où Ei est un produit de matrices élémentaires , Ai a pour ensemble de colonnes pivotales celui
indexé par J et Ai a ses colonnes pivotales ji , . . . , jr totalement échelonnée.
Pour construire Ar , on applique le Lemme 2.35 à cjr (A) : il existe Er produit de matrices élémentaires telle que
t
Er cjr (A) = 0 . . . 0 1 0 . . . 0 où le 1 est situé sur la ligne r. Alors la matrice Ar := Er A a ses lignes
r+1, . . . , n égales à celles de la matrice A et sont donc nulles. De plus, comme la matrice c1 (A) . . . cjr−1 (A)
a ses lignes r, . . . , n nulles, la matrice Ar a ses colonnes 1, . . . , jr−1 égales à celles de A. En particulier, Ar est
une matrice échelonnée.
Supposons que les matrices Ar , . . . , Ai+1 ont été construites. On définit alors Ai := Fi Ai+1 où Fi est la matrice
du Lemme 2.35 appliqué à cji (Ai+1 ). Comme précédemment, les colonnes 1, . . . , ji−1 de Ai sont égales à celles
de Ai+1 . De plus, c’est aussi le cas des colonnes pivotales ji+1 , . . . , jr (car elles ont un 0 sur la ligne i). Donc Ai
vérifie bien les conditions exigées et on pose Ei = Fi Ei+1 . La matrice A1 est alors totalement échelonnée et de
la forme E1 A, où E1 est un produit de matrices élémentaires. Le Théorème 2.34 est démontré.
2.3.4 Exercices
Exercice 57 (Matrices 2 × 2 totalement échelonnées) Donner toutes les matrices 2 × 2 de coefficients égaux à
0 ou 1 et qui soient totalement échelonnées.
Exercice 58 (Inverse de matrices par échelonnement total) Echelonner les matrices suivantes et dire si elles
sont inversibles ; le cas échéant calculer leurs inverses par échelonnement total :
3 1 1 3 0 1 1 1 1
2 −1 1 , 2 −1 1 , 5 4 3
−1 1 −2 1 1 −2 6 3 2
et pour ceux qui en veulent encore...
1 2 −2 4 1
1 2 −2 4
1 2 −2 0 1 3 −4 2
0 1 3 −4
, −1
3 0 ,
1 0 1 −2 3
0 0 1 −2
0 −2 1 1 1 4 −6 5
1 1 −1 2
0 3 0 2 0
Exercice 59 Un petit modèle de prédation, suite... Dans la situation décrite dans l’exercice 13, si on suppose
que le 13 janvier 2010 au matin, il ne reste que 2 loups, 4 serpents et une chèvre, quel était le nombre de loups,
serpents et chèvres le 10 janvier au soir ?
Exercice 60 (Matrices 2 × 2 totalement échelonnées) Montrer que les formes totalement échelonnées de A et
A−1 sont identiques.
Exercice
61 (Une matrice
connue en géométrie) Soit θ un nombre réel dans [0, 2π[. On considére la matrice
cos θ − sin θ
Rθ = pour θ ∈ R.
sin θ cos θ
1. Montrer que Rθ est inversible et calculer son inverse.
2. Calculer Rθn pour n ∈ Z.
3. On considère la matrice
cos(θ) −sin(θ) 0
A = sin(θ) cos(θ) 0
0 0 1
Vérifier que A est inversible et que son inverse A−1 s’écrit
(Rθ )−1 012
A−1 =
021 1
Quelle est la nature géométrique de l’application u 7→ Au ?
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 46 Algèbre linéaire, Maths générales II
Chapitre 3
3.1.1 Définitions
Définition 3.1 (Espace vectoriel) Soit K un corps, K = R ou C. On dit que E est un espace vectoriel sur K si
1. E muni d’une loi de composition interne + appelée addition (c.à.d. une application de E × E → E) est
un groupe commutatif, i.e. les propriétés suivantes sont vérifiées :
(a) Il existe un élément appelé élément neutre pour l’addition 0E ∈ E tel que pour tout u ∈ E,
0E + u = u + 0E = u.
(b) Pour tous u, v ∈ E, on a u + v = v + u ∈ E.
(c) Pour tous u, v, w ∈ E, (u + v) + w = u + (v + w).
(d) Pour tout u ∈ E, il existe un v ∈ E tel que u + v = v + u = 0E . Un tel v est unique et on le note
v = −u.
2. E est muni d’une loi de composition externe appelée multiplication, c.à.d. une application de E × K → E
(λx ∈ E, ∀λ ∈ K, ∀x ∈ E) telle que pour tous u, v ∈ E, λ, µ ∈ K,
(a) Il existe un élément appelé élément neutre pour la multiplication 1K ∈ K tel que 1K u = u1K = u,
(b) λ(u + v) = λu + λv,
(c) (λ + µ)u = λu + µu,
(d) λ(µu) = (λµ)u.
On dira plus brièvement que E est un K-espace vectoriel ou K-ev. Cette définition paraît longue et compliquée...
en fait il suffit de retenir qu’il y a 8 propriétés à vérifier, 4 liées à l’addition (les propriétés de groupe commutatif)
et 4 liées à la multiplication par un scalaire (élément neutre, distributivité “dans les deux sens”, associativité).
Exemple 3.2
– Ensembles qui sont des espaces vectoriels :
• R2 est un R-ev,
• C2 est un C-ev et un R-ev,
• M2 (K), M2,1 (K), M1,2 (K), Mn,p (K) munis de l’addition des matrices et de la multiplication par un scalaire
(de K = R ou C) sont des K-ev,
• L’ensemble des polynômes à coefficients dans K est un espace vectoriel sur K,
• L’ensemble des fonctions continues sur un intervalle [a, b] est un espace vectoriel sur R,
• L’ensemble des fonctions u : R → R solutions de l’équation u00 + u0 + u = 0.
47
3.1. Espaces et sous-espaces 3. Systèmes linéaires et espaces vectoriels
– Ensembles qui ne sont pas des espaces vectoriels :
• Z n’est pas un R-ev,
• (R+ )2 n’est pas un R-ev,
• L’ensemble des fonctions de R dans R qui valent 1 en 0,
• L’ensemble des fonctions u : R → R solutions de l’équation u00 + u0 + u = 1.
Définition 3.3 (Sous-espace vectoriel) Soit E un K-espace vectoriel. On dit que F ⊂ E est un sous-espace
vectoriel de E si 0 ∈ F et si F est stable par combinaison linéaire, c.à.d pour tous u, v ∈ F , λ, µ ∈ K,
λu + µv ∈ F .
Proposition 3.4 Un sous-espace vectoriel d’un espace vectoriel est un espace vectoriel.
Cette proposition est facile à démontrer et laissée en exercice, mais elle est extrêmement utile : dans la plupart des
cas, lorsqu’on vous demandera de montrer qu’un ensemble est un espace vectoriel, il suffira de montrer que c’est
un sous-espace vectoriel d’un espace vectoriel que vous aurez bien choisi et dans lequel cet ensemble est inclus.
Par exemple, si on vous demande de montrer que l’ensemble des couples (x, y) de R2 vérifiant x + y = 0 est un
R-espace vectoriel, il vous suffira de montrer que c’est un sous-espace vectoriel de R2 .
Définition 3.5 (Espace vectoriel engendré) Soient u1 , . . . , uk k éléments d’un K-espace vectoriel E. On ap-
pelle espace vectoriel engendré par la famille (ui )i=1,...,k la partie de E constitué des combinaisons linéaires
des éléments ui :
( k
)
def X
Vect(u1 , . . . uk ) = x ∈ E, x = α1 u1 + · · · + αk uk = αi ui , α1 , . . . , αk ∈ R .
i=1
Soit P une partie de E, on appelle sous-espace vectoriel engendré par P l’ensemble des combinaisons linéaires
des éléments de P .
La terminologie et la notation suggèrent que l’ensemble des combinaisons linéaires d’une famille de vecteurs est
un sous-espace vectoriel : c’est effectivement le cas (exercice !).
Définition 3.7 (Image d’une matrice) Soit une matrice A d’ordre n × p. On appelle image de A ∈ Mn,p (K),
noté Im(A), l’ensemble des y ∈ Kn tels qu’il existe x ∈ Kp vérifiant Ax = y.
Proposition 3.8 Soit A ∈ Mn,p (K). Alors l’image Im(A) de la matrice A est un sous-espace vectoriel de
Mn,1 (K).
Démonstration : Soient y 1 , y 2 ∈ Im(A) et λ ∈ K. Il existe x1 , x2 ∈ Mp,1 (K) tels que Ax1 = y 1 et Ax2 = y 2 .
Alors y 1 + λy 2 = A(x1 + λx2 ), ce qui montre que y 1 + λy 2 ∈ Im(A).
En fait l’espace des colonnes d’une matrice A et son image
sont un seul et même sous-espace vectoriel. Pour
x1
..
montrer ceci, on rappelle que si A ∈ Mn,p (K), x = . ∈ Mp,1 (K) et y = y1 · · · yp ∈ M1,n (K),
xp
alors
– le vecteur colonne Ax est la combinaison linéaire des vecteurs colonnes de la matrice A associée aux coeffi-
cients x1 , . . . , xp .
– le vecteur ligne yA est la combinaison linéaire des vecteurs lignes de la matrice A associée aux coefficients
y1 , . . . , y n .
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 48 Algèbre linéaire, Maths générales II
3.1. Espaces et sous-espaces 3. Systèmes linéaires et espaces vectoriels
Proposition 3.9 Soit une matrice de taille n × p. L’image de A ∈ Mn,p (K) est égal à l’espace des colonnes
C(A).
Démonstration : Pour montrer que les ensembles Im(A) et C(A) sont égaux, il faut montrer que C(A) ⊂ Im(A)
et Im(A) ⊂ C(A). Soit ci (A) la i-ème colonne de A. Alors ci (A) = Aei , où ei est le vecteur de Kp dont
les composantes sont toutes nulles sauf la i-ème qui est égale à 1. On a donc bien ci (A) ∈ Im(A) pour tout
i = 1, . . . , p. Toutes les colonnes de A sont donc dans Im(A) et comme Im(A) est un sous-espace vectoriel,
toutes les combinaisons linéaires de ces colonnes aussi. On a donc bien C(A) ⊂ Im(A).
Réciproquement, si y ∈ Im(A), alors il existe x ∈ Kp tel que y = Ax, et donc y est une combinaison linéaire
des colonnes de A, ce qui prouve que y ∈ C(A). On a donc bien montré Im(A) ⊂ C(A) et donc Im(A) = C(A).
L’image Im(A) de la matrice A est l’ensemble C(A) des combinaisons linéaires des vecteurs colonnes de A. C’est
donc aussi le sous-espace vectoriel engendré par les colonnes de la matrice A.
Exemple
Déterminons
l’image
des
matrices suivantes :
1 0 1 2 1 2 3
Id2 = ,A= ,B = .
0 1 3 6 0 0 3
1
Im(Id2 ) = R2 , Im(A) est la droite passant par l’origine et de vecteur directeur .
3
1
Im(A) = {λ , λ ∈ R}.
3
1 1
Im(B) = {λ +µ , λ, µ ∈ R} = R2 .
0 1
3.1.3 Exercices
Espaces et sous-espaces
Exercice 62 (Le R-espace vectoriel C.) Montrer que l’espace C est un R-espace vectoriel.
Exercice 63 (Espace vectoriel : oui ou non ?) Les ensembles suivants sont-ils des R-espaces vectoriels ?
– {x = (x1 , x2 , x3 ) ∈ R3 tels que x3 ≥ 0}.
– R2 \ {(0, 0)}.
– Un cercle dans le plan, une sphère dans l’espace, un rectangle dans le plan.
– L’union de deux droites du plan.
– Un plan passant par l’origine dans R3 .
– {(x, y, z) ∈ R3 ; x + y + z = 0}
– {(x, y, z) ∈ R3 ; 4x + y − z = 0}
– {(x, y, z, t) ∈ R4 ; x2 − y + z = 0}
– {(x, y, z, t) ∈ R4 ; x + y + z = 0, t − x = 1}
– {(x, y, z, t) ∈ R4 ; x + y + z = 0, t − y = 0}
– {(x, y, z) ∈ R3 ; 4x + y − z = 0, x − 4y + z = 0}
– Le sous ensemble des matrices inversibles de Mn (R).
– Le sous ensemble des matrices non inversibles de Mn (R).
– Le sous ensemble des matrices symétriques de Mn (R).
– Le sous ensemble des matrices anti-symétriques de Mn (R).
– Le sous ensemble des matrices non symétriques de Mn (R).
Exercice 64 (Construction de sous-espaces) Pour chacun des espaces vectoriels E suivants, trouver un sous-
espace F de E puis un sous-espace G de F .
1 1 1
1 1 1
1. E est l’ensemble des combinaisons linéaires des vecteurs 0 , 1 et 1 .
0 0 1
2. E est l’ensemble des matrices symétriques 2 × 2 (rappel, une matrice n × n est symétrique si ses coefficients
sont tels que ai,j = aj,i pour i, j = 1, . . . , n)
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 49 Algèbre linéaire, Maths générales II
3.1. Espaces et sous-espaces 3. Systèmes linéaires et espaces vectoriels
3. E est l’ensemble des fonctions y de R dans R dont la dérivée troisième est nulle.
Décrire chacun des espaces E précédents de deux manières différentes : “E est l’ensemble de toutes les combi-
naisons linéaires de .... "et “E est l’ensemble de toutes les solutions de l’équation ... "
Exercice 65 (Un sous-espace est un espace !) Soit E un espace vectoriel et F ⊂ E un sous-espace vectoriel.
Montrer que F est un espace vectoriel.
Exercice 66 (Droite dans R2 ) Donner une équation cartésienne et une équation paramétrique de la droite D de
R2 qui passe par 0 et qui a pour vecteur directeur (1, −3). Montrer que D est un sous-espace vectoriel de R2 .
Exercice 67 (Espace vectoriel des polynômes) Soit E l’ensemble des polynômes réels de degré inférieur ou égal
à 4. Montrer que E est un espace vectoriel. Montrer que l’ensemble des polynômes admettant les racines x = a
et x = b 6= a est un sous-espace vectoriel F de E.
Exercice 68 (Commutant d’une matrice) Soit A ∈ M2 (R). On nomme commutant de A et on note Com(A)
l’ensemble des B ∈ M2 (R) telles que AB = BA.
1. Montrer que Com(A) est un sous-espace vectoriel de M2 (R).
2. Montrer que, pour tout k ∈ N, Ak ∈ Com(A).
3. Déterminer Com(A) pour
1 0 0
A= 0 1 1 .
3 1 2
Exercice 69 (Sous-espaces engendrés) Dans R3 montrer que les vecteurs V1 = (1, 2, 3) et V2 = (2, −1, 1)
engendrent le même sous-espace vectoriel que les vecteurs U1 = (1, 0, 1) et U2 = (0, 1, 1).
Exercice 70 (Espace engendré dans C) On note E le R-espace vectoriel des nombres complexes. On considère
les parties H1 , H2 , H3 , H4 ci-dessous, et pour i = 1, . . . 4, on note Fi le sous-espace vectoriel de E engendré
par Hi .
H1 = z ∈ C, |z| = 3
H2 = z ∈ C, Arg(z) = π/3 ou Arg(z) = −2π/3
H3 = z ∈ C, z = iz
H4 = z ∈ C, z + z ∈ R
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 50 Algèbre linéaire, Maths générales II
3.2. Systèmes linéaires homogènes 3. Systèmes linéaires et espaces vectoriels
Exercice 72 (Espace des colonnes) Soient A ∈ Mn,p (R) et B ∈ Mp,q (R).
1. Montrer que C(AB) ⊂ C(A).
2. Donner un exemple pour lequel C(AB)6= C(A)
3. Montrer que les matrices A et A AB ont même espaces colonnes.
4. Si A ∈ Mn (R), a -t-on C(A2 ) = C(A) ?
Exercice 73 (Somme de deux sous-espaces vectoriels) Soient E un espace vectoriel, F et G des sous-espaces
vectoriels de E. On note F + G l’ensemble des vecteurs de E qui s’écrivent comme la somme d’un vecteur de F
et d’un vecteur de G.
1. Montrer que F + G est un sous-espace vectoriel de E.
2. Montrer par un contre exemple (dans R2 ) que l’ensemble F ∪ G n’est pas forcément un sous-espace vectoriel.
3. Montrer que l’ensemble des combinaisons linéaires des vecteurs de F ∪G qu’on notera Vect(F ∪G) (pourquoi ?)
est égal à F +G (rappel : pour montrer l’égalité de deux ensembles il faut montrer l’inclusion dans les deux sens).
4. Soient A et B ∈ Mn,p (R), E = C(A) et F = C(B). De quelle matrice E + F est il l’espace des colonnes ?
Déterminer le noyau de A revient à résoudre le système linéaire Ax = 0. On appelle système linéaire homogène
un tel système linéaire, dont le second membre est nul. Un l système linéaire homogène admet toujours au moins
une solution, le vecteur nul (de Kp ) puisque A0p = 0n . D’autre part, lorsqu’on multiplie une matrice n × p par
un vecteur colonne p × 1, on obtient un vecteur n × 1 qui est une combinaison linéaire des colonnes de A. Donc,
résoudre Ax = 0, c’est trouver les combinaisons linéaires des colonnes de A qui donnent un vecteur nul ; les
composantes xi des solutions x sont les coefficients des combinaisons linéaires qui conviennent.
Il sera très utile, pour trouver le noyau d’une matrice, d’utiliser sa forme totalement échelonnée que nous avons
introduite au chapitre précédent. A ce propos, on rappelle que le rang d’une matrice échelonnée est le nombre r
de colonnes pivotales de la matrice. Une matrice à n lignes et p colonnes a donc r colonnes pivotales et p − r
colonnes non pivotales.
Remarquons que les noyaux de A et de sa forme totalement échelonnée R sont identiques. En effet, les lignes de
R sont obtenues par combinaisons linéaires des lignes de A et les systèmes linéaires Ax = 0 et Rx = 0 sont
équivalents. Plus précisément :
Proposition 3.12 Soit A ∈ Mn,p (K) et R sa forme totalement échelonnée. Alors KerA = KerR.
Démonstration : Par le théorème 2.34, R = EA où E est une matrice inversible et donc dire que Ax = 0 est
équivalent à dire que Rx = 0.
On verra plus loin (Proposition 3.18) que si on connaît les dimensions n et p d’une matrice A et son noyau KerA,
alors on peut déterminer complètement la forme totalement échelonnée de A. En particulier, la forme totalement
échelonnée d’une matrice est unique.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 51 Algèbre linéaire, Maths générales II
3.2. Systèmes linéaires homogènes 3. Systèmes linéaires et espaces vectoriels
3.2.2 Détermination du noyau
On va maintenant voir comment on peut déterminer le noyau d’une matrice à partir de sa forme totalement éche-
lonnée. Commençons par le cas d’une matrice A carrée (n = p).
Cas d’une matrice A carrée (n = p) inversible On a déjà vu dans le chapitre précédent que si A est inversible,
la seule solution du système Ax = 0 est x = 0. En effet, en mutipliant les deux membres du système par A−1 ,
on obtient immédiatement x = 0. On verra que la matrice A est inversible si et seulement si la forme totalement
échelonnée de A est R = Idn (voir Lemme 3.28 et Corollaire 3.29). Dans ce cas, la matrice R a donc r = n
colonnes pivotales et aucune colonne non pivotale, et donc son rang est r = n.
Le système Ax = 0 est équivalent au système Rx = 0, ce qui donne encore que x = 0 est l’unique solution du
système linéaire Ax = 0. On a donc Ker(A) = {0} .
Cas d’une matrice A carrée (n = p) non inversible Dans ce cas, la forme totalement échelonnée de A est
R 6= Idn , et son rang (le nombre de colonnes pivotales) r < n : la matrice R possède au moins une ligne de 0 (en
bas), et la matrice augmentée R̃ également (puisque le second membre est nul).
1 2
Exemple 3.13 Considérons par exemple la matrice A = , et cherchons à déterminer le noyau de A. C’est
2 4
l’ensemble des x tels que Ax = 0, c.à.d. les solutions du système :
x1 + 2x2 = 0
2x1 + 4x2 = 0
La deuxième équation est toujours satisfaite, et donc il n’y a en fait qu’une seule équation. Le noyau de A est la
droite d’équation x1 + 2x2 = 0.
Un moyen simple de décrire cette droite de solutions est de choisir un point de la droite (dite solution spéciale).
0).
Alors les points de la droite sont tous des multiples de ce point (parce que la droite passe par Choisissons par
−2
exemple x2 = 1, dans ce cas on a x1 = −2, et donc une solution particulière est s = . Le noyau de A
1
−2
contient tous les multiples de s = .
1
−2
Ker(A) = t ,t ∈ R .
1
Cas d’une matrice rectangulaire quelconque Si on connait une solution spéciale s de Ax = 0, alors tous les
multiples de s (c.à.d. les vecteurs de la forme λs avec λ ∈ R) sont solutions de Ax = 0.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 52 Algèbre linéaire, Maths générales II
3.2. Systèmes linéaires homogènes 3. Systèmes linéaires et espaces vectoriels
Remarquons enfin qu’à partir des solutions spéciales s1 et s2 , on peut obtenir,
par combinaison linéaire, tout le
x1
plan P d’équation x1 + x2 + x3 = 0. En effet, pour n’importe quel vecteur x2 du plan P, on peut écrire
x3
x1 −1 −1
x2 = x2 1 + x3 0 = x2 s1 + x3 s2 ,
x3 0 1
grâce au fait que −x2 − x3 = x1 . Les vecteurs s1 et s2 “engendrent” le plan, au sens où le sous-espace vectoriel
engendré par s1 et s2 est le plan P d’équation x1 + x2 + x3 = 0.
On peut donc décrire KerA (le plan P) comme l’ensemble des combinaisons linéaires des solutions spéciales
qu’on vient de calculer :
−1 −1
KerA = λ 0 + µ 1 , λ ∈ R, µ ∈ R .
1 0
Les solutions spéciales de Ax = 0 peuvent en fait se calculer très simplement à partir de la forme totalement
échelonnée R de A : Si on regarde comment sont faites les colonnes de R, on se rend compte qu’une colonne non
pivotale peut s’écrire comme combinaison linéaire des colonnes pivotales précédentes comme on va le démontrer
dans la proposition suivante. Et ce sont justement les coefficients de cette combinaison linéaire qui donnent une
solution de Ax = 0 (qu’on appelle solution spéciale), puisque (rappel) le produit Ax est une combinaison linéaire
des colonnes de A !
Proposition 3.15 Soit A ∈ Mn,p (K) une matrice échelonnée. Alors toute colonne non pivotale est
1) nulle si elle est située à gauche de la première colonne pivotale,
2) combinaison linéaire des colonnes pivotales qui la précèdent sinon.
Démonstration : On commence par le cas où A est totalement échelonnée. On note r le nombre de lignes non
nulles. Soit J = (j1 , . . . , jr ) les indices de ses colonnes pivotales (plus précisément, la colonne ji est celle qui
contient le premier terme non nul de la ligne i). Le point 2. de la définition des matrices échelonnées dit que
j1 < · · · < jr . Alors
0
..
.
0
1
cji (A) = (3.2.1)
0
.
..
0
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 53 Algèbre linéaire, Maths générales II
3.2. Systèmes linéaires homogènes 3. Systèmes
linéaires et espaces vectoriels
a1,j
..
.
ai,j
Enfin, dans le cas où j vérifie ji < j < ji+1 , cj (A) est de la forme . En effet, toutes les lignes à partir de
0
.
..
0
i + 1 sont nulles puisque le premier terme non nul de la ligne i + 1 est sur la colonne ji+1 > j, le premier terme
non nul de la ligne i + 2 est sur la colonne ji+2 > j, etc. . . . On peut écrire cj (A) = a1,j cj1 (A) + · · · + ai,ji cji (A).
Dans ce cas aussi, cj (A) s’écrit comme combinaison linéaire des colonnes qui la précèdent.
On considère maintenant le cas où A est simplement (et pas forcément totalement) échelonnée. Alors l’algorithme
d’échelonnement total montre qu’il existe une matrice inversible E telle que EA soit totalement échelonnée et de
plus A et EA ont les mêmes indices de colonnes pivotales (puisque l’échelonnement total consiste simplement
à faire apparaître des 0 au-dessus des premiers termes non nuls de chaque ligne de A : les colonnes contenant
le premier terme non nul d’une ligne restent donc les mêmes). On note J l’ensemble des indices des colonnes
/ J. Si j < j1 , alors cj (EA) = 0 et donc cj (A) = E −1 cj (EA) = 0. Sinon soient j1 , . . . , jk
pivotales et soit j ∈
l’ensemble des indices de J qui sont inférieurs à j. Par le cas précédent, il existe α1 , . . . , αk tels que cj (EA) =
α1 cj1 (EA) + · · · + αk cjk (EA). Donc
Exemple 3.16 Prenons par exemple la matrice 3 × 4 sous forme totalement échelonnée
1 2 0 3
R = 0 0 1 −1
0 0 0 0
où on a écrit en gras les colonnes non pivotales. Notons cj (R), j = 1, . . . , 4 les 4 colonnes de R.
Les deux colonnes pivotales sont c1 (R) et c3 (R), et les deux non pivotales c2 (R) et c4 (R).
P4
Chercher x tel que Rx = 0 revient à chercher x1 , . . . , x4 tels que i=1 xi ci (R) = 0. Or la lecture de la matrice
totalement échelonnée R donne
ce qui s’écrit aussi (pour bien faire apparaître le produit matrice vecteur) :
0 1
Ici encore, on peut remarquer que tout vecteur x qui vérifie Ax = 0 peut s’écrire comme combinaison linéaire de
s1 et s2 . En effet, pour n’importe quel vecteur x = (x1 , x2 , x3 , x4 ) vérifiant Ax = 0, on a : x1 = −2x2 − 3x4 et
x3 = x4 ; on peut donc écrire
x1 −2 −3
x2 1 0
x= x3 = x2 0 + x4 1 = x2 s1 + x4 s2 .
x4 0 1
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 54 Algèbre linéaire, Maths générales II
3.2. Systèmes linéaires homogènes 3. Systèmes linéaires et espaces vectoriels
Le noyau de A (ou de manière équivalente, l’ensemble des solutions du système Ax = 0) s’écrit alors :
−2 −3
1 0
KerA = λ + µ λ ∈ R, µ ∈ R .
0 1
0 1
Rappelons que si R est la forme totalement échelonnée de A, les systèmes Ax = 0 et Rx = 0 sont équivalents.
Les noyaux de A et de R sont donc identiques (voir proposition 3.12) et égaux à l’ensemble des combinaisons
linéaires des solutions spéciales obtenues comme expliqué dans l’exemple précédent à partir des colonnes non
pivotales de la matrice R.
Il y a autant de solutions spéciales à Ax = 0 que de colonnes non pivotales, c.à.d. p−r. Dans l’exemple ci-dessus :
p = 4, r = 2, donc il y a 2 solutions spéciales.
Cas d’une matrice n × p avec p > n Remarquons que dans le dernier exemple ci-dessus, on a une matrice
rectangulaire “couchée”, c.à.d. avec plus d’inconnues que de lignes : p > n. Dans ce cas, le noyau de la matrice
est forcément non réduit à 0. En effet le nombre r de pivots (ou de lignes non nulles) est forcément inférieur
aux nombres de lignes, n. Comme p > n, il existe au moins une colonne non pivotale, et cette colonne est une
combinaison linéaire d’autres colonnes de A. Ce qui montre qu’il existe s non nul (ses composantes sont les
coefficients de la combinaison linéaire écrite sous la forme “combinaison = 0”) tel que Ax = 0. Il y a donc une
infinité de solutions au système Ax = 0 (tous les multiples de s), comme dans l’exemple 3.16 ci-dessus.
Unicité de la forme totalement échelonnée Question : la forme totalement échelonnée d’une matrice A est elle
unique ? La réponse est oui, et on a même un résultat plus fort que cela : une matrice totalement échelonnée est
entièrement déterminée par ses dimensions et son noyau.
Exemple 3.17 Soit A une matrice 3 × 4 dont le noyau est l’ensemble {x ∈ R2 ; x1 = x4 = 0, x2 − 2x3 = 0}.
Construisons sa forme totalement échelonnée. La première colonne de R est donc non nulle, sinon le vecteur
1
(1, 0, 0, 0) serait dans KerS. On a donc forcément c1 (R) = 0 . Pour la même raison, la deuxième colonne
0
0
est aussi non nulle. De plus, le vecteur (1, −1, 0, 0) n’est pas dans le noyau. Donc forcément c2 (R) = 1 . La
0
troisième colonne est entièrement déterminée par l’équation du noyau : c3 (R) = 2c2 (R). Enfin, la quatrième
colonne ne dépend pas des trois premières puisque x4 n’est pas lié aux autres variables dans les équations du
noyau de A. On a donc un seul choix possible pour R :
1 0 0 0
R = 0 1 2 0
0 0 0 1
La construction qu’on vient de faire dans cet exemple peut se généraliser à n’importe quelle matrice.
Proposition 3.18 Soient A, B ∈ Mn,p (K) deux matrices de même noyau et R, S des matrices totalement éche-
lonnées à partir de A et B respectivement. Alors R = S.
Preuve : Dans la suite, on note Ei ∈ Mp,1 (K) le vecteur colonne qui a des 0 partout sauf un 1 sur la ligne i.
Comme KerA = KerR et KerB = KerS, il suffit de montrer que si deux matrices totalement échelonnées R et
S ont même noyau, alors elles sont égales. On montre par récurrence sur 1 ≤ j ≤ p que pour tout 1 ≤ k ≤ j,
ck (R) = ck (S).
1) Pour j = 1, si c1 (R) = 0, alors le vecteur E1 est dans le noyau de R, donc dans le noyau de S, donc
c1 (S) = 0. Même observation en échangeant les rôles de R et S. Donc c1 (R) et c1 (S) sont simultanément nuls
ou simultanément non nuls. Dans les 2 cas, ils sont égaux.
2) Supposons la propriété vraie jusqu’à l’ordre j ≤ p − 1 et montrons-la pour j + 1. Par hypothèse de récurrence,
ck (R) = ck (S) pour tout k ≤ j. Notons l le nombre de colonnes pivotales à droite de j + 1 et k1 < · · · < kl les
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 55 Algèbre linéaire, Maths générales II
3.2. Systèmes linéaires homogènes 3. Systèmes linéaires et espaces vectoriels
indices de ces colonnes (pour R et pour S). Si cj+1 (R) est non pivotale, alors c’est une combinaison linéaire
des colonnes pivotales précédentes :
l
X
cj+1 (R) = Ri,j+1 cki (R).
i=1
Pl
On en déduit que le vecteur sj+1 := i=1 Ri,j+1 Eki − Ej+1 est dans le noyau de R (on utilise que REi =
ci (R)). Donc sj+1 est dans le noyau de S. Donc (en faisant le calcul dans le sens contraire),
l
X
cj+1 (S) = Ri,j+1 cki (S).
i=1
Donc cj+1 (S) = cj+1 (R). Même observation en échangeant R et S. Donc cj+1 (R) et cj+1 (S) sont simulta-
nément non pivotales ou simulatnément pivotales. Dans le premier cas, le calcul précédent montre qu’elles sont
égales. Dans le second cas, elles sont aussi égales puisque c’est la colonne pivotale l + 1 (qui a des 0 partout
sauf un 1 sur la ligne l + 1).
3) Conclusion : pour tout 1 ≤ j ≤ p, cj (R) = cj (S). Autrement dit, R = S.
On déduit immédiatement de la Proposition 3.18 que pour toute matrice A, il existe une unique matrice totalement
échelonnée R telle qu’il existe E ∈ GLn (K) vérifiant EA = R.
Cette proposition permet également de définir le rang d’une matrice quelconque A (qu’on n’a défini jusqu’à
présent que pour des matrices échelonnées).
Définition 3.19 Le rang de A est le rang de la matrice totalement échelonnée R associée à A (c.à.d. le nombre
de lignes non nulles ou de colonnes pivotales de la matrice R).
α1 x1 + · · · + αp xp = 0 =⇒ α1 = · · · = αp = 0.
Autrement dit, une famille de vecteurs est libre si la seule manière d’écrire une combinaison linéaire nulle de ces
vecteurs est de prendre tous les coefficients égaux à 0. Il revient au même de dire qu’aucun des vecteurs de la
famille ne peut s’écrire comme combinaison linéaire des autres vecteurs de la famille.
Exemples
1) Les vecteurs colonnes Ei ∈ Mn,1 (K) (composés de 0 à l’exception d’un 1 sur la ième ligne) sont linéairement
indépendants dans Mn,1 (K).
2) Les matrices élémentaires Ei,j ∈ Mn,p (K) forment une famille libre de Mn,p (K).
3) La famille {X i }0≤i≤n est libre dans l’ensemble des polynômes de degré ≤ n.
Proposition 3.21 Soit A ∈ Mn,p (K). Alors les vecteurs colonnes de A forment une famille libre si et seulement
si Ker(A) = 0.
x1
Démonstration : Pour tout X = ... dans Mp,1 (K), on a X ∈ Ker(A) ssi AX = 0 ssi x1 c1 (A) + · · · +
xp
xp cp (A) = 0. Donc Ker(A) = {0} ssi la seule combinaison linéaire de c1 (A), . . . , cp (A) égale à 0 est celle où
tous les coefficients sont nuls, autrement dit ssi les vecteurs colonnes c1 (A), . . . , cp (A) sont indépendants.
Proposition 3.22 Soit A ∈ Mn,p (K) une matrice échelonnée non nulle. Alors les colonnes pivotales de A
forment une famille libre.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 56 Algèbre linéaire, Maths générales II
3.2. Systèmes linéaires homogènes 3. Systèmes linéaires et espaces vectoriels
Démonstration : Soit 1 ≤ r ≤ n le nombre de lignes non nulles de A. Pour 1 ≤ i ≤ r, on note ji l’indice
de la colonne qui contient le premier terme non nul de la ligne i. Par le point 2. de la définition d’une
matrice
a1,ji
..
.
ai,ji
échelonnée, j1 < · · · < jr . Pour 1 ≤ i ≤ r, la colonne d’indice ji est de la forme cji (A) = 0 avec
.
..
0
ai,ji 6= 0. Soient α1 , . . . , αr ∈ K tels que le vecteur colonne X := α1 cj1 (A) + · · · + αr cjr (A) soit nul. La ligne r
de X est αr ar,jr . Donc αr = 0. On montre de même (par récurrence) que αr−1 = · · · = α1 = 0. Donc la famille
des colonnes pivotales est libre.
Démonstration : Il existe E ∈ GLn (K) telle que R := EA soit totalement échelonnée. On a vu à la proposition
3.12 que Ker(A) = Ker(R).
Maintenant, on note r le nombre de colonnes pivotales (ou rang) de R et J = (j1 , . . . , jr ) les indices des colonnes
pivotales, J 0 les indices des colonnes non pivotales. On note également Ej ∈ Mp,1 (K) le vecteur colonne (qui a
donc p lignes) dont tous les coefficients sont nuls sauf le j ème qui est égal à 1. On note enfin Ri,j les coefficients
de R.
Etape 1 - Construction de la famille des solutions spéciales (Sj )j∈J 0 . On reproduit ici dans le cas général la
construction effectuée dans les exemples 3.13, 3.14 et 3.16. Pour chaque colonne non pivotale j ∈ J 0 , on va
construire une solution spéciale Sj du système linéaire homogène AX = 0. Soit donc j ∈ J 0 .
1. Considérons d’abord le cas où j < j1 ; comme la matrice est totalement échelonnée, et que j1 est la première
colonne pivotale, la colonne cj (A) est donc nulle. En posant Sj = Ej , on obtient : ASj = cj (A) = 0.
2. Supposons maintenant que j est tel qu’il existe 1 ≤ i ≤ r − 1 tel que ji < j < ji+1 ; alors on sait que cj (R)
peut s’écrire comme combinaison linéaire des colonnes pivotales précédentes : cj (R) = R1,j cj1 (R) + · · · +
Ri,j cji (R). On définit Sj = −R1,j Ej1 + · · · − Ri,j Eji + Ej . Alors
3. Enfin, si j > jr , on définit Sj = −R1,j Ej1 − · · · − Rr,j Ejr + Ej et on vérifie de même que RSj = 0.
Etape 2 - La famille des solutions spéciales (Sj )j∈J 0 est libre. Comme Ker(A) = Ker(R), la famille (Sj )j ∈J
/ est
une famille de vecteurs de Ker(A). Montrons que la famille {S1 , . . . , Sp } est libre. Soient αj ∈ K, j ∈ J 0 tels
que
X
αj Sj = 0.
j∈J 0
Fixons i ∈ J 0 . La ligne i de Si est 1 alors que pour tout j 6= i, la ligne i de Sj est 0. On obtient donc en calculant
la ligne i dans l’égalité précédente que αi = 0. Comme cela est vrai pour tout i, on a bien montré que la famille
(Si )i∈J 0 est libre.
Etape 3 - La famille des solutions spéciales (Sj )j∈J 0 engendre KerA. Montrons que la famille {S1 , . . . , Sp }
vérifie la condition (1). Soit X ∈ Mp,1 (K). On va d’abord montrer qu’il existe α1 , . . . , αp ∈ K tels que
X X
X= αj Sj + αj Ej (3.2.2)
j∈J 0 j∈J
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 57 Algèbre linéaire, Maths générales II
3.2. Systèmes linéaireshomogènes
3. Systèmes linéaires et espaces vectoriels
x1
En effet, notons X = ... = j=1 xj Ej . Pour chaque j ∈ J 0 , Sj est de la forme Ej + l∈J βl El . Donc il
Pp P
xp
existe des nombres γj pour j ∈ J tels que
X X X
xj Sj = xj Ej + γj Ej .
j∈J 0 j∈J 0 j∈J
On en déduit que
p
X X X X X X
X= xj Ej = xj Ej + xj Ej = ( xj Sj − γj Ej ) + xj Ej
j=1 j∈J 0 j∈J j∈J 0 j∈J j∈J
P
puisqu’on a vu que les Sj étaient dans le noyau de R. Ainsi, 0 = j∈J αj cj (R). Or les colonnes pivotales de R
forment une famille libre, donc on a αj = 0 pour tout j ∈ J. En reportant dans (3.2.2), il vient
X
X= αj Sj ,
j∈J 0
3.2.5 Exercices
Résolution de systèmes linéaire homogènes et noyau
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 58 Algèbre linéaire, Maths générales II
3.3. Résolution d’un système linéaire général 3. Systèmes linéaires et espaces vectoriels
Exercice 76 (Résolution de systèmes homogènes) Résoudre les systèmes linéaires suivants, en procédant de la
même façon que dans l’exercice 75 :
x − z = 0
2x + y − z = 0
y + 2z − w = 0
4x − y = 0
x + 2y + 3z − w = 0
x − y + z = 0
y + w = 0 a − b + 3c + d − e = 0
3x − 2y + 3z + w = 0 2a − b + c + d + e = 0
−y − w = 0
Exercice 77 (Noyau et matrice totalement échelonnée) Construire la matrice totalement échelonnée R des ma-
trices suivantes, donc on connaît les dimensions et le noyau.
1. A ∈ M3 (R), Ker(A) = {0}
1
2. A ∈ M3 (R), Ker(A) = {t 2 , t ∈ R}
3
3. A ∈ M3 (R), Ker(A) = {x = (x1 , x2 , x3 ) ∈ R3 ; x1 + x2 + x3 = 0}
4. A ∈ M3,5 (R), Ker(A) = {x = (x1 , x2 , x3 , x4 , x5 ) ∈ R5 ; x1 + x2 + x3 + x4 + x5 = 0}
1 0
5. A ∈ M4,3 (R), Ker(A) = {λ 1 + µ 0 , λ, µ ∈ R}
0 1
Exercice 78 (Construction de matrices) Construire une matrice dont le noyau contient le vecteur de compo-
santes (1, 2, 0) et l’image les vecteurs de composantes (1, 0, 1) et (0, 0, 1)
a1,1 a1,2 . . . a1,p
a2,1 a2,2 . . . a2,p
On met le système sous forme matricielle : Ax = b, avec A = , A ∈ Mn,p (K).
···
an,1 an,2 . . . an,p
Rappelons que résoudre Ax = b revient également à demander que b soit une combinaison linéaire des colonnes
de A ; en effet, le produit Ax s’écrit aussi x1 c1 (A)+x2 c2 (A)+· · ·+xp cp (A) où ci (A) désigne la i-ème colonne
de A.
Donc le système Ax = b admet une solution si et seulement si le second membre b est dans Im(A).
1 0 1 0 1 0
x1
Exemple 3.24 Soit A = 2 1 . Alors Ax = 2 1 = x1 2 + x2 1 .
x2
3 2 3 2 3 2
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 59 Algèbre linéaire, Maths générales II
3.3. Résolution d’un système linéaire général 3. Systèmes linéaires et espaces vectoriels
Donc Im(A) est un plan dans R3 . Pour un b quelconque, il n’y pas de raison qu’il y ait une solution au système
Ax = b, sauf si b est dans le plan Im(A). Par contre si b = 0, alors il y a une solution, car 0 ∈ Im(A) car
(rappel) A0 = 0. On rappelle d’ailleurs en passant que Im(A) est un sous-espace vectoriel et à ce titre, doit
contenir le vecteur nul.
ATTENTION : ne pas confondre Im(A) avec l’ensemble des solutions de Ax = b, Im(A) est un sous-espace
vectoriel de Rn , alors que l’ensemble des solutions de Ax = b est un sous ensemble de Rp qui n’est un sous-
espace vectoriel de Rp que si b = 0.
L’étude du noyau de la matrice nous permet d’énoncer le résultat suivant :
Proposition 3.25 (Solutions du système général Ax = b) Soit A ∈ Mn,p (R) une matrice réelle à n lignes et p
colonnes. Soit b ∈ Rn . Alors :
1. Si b ∈ Im(A), le système linéaire admet au moins une solution.
2. Si b 6∈ Im(A), le système linéaire n’admet aucune solution.
3. Si Ker(A) = {0}, toutes les colonnes sont pivotales, r = p et le système linéaire admet au plus une
solution.
4. Si b ∈ Im(A) et Ker(A) = {0}, toutes les colonnes sont pivotales, r = p et le système linéaire admet une
solution unique.
5. Si b ∈ Im(A) et Ker(A) 6= {0}, le système linéaire admet une infinité de solutions.
Démonstration : Dire qu’il existe x ∈ Rp tel que Ax = b est équivalent à dire que b est une combinaison linéaire
des colonnes de A, et donc que b ∈ C(A) ou b ∈ Im(A). Ceci démontre les points 1 et 2.
Supposons que x et y sont des solutions de Ax = b. Alors A(x − y) = 0, c.à.d. x − y ∈ Ker(A) On en déduit
le point 3.
Le point 4 découle des points 1 et 3.
Supposons maintenant que b ∈ Im(A) et Ker(A) 6= {0}. Donc par le point 1, il existe xp qu’on va appeler
solution particulière, telle que Axp = b. Par hypothèse, il existe xn 6= 0 tel que Axn = 0. Il est alors facile de
voir que xp + sxn est solution de Ax = b pour tout s ∈ R.
Pour résoudre pratiquement le système Ax = b dans le cas général, on va procéder comme dans le cas où A était
inversible, c.à.d. par élimination (ou échelonnement), grâce au résultat suivant :
Proposition 3.26 Soit A ∈ Mn,p (K), E ∈ GLn (K) et b ∈ Mn,1 (K) (c.à.d. Rn dans le cas K = R). Alors x ∈
Mp,1 (K) (c.à.d. Rp dans le cas K = R)est solution du système linéaire Ax = b si et seulement si X ∈ Mp,1 (K)
est solution du système linéaire EAx = Eb.
où les vecteurs sk sont les solutions spéciales du système homogène Ax = 0 construites au paragraphe précédent.
Nous allons maintenant étudier quelques exemples pour voir comment ça marche en pratique.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 60 Algèbre linéaire, Maths générales II
3.3. Résolution d’un système linéaire général 3.Systèmes linéaires et espaces vectoriels
2 2 −2
On a ici n = p = 3, et la matrice du système est donc A = 7 7 1 .
5 5 −1
2 2 −2 5 1 1 0 0
La matrice augmentée est : Ã = 7 7 1 10, et sa forme totalement échelonnée (exo) : R̃ = 0 0 1 0 .
5 5 −1 5 0 0 0 1
La dernière ligne de A demande 0 = 1 : on “lit” dans cette dernière ligne de la matrice que le vecteur b n’est pas
dans l’image de A, et que le système n’admet pas de solution.
Dans le cas où b est dans l’image de A, on sait qu’on a au moins une solution au système linéaire. Pour trouver
les solutions d’un système linéaire AX = b, l’idée est de chercher une solution particulière xp par l’algorithme
d’échelonnement total. Une fois cette solution calculée, on remarque ensuite que si on a une autre solution b du
même système Ax = b, alors A(x − xp ) = Ax − Axp = b − b = 0. La différence x − xp est donc dans le
noyau de A.
On obtient donc toutes les solutions du système linéaire Absbx = b sous la forme xp + xn , xn ∈ Ker(A). En
particulier, il existe une unique solution lorsque Ker(A) = {0} (et b ∈ Im(A)).
Trouver une solution particulière xp du système Ax = b est facile à partir de sa forme totalement échelonnée : on
met toutes les variables correspondant aux colonnes non pivotales à 0, et on résout (si c’est possible) le système
des variables pivotales : on obtient ainsi une solution particulière xp .
Soit à la matrice augmentée du système, d’ordre n × (p + 1) (n lignes, p + 1 colonnes), définie par
a1,1 a1,2 . . . a1,p b1
a2,1 a2,2 . . . a2,p b2
à = A b = ···
an,1 an,2 . . . an,p bn
On effectue l’algorithme d’échelonnement total sur la matrice à = A b pour arriver à la forme totalement
échelonnée R̃ = R d .
Examinons les différents cas possibles selon les valeurs de n, p et r, où r est le rang de la matrice A (le nombre
de lignes non nulles de R et donc aussi de colonnes pivotales) .
1. Cas d’une matrice carrée : n = p, avec R = Idn , i.e. r = n, alors la matrice A est inversible et le système
admet une solution unique x = d.
Exemple
x1 + 2x2 = 4
3x1 + 7x2 = 13
1 2 4 1 2 4
Forme matricielle : Ax = b avec A = et b = . Matrice augmentée : Ã = .
3 7 13 3 7 13
1 0 2
Forme totalement échelonnée (exo) : R̃ =
0 1 1
On a donc R = Idn (R est la forme totalement échelonnée de A, R̃ est la forme totalement échelonnée de
Ã) et on “lit” donc une solution xp du système dans la matrice R̃ qui représente le système linéaire :
x1 = 2
x2 = 1
estinversible et que son noyau est réduit à {0}. La solution unique du système
Remarquons que la matrice
2
est donc X = xp + 0 = .
1
2. Cas d’une matrice carrée telle que R 6= Idn , r < n alors R a au moins une ligne nulle. Si toutes les
composantes de d correspondantes aux lignes nulles de R sont nulles, les équations sont compatibles et le
système admet une infinité de solutions (parce que le noyau de A n’est pas réduit à {0}). S’il existe une
composante de d non nulle et qui correspond à une ligne nulle de R, alors le système n’a pas de solution
(parce que d 6∈ Im(A)).
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 61 Algèbre linéaire, Maths générales II
3.3. Résolution d’un système linéaire général 3. Systèmes linéaires et espaces vectoriels
Exemple
x1 + 2x3 = b1
x1 + x3 = b2
x3 = b3
1 0 2 b1
Le système s’écrit sous forme matricielle AX = b, avec A = 1 0 1 et b = b2 . La matrice
0 0 1 b3
1 0 2 b1
augmentée du système s’écrit à = 1 0 1 b2 . L’algorithme d’échelonnement total donne :
0 0 1 b3
1 0 2 b1 1 0 2 b1 1 0 2 b1
T21 (−1) T32 (1)
1 0 1 b2 −→ 0 0 −1 b2 − b1 −→ 0 0 −1 b2 − b 1 .
0 0 1 b3 0 0 1 b3 0 0 0 b 3 + b2 − b 1
On “lit” alors une solution dans les deux premières lignes de la matrice totalement échelonnée qu’on
a ainsi obtenue : x1 = 2b2 − b1 , x3 = b1 − b2 . Notons que l’on peut
choisir x2 de manière arbitraire.
2b2 − b1
Si on choisit x2 = 0, on obtient une solution particulière xp = 0 du système Ax =
b1 − b 2
b, à laquelle on peut ajouter n’importe quel élément xn de Ker(A). On détermine alors la solution
spéciale du système homogène (c’est-à-dire avec second membre nul) en remarquant qu’il n’y a qu’une
la combinaison linéaire 0c1 (R) + c2 (R) +
seule colonne non pivotale, la deuxième, et on peutécrire
0
0c3 (R) = 0. Une solution spéciale est donc s = 1 . Le système admet une infinité de solutions,
0
qui sont de la forme :
2b2 − b1
xp + λs = λ , λ ∈ R.
b1 − b2
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 62 Algèbre linéaire, Maths générales II
3.3. Résolution d’un système linéaire général 3. Systèmes linéaires et espaces vectoriels
Remarquons que les solutions du système AX = 0 se trouvent en remarquant que la matrice R totalement
échelonnée de A (les 3 premières colonnes de R̃) a 2 colonnes pivotales et une non pivotale, la seconde. On
remarquequec2 (R) = c1 (R) (la seconde colonne est identique à la première) ce qui donne comme solution
−1
1
0 . Les solutions de Ax = 0 sont les multiples de cette solution spéciale.
spéciale
0
−1
1
Ker(A) = λ ,λ ∈ R .
0
0
3. Cas n > p et r = p. On a dans ce cas une matrice rectangulaire “debout”, plus haute que large, et aucune
ligne nulle. Donc on n’a aucune colonne non pivotale (puisque r = p). Le noyau de la matrice est réduit à
{0}. Prenons un exemple :
1 1 b1
A = 1 0 et b = b2 .
2 3 b3
Cherchons pour quel b le système Ax = b admet une solution. L’échelonnement total de la matrice aug-
mentée s’écrit :
1 1 b1 1 1 b1 1 1 b1
1 0 b2 T21 (−1) T31 (−2)
−→ 0 −1 b2 − b1 −→ 0 −1 b2 − b1
2 3 b3 2 3 b3 0 1 b3 − 2b1
1 1 b1 1 0 b2 1 0 b2
T32 (1) T12 (1) D2 (−1)
−→ 0 −1 b2 − b1 −→ 0 −1 b2 − b1 −→ 0 1 b1 − b2
0 0 b3 − 3b1 + b2 0 0 b3 − 3b1 + b2 0 0 b3 − 3b1 + b2
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 63 Algèbre linéaire, Maths générales II
3.3. Résolution d’un système linéaire général 3. Systèmes linéaires et espaces vectoriels
(c) On a donc une infinité de solutions, qui sont de la forme
2 −1
x = xp + λs = 2 + λ 0 , λ ∈ R.
0 1
En résumé, il y a quatre possiblités pour les solutions d’un système linéaire, selon le rang r de la matrice :
r = n et r = p matrice carrée inversible Ax = b a une solution unique
r = n et r < p matrice rectangulaire “couchée” Ax = b a une infinité de solutions
r < n et r = p matrice rectangulaire “debout” Ax = b a 0 ou 1 solution (unique)
r < n et r < p matrice quelconque Ax = b a 0 ou une infinité de solutions
Démonstration : Par la proposition 3.23, A n’a pas de colonne non pivotale. Donc l’ensemble des indices Jdes
0
..
.
0
1
colonnes pivotales est J = (1, . . . , n) (autrement dit, ji = i pour tout i). De plus, on a (voir (3.2.1)) cj (A) =
0
.
..
0
où le 1 est sur la j ème ligne. Donc A = Idn .
Démonstration : Supposons A inversible. Montrons que Ker(A) = {0}. Soit X ∈ Ker(A). Alors AX = 0,
donc A−1 AX = 0, d’où X = 0.
Montrons qu’on a aussi Im(A) = Mn,1 (K). Notons B l’inverse de A. Soit Y ∈ Mn,1 (K). Alors Y = A(BY )
ce qui montre que Y ∈ Im(A). Donc Im(A) = Mn,1 (K).
Supposons maintenant que Ker(A) = {0} et montrons que A est inversible. Soit E ∈ GLn (K) telle que EA soit
totalement échelonnée. Comme Ker(E) = {0} (car E est inversible), on a Ker(EA) = Ker(A) = {0}. On en
déduit par le Lemme 3.28 que EA = Idn , donc A = E −1 EA = E −1 est inversible.
Supposons enfin que Im(A) = Mn,1 (K) et montrons que A est inversible. Soit E ∈ GLn (K) telle que EA
soit totalement échelonnée. Comme Im(E) = Mn,1 (K) (car E est inversible), on a Im(EA) = Mn,1 (K).
Donc EA n’a pas de lignes nulles ; autrement dit, les n lignes de EA ont un premier coefficient non nul. On en
déduit, en notant comme toujours j1 < · · · < jn les indices des colonnes pivotales, que j1 = 1, . . . , jn = n
(car il y a exactement
n lignes non nulles et n colonnes dans la matrice). Comme EA est totalement échelonnée,
0
..
.
0
cj (EA) = 1 où le 1 est sur la j ème ligne (voir (3.2.1) ). Donc EA = Idn , ce qui montre que A est inversible.
0
.
..
0
On déduit des deux précédents corollaires qu’une matrice carrée est inversible si et seulement si elle admet
une forme totalement échelonnée égale à l’identité.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 64 Algèbre linéaire, Maths générales II
3.3. Résolution d’un système linéaire général 3. Systèmes linéaires et espaces vectoriels
Corollaire 3.30 Soit A ∈ GLn (K). Alors A peut s’écrire comme le produit de matrices élémentaires.
Démonstration : L’algorithme d’échelonnement total (Théorème 2.34) montre qu’il existe P produit de matrices
élémentaires telle que P A soit totalement échelonnée. Comme P A est inversible, on en déduit P A = Idn par le
Corollaire 3.28. Donc A = P −1 . On conclut par le corollaire 2.20.
3.3.3 Exercices
Exercice 80 (Ecrire une matrice et résoudre un système) Ecrire sous forme matricielle le probléme suivant
Trouver deux quadruplets différents de 4 entiers a, b, c et d tels que :
Exercice 85 (Ligne Attila) Si une matrice totalement échelonnée a toute sa première ligne remplie de 1, quel est
son rang ?
2 4 6 4 b1
Exercice 86 Soit A = 2 5 7 6 et b = b2
2 3 5 2 b3
1. Echelonner la matrice augmentée A b pour la transformer en U c où U est échelonnée.
2. Trouver les conditions sur b1 , b2 et b3 pour que Ax = b ait une solution.
3. Décrire ImA (plan ? droite ? tout l’espace ?)
4. Décrire KerA. Trouver les solutions spéciales de Ax = 0.
5. Trouver une solution particulière au système Ax = b = (4, 3, 5).
6. Trouver la forme totalement échelonnée R d et y lire directement les solutions spéciales et particulière.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 65 Algèbre linéaire, Maths générales II
3.3. Résolution d’un système linéaire général 3. Systèmes linéaires et espaces vectoriels
Exercice 87 Résoudre les systèmes linéaires suivants :
x − z = 1
2x + y − z = 1
y + 2z − w = 3
4x − y = 3
x + 2y + 3z − w = 7
x − y + z = 1
y + w = 2 a − b + 3c + d − e = 1
3x − 2y + 3z + w = 3 2a − b + c + d + e = 3
−y − w = 4
Exercice 88 (Solution spéciale et forme totalement échelonnée) Soit A ∈ M3,4 (R) telle que le vecteur s =
(3, 2, 1, 0) soit la seule solution spéciale du système linéaire homogène Ax = 0.
1. Quel est le rang de la matrice A ?
2. Quelle est la forme totalement échelonnée de A ?
3. Existe-t-il une solution au système Ax = b pour tout b ∈ R3 ?
Exercice 89 (Même ensemble de solutions même matrice ? ) Soient A et B des matrices telles que que les
systm̀es Ax = b et Bx = b ont le même ensemble de solutions pour tout b. Est ce que A = B ?
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 66 Algèbre linéaire, Maths générales II
Chapitre 4
On va s’intéresser ici à la dimension des espaces et sous espaces et les relations entre certains sous espaces. Vous
avez déjà une idée assez claire de ce qu’on entend par 2d ou 3d (ne serait-ce que par les jeux vidéo !) : en 2d, on
est dans un plan, en 3d, on est dans l’espace. On va relier cette notion de dimension à celle de vecteurs libres et
liés (ou linéairement indépendants et linéairement dépendants). En gros, si on a des vecteurs libres d’un espace
vectoriel, cela veut dire qu’il n’y en a pas en trop, si on a des vecteurs liés, cela veut dire qu’il y en a assez. Pas en
trop ou assez pour quoi ? Pour former ce qu’on appelle une base, qui a exactement le “bon nombre” de vecteurs, et
ce bon nombre est la dimension de l’espace. Vous connaissez d’ailleurs bien la base (i, j, k) de R3 : trois vecteurs
de base pour un espace de dimension 3.
Définition 4.1 (Indépendance et dépendance linéaire) Soit E un K-espace vectoriel. Soit (e1 , . . . , en ) une fa-
mille d’éléments de E.
1. On dit que la famille (e1 , . . . , en ) est libre, ou que les vecteurs e1 , . . . , en sont linéairement indépendants,
si (α1 , . . . , αn ) ∈ Kn et α1 e1 + · · · + αn en = 0 entraîne α1 = · · · = αn = 0.
2. On dit que la famille (e1 , . . . , en ) est liée si elle n’est pas libre, ou que les vecteurs e1 , . . . , en sont linéai-
rement dépendants s’ils ne sont pas linéairement indépendants.
67
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
Dans le chapitre précédent, on a vu également que les colonnes pivotales d’une matrice échelonnée sont linéaire-
ment indépendantes. Donc les colonnes d’une matrice échelonnée qui n’a que des colonnes pivotales sont linéaire-
ment indépendantes. On va voir dans la suite de ce chapitre que ce résultat reste vrai pour toutes les matrices : les
colonnes d’une matrice A ∈ Mn,p (K) sont linéairement indépendantes lorsque toutes les colonnes d’une matrice
échelonnée à partir de A sont pivotales, autrement dit lorsque p = r, (r étant le rang de la matrice, c’est-à-dire le
nombre de colonnes pivotales ou encore le nombre de lignes non nulles).
Dans le cas où p > n, alors forcément les vecteurs sont linéairement dépendants. En effet, dans ce cas le rang de la
matrice r, i.e. le nombre de lignes non nulles, est forcément inférieur strictement à p, puisque r ≤ n < p. Donc il
existe des colonnes non pivotales qui permettent de définir les solutions spéciales associées du système Ax = 0.
En particulier, le noyau de A n’est pas réduit à {0} et il existe une combinaison linéaire des colonnes qui donne
0. La famille est liée.
Définition 4.2 (Famille génératrice) On dit que la famille (e1 , . . . , en ) est génératrice si Vect(e1 , . . . , en ) = E.
Ceci revient à dire que pour tout x ∈ E, il existe α1 , . . . , αn ∈ K tels que
n
X
x = α1 e1 + · · · + αn en = αk ek .
k=1
On a vu au chapitre précédent que les colonnes d’une matrice A engendrent l’espace des colonnes de A (c’est la
définition de C(A)), et donc engendrent l’image de A (car Im(A) = C(A)).
On définit maintenant un nouvel espace associé à la matrice A, qui est l’espace des lignes de la matrice A.
Définition 4.3 (Espace des lignes d’une matrice) Soit une matrice A d’ordre n×p. On appelle espace des lignes
de A ∈ Mn,p (K), noté L(A), le sous-espace vectoriel de Kn engendré par les vecteurs lignes de A.
Attention, l’ensemble C(A) (= Im(A)) est un sous-espace vectoriel de Rn , alors que l’ensemble L(A) (=
C(At ) = Im(At )) est un sous-espace vectoriel de Rp .
Exemple 4.4 (Espace colonnes et espace des lignes) Cherchons C(A) et L(A) pour la matrice A ∈ M3,2 (R)
des
1 0
t 1 0 0
définie par A = 0 1 . La matrice transposée de A est donc A =
. L’espace C(A) = Im(A) =
0 1 0
0 0
L(At ) est un sous-espace vectoriel de R3 qui est engendré par les colonnes de A, c.à.d. les vecteurs (1, 0, 0) et
(0, 1, 0). C’est un plan de R3 .
L’espace L(A) = C(At ) = Im(At ) est un sous-espace vectoriel de R2 qui est engendré par les lignes de A,
c.à.d. les vecteurs (1, 0), (0, 1) et (0, 0). C’est R2 tout entier.
Les familles génératrices sont utiles pour décrire un espace vectoriel comme l’ensemble des combinaisons linéaires
des vecteurs de cette famille. Par exemple, le plan horizontal dans R3 est engendré par la famille {(1, 0, 0),
(0, 1, 0)}. En fait, il est aussi engendré par la famille {(1, 0, 0), (0, 1, 0), (1, 1, 0)} ; et aussi par la famille {(1, 0, 0),
(0, 1, 0), (1, 1, 0), (2, 6, 0)}... d’où la question naturelle : peut-on trouver des familles génératrices les plus petites
possibles ? On aura alors le “bon nombre” de vecteurs qui permettent d’obtenir tous les vecteurs de l’espace par
combinaison linéaire. Pour cet exemple, on se convainc facilement qu’on a besoin au minimum de 2 vecteurs pour
engendrer le plan horizontal. Pour traiter le cas général, on utilise la notion suivante.
Définition 4.5 (Base) On dit que la famille (e1 , . . . , en ) est une base si elle libre et génératrice.
Exemple 4.6 (Base canonique de Rn ) Les vecteurs i = (1, 0) et j = (0, 1) forment une base de R2 . De même,
les vecteurs i = (1, 0, 0), j = (0, 1, 0) et k = (0, 0, 1) forment une base de R3 . Plus géneralement, on appelle
base canonique de Rn la famille de vecteurs (ei )i=1,...,n , avec ei = (0, . . . , 0, 1, 0, . . . , 0), où le 1 est placé en
i-ème position. Les vecteurs de la base canonique sont les vecteurs colonnes de la matrice identité Idn .
La base canonique est une base de Rn , mais ce n’est pas la seule ! En fait, on peut observer que
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 68 Algèbre linéaire, Maths générales II
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
Exemple 4.7 (Base de Rn et matrice inversible) Les colonnes d’une matrice n × n forment une base de Rn si et
seulement si la matrice est inversible (exercice : voir corollaire 3.29). On voit donc que Rn a un nombre de bases
infini.
Exemple 4.8 (Base de Ker(A)) Soit A ∈ Mn,p (R). La proposition 3.23 dit exactement que les solutions spé-
ciales de Ax = 0 forment une famille libre et génératrice de l’espace des solutions de Ax = 0. Les solutions
spéciales sont donc une base de KerA. Comptons le nombre de vecteurs dans cette base ; soit r le rang de la
matrice, c.à.d. le nombre de lignes non nulles de la matrice R totalement échelonnée à partir de A. Le rang r
est aussi le nombre de colonnes pivotales de R. On a donc donc p − r colonnes non pivotales, p − r solutions
spéciales, p − r vecteurs de base pour Ker(A).
Dans le cas d’une matrice échelonnée, ce sont les colonnes pivotales de la matrice qui forment une base de C(A) :
Proposition 4.9 Soit A ∈ Mn,p (K) une matrice échelonnée. Alors les colonnes pivotales de A forment une base
de Im(A).
Démonstration : On se souvient (proposition 3.22) que les colonnes pivotales cj1 (A), . . . , cjr (A) forment une
famille libre. De plus (proposition 3.15), les colonnes non pivotales sont soit nulles soit combinaison linéaire
des colonnes pivotales. Donc toutes les colonnes appartiennent à Vect(cj1 (A), . . . , cjr (A)). Donc l’espace des
colonnes est égal à Vect(cj1 (A), . . . , cjr (A)). Autrement dit, {cj1 (A), . . . , cjr (A)} est une famille génératrice de
Im(A). En résumé, c’est une base de Im(A).
En fait, cette propriété est “conservée” par échelonnement, c.à.d. que les colonnes de la matrice A dont les indices
sont ceux des colonnes pivotales de sa forme échelonnée forment également une base de C(A) ou Im(A). On
démontre ce résultat grâce au petit lemme suivant, qu’on va d’ailleurs utiliser plusieurs fois par la suite.
Lemme 4.10 Soient A ∈ Mn,p (K), P ∈ GLn (K) et 1 ≤ i1 < · · · < ik ≤ p. Si (ci1 (A), . . . , cik (A))
est une famille libre, resp. génératrice, resp. une base de Im(A), alors (ci1 (P A), . . . , cik (P A)) est une famille
libre, resp. génératrice, resp. une base de Im(P A).
Démonstration : Il suffit de remarquer que ci (P A) = P ci (A) puis d’appliquer les définitions de famille libre,
génératrice, base.
Proposition 4.11 Soient A ∈ Mn,p (K) et P ∈ GLn (K) telle que P A soit échelonnée. Notons 1 ≤ i1 < · · · < ir
les indices des colonnes pivotales de P A. Alors (ci1 (A), . . . , cir (A)) est une base de Im(A).
Démonstration : Par le lemme 4.10, il suffit d’observer que (ci1 (P A), . . . , cir (P A)) est une base de Im(P A),
ce qui est le cas puisque dans une matrice échelonnée, les colonnes pivotales forment une base de l’espace des
colonnes.
L’intérêt principal de trouver une base d’un espace vectoriel est que l’on peut décrire précisément tout élément de
l’espace vectoriel grâce à la base. On écrit le vecteur comme combinaison linéaire des vecteurs de la base. Cette
combinaison linéaire donne les composantes du vecteur dans la base, de manière unique, comme on le montre
maintenant.
Proposition 4.12 (Composantes d’un vecteur dans une base) Soient E un K-espace vectoriel et B = (e1 , . . . ,
en ) une base de E. Pour tout x ∈ E, il existe un unique n−uplet (α1 , . . . , αn ) ∈ Kn appelé les composantes de
x dans la base B tel que
Xn
x = α1 e1 + · · · + αn en = αk ek .
k=1
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 69 Algèbre linéaire, Maths générales II
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
Soit β = (β1 , . . . , βn ) ∈ Kn tel que
n
X
x = β1 e1 + · · · + βn en = βk ek .
k=1
On a
n
X
(α1 − β1 )e1 + · · · + (αn − βn )en = (αk − βk )ek = 0.
k=1
Or la famille (e1 , . . . , en ) est libre. Donc αk − βk = 0 pour tout k = 1, . . . , n. On en déduit l’unicité du n−uplet
α.
Remarque : Par définition, toute famille (f i )1≤i≤p de vecteurs est une famille génératrice de l’espace vectoriel
engendré Vect(f 1 , . . . , f p ) (qui est l’ensemble des combinaisons linéaires de f 1 , . . . , f p ). C’est une base de
Vect(f 1 , . . . , f p ) si et seulement si la famille est libre.
Définition 4.13 (Matrice d’une famille de vecteurs dans une base) Soit (e1 , . . . , en ) une base d’un K-espace
vectoriel E.
– Soient f 1 , . . . , f p p éléments de E. La matrice A ∈ Mn,p (K) de la famille (f 1 , . . . , f p ) dans la base
(e1 , . . . , en ) est la matrice
Pn dont la i ème colonne est constituée des coordonnées de fi dans la base (e1 , . . . , en ).
Explicitement, si fj = i=1 ai,j ei pour tout 1 ≤ j ≤ p, alors A = (ai,j ).
– Réciproquement, si on se donne une matrice A ∈ Mn,p (K), on peut lui associer une famille de vecteurs
(f 1 , . . . f p ) dont les composantes dans la base (e1 , . . . , en ) sont les vecteurs colonnes de la matrice A.
Exemple : Considérons l’espace vectoriel des polynômes de degré ≤ 3. La famille {1, X, X 2 , X 3 } en est une
base. Soient P (X) = X 3 + 2X − 1, Q(X) = X 2 − 1 et R = 3X 3 + 2X 2 + X + 1. Alors la matrice A associée
à la famille {P, Q, R} dans la base {1, X, X 2 , X 3 } est
−1 −1 1
2 0 1
A := 0
.
1 2
1 0 3
La proposition suivante est très importante en pratique : supposons donnée une famille de vecteurs. On se demande
si elle est libre ou génératrice. On est ramené à la détermination du noyau ou de l’image d’une matrice construite
à partir de cette famille de vecteurs :
Proposition 4.14 Soit (e1 , . . . , en ) une base d’un K-espace vectoriel E. Soient f 1 , . . . , f p p éléments de E et
A ∈ Mn,p (K) la matrice de la famille (f 1 , . . . , f p ) dans la base (e1 , . . . , en ). Alors
1. la famille (f 1 , . . . , f p ) est libre ssi Ker(A) = {0} ssi (c1 (A), · · · , cp (A)) est libre.
2. la famille (f 1 , . . . , f p ) est génératrice ssi Im(A) = Kn ssi (c1 (A), · · · , cp (A)) est génératrice de Kn .
Démonstration : Pour le point 1., le fait que la famille des vecteurs colonnes (c1 (A), . . . , cp (A)) est libre
ssi Ker(A) = {0} résulte de la proposition 3.21. Il reste Pp donc à voir que P (c1 (A), . .P. , cp (A)) est libre ssi
p n
(f 1 , . . . , f p ) est libre. Soit (α1 , . . . , αp ) ∈ Kp . Alors j=1 αj fj = 0 ⇔ j=1 αj ( i=1 ai,j ei ) = 0 ⇔
Pn Pp Pp
( α a
j=1 j i,j i )e = 0 ⇔ pour tout 1 ≤ i ≤ n, α
j=1 j i,j a = 0 (car la famille (ei ) est libre) ⇔
Pi=1
p
j=1 j jα c (A) = 0. Ainsi, (c1 (A), . . . , cp (A)) est libre ssi (f 1 , . . . , f p ) est libre.
Montrons le point 2. On a vu au chapitre précédent que Im(A) est l’ensemble des combinaisons linéaires des
y1
c1 (A), . . . , cp (A). Donc Im(A) = Kn ssi la famille (c1 (A), . . . , cp (A)) est génératrice de Kn . Soit Y := ...
yn
Pp
dans Kn et y = y1 e1 + · · · + yn en ∈ E. Alors il existe (α1 , . . . , αp ) ∈ Kp tel que y = j=1 αj fj ⇔ y =
Pp Pn Pn Pp Pp
αj ( i=1 ai,j ei ) ⇔ i=1 ( j=1 αj ai,j )ei = y ⇔ pour tout 1 ≤ i ≤ n, yi = j=1 αj ai,j ⇔ Y =
Pj=1
p n
j=1 α j cj (A). Donc (c1 (A), . . . , cp (A)) est génératrice dans K ssi (f 1 , . . . , f p ) est génératrice dans E. Le
point 2. est démontré.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 70 Algèbre linéaire, Maths générales II
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
Ainsi, pour savoir si la famille (P, Q, R) donnée dans l’exemple précédant la proposition est libre ou génératrice,
on calcule le noyau et l’image de la matrice A, par exemple en l’échelonnant. Ici, on trouve (exercice) que le noyau
est nul donc les colonnes de la matrice sont linéairement indépendantes, donc la famille (P, Q, R) est libre. En
revanche, l’image de la matrice n’est pas tout R4 (par exemple, (1, 0, 0, 0) n’ y est pas). Donc la famille (P, Q, R)
n’est pas génératrice de l’ensemble des polynômes de degré ≤ 3 (les polynômes constants ne peuvent s’écrire
comme combinaison linéaire de P, Q et R).
Par exemple, l’espace vectoriel Rn est de dimension finie, et l’espace vectoriel des fonctions continues de R dans
R est de dimension infinie.
Théorème 4.16 (Existence d’une base) Soit E un K-espace vectoriel de dimension finie. Alors il existe une base
(finie) de E.
Démonstration : On commence par l’observation suivante. Soit F = {f 1 , . . . , f p } une famille génératrice finie
de E qui n’est pas libre. Alors l’un des vecteurs fi ∈ F s’écrit comme combinaison linéaire des autres vecteurs
de F. On en déduit que tous les vecteurs de F appartiennent à Vect(f 1 , . . . , f i−1 , f i+1 , . . . , f p ). Donc
Théorème 4.17 (Dimension et bases) Soit E un K-espace vectoriel de dimension finie. Toutes les bases ont
même nombre d’éléments. Ce nombre est appelé dimension de l’espace vectoriel E.
Exemples :
– Kn est un K-espace vectoriel de dimension n (penser à la base canonique !).
M2 (R) est un
– L’espace R-espace vectoriel
de dimension
4 dont une base est formée des matrices E11 =
1 0 0 1 0 0 0 0
, E12 = , E21 = , E22 = . Cette base (E11 , E12 , E21 , E22 ) est appelée base
0 0 0 0 1 0 0 1
canonique.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 71 Algèbre linéaire, Maths générales II
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
– Kn [X] est l’espace des polynômes de degré ≤ n. Une base est formée par les polynômes 1, X, . . . , X n . La
dimension de Kn [X] est donc n + 1.
Remarque 4.18 Un sous espace vectoriel d’un K-espace vectoriel est un K-espace vectoriel. On peut donc parler
de dimension d’un sous espace vectoriel.
Démonstration : Toutes les familles libres de F ont un cardinal ≤ n, d’après le corollaire précédent. Soit p
le nombre maximal d’éléments que peut contenir une famille libre de F. On a donc p ≤ n et en particulier,
toute famille de F qui a p + 1 éléments est nécessairement liée. Soit (f 1 , . . . , f p ) une famille libre de F à p
éléments. On va montrer qu’elle est génératrice de F , c’est-à-dire que tout élément de F est combinaison linéaire
de f 1 , . . . , f p . Soit x ∈ F et considérons la famille (f 1 , . . . , f p , x). Elle est liée car elle a p + 1 éléments. Donc
il existe λ1 , . . . , λp , µ non tous nuls tels que
λ1 f 1 + . . . + λp f p + µx = 0.
P
Nécessairement µ 6= 0 car sinon i λi f i = 0 avec les λi non tous nuls, ce qui contredit que la famille
(f 1 , . . . , f p ) est libre. On peut donc écrire
−1
x= (λ1 f 1 + . . . + λp f p ).
µ
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 72 Algèbre linéaire, Maths générales II
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
Donc la famille (f 1 , . . . , f p ) est génératrice. Comme elle est libre, c’est donc une base de F. Donc F est de
dimension finie p, avec p ≤ n. Si p = n, alors (f 1 , . . . , f n ) est une famille libre de E qui a n éléments, donc est
une base de E par le corollaire précédent. Donc tout élément de E peut s’écrire comme combinaison linéaire des
f i qui sont des éléments de F. Donc tout élément de E est dans F. Donc E = F.
L’échelonnement (partiel ou total) d’une matrice A permet donc de déterminer son rang et son image (en comptant
le nombre de colonnes pivotales d’une matrice échelonnée B associée à A). De plus, on obtient en même temps
une base de l’image de A en sélectionnant les colonnes de A ayant les indices des colonnes pivotales.
Proposition 4.24 Soit A ∈ Mn,p (K) et P ∈ GLn (K), Q ∈ GLp (K) deux matrices inversibles. Alors le rang
des matrices A, P A et AQ sont égaux :
Démonstration : Notons r le rang de A. Il existe une sous-famille de la famille des colonnes de A formant une
base de Im(A). Soient 1 ≤ j1 < · · · < jr tels que (cj1 (A), . . . , cjr (A)) est une base de Im(A). Alors par le
lemme 4.10, (cj1 (P A), . . . , cjr (P A)) est une base de Im(P A). Donc rg(A) = rg(P A).
Remarquons ensuite que Im(AQ) ⊂ Im(A) et Im(A) = Im(AQQ−1 ) ⊂ Im(AQ). La première inclusion donne
rg(AQ) ≤ rg(A) et la deuxième donne rg(A) ≤ rg(AQ). D’où le résultat.
On définit maintenant le rang d’une famille de vecteurs :
Définition 4.25 (Rang d’une famille de vecteurs) Soit (f 1 , . . . , f p ) une famille de p vecteurs d’un espace vec-
toriel E. On appelle rang de la famille (f i )i , la dimension de l’espace vectoriel Vect(f 1 , . . . , f p ).
Remarque 4.26 Le rang de la famille (f 1 , . . . , f p ) est au plus égal à p (car (f 1 , . . . , f p ) est une famille géné-
ratrice de Vect(f 1 , . . . , f p )). Une famille de p vecteurs est libre si le rang de cette famille est égal à p.
Comment déterminer en pratique le rang d’une famille de vecteurs ? Si on connaît les coordonnées de ces vecteurs
dans une base, il suffit d’écrire la matrice de cette famille de vecteurs dans cette base, et de calculer le rang de
cette matrice en l’échelonnant. C’est ce que dit la proposition suivante :
Proposition 4.27 Soit B une base de E. Le rang de la famille (f 1 , . . . , f p ) est égal au rang de la matrice des
composantes des vecteurs f i dans la base B.
Démonstration : On rappelle (proposition 4.14) qu’une famille de vecteurs est libre ssi les colonnes de la matrice
de cette famille dans une base sont linéairement indépendantes.
On note Xi le vecteur colonne des composantes de f i dans la base B et A la matrice [X1 . . . Xp ]. Soit r le
rang de A. Il existe 1 ≤ j1 < · · · < jr ≤ p tels que Xj1 , . . . , Xjr soit une base de Im(A). En particulier,
c’est une famille libre. Alors les vecteurs (f j1 , . . . , f jr ) forment une famille libre. Soit j ∈ / {j1 , . . . , jr }. Alors
(Xj1 , . . . , Xjr , Xj ) n’est pas libre, donc les vecteurs (f j1 , . . . , f jr , f j ) forment une famille liée. On en déduit
que f j ∈ Vect(f j1 , . . . , f jr ) et finalement que (f j1 , . . . , f jr ) est génératrice. Donc (f j1 , . . . , f jr ) est une base
de Vect(f 1 , . . . , f p ) et finalement rg(X1 , . . . , Xp ) = rg(f 1 , . . . , f p ).
La preuve précédente donne en plus un moyen de trouver une base de Vect(f 1 , . . . , f p ). On écrit la matrice A de
{f 1 , . . . , f p } dans une base. On l’échelonne. On repère les indices des colonnes pivotales j1 < · · · < jr . Alors
la famille {f j1 , . . . , f jr } est une base de Vect(f 1 , . . . , f p ).
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 73 Algèbre linéaire, Maths générales II
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
Proposition 4.28 Le rang de A ∈ Mn,p (K) est égal au rang de At ∈ Mp,n (K). Le rang de A est aussi égal à
la dimension de l’espace vectoriel L(A) engendré par les vecteurs lignes de A.
Démonstration : On peut supposer que A est totalement échelonnée. En effet, si A n’est pas totalement échelon-
née, soit P ∈ Mn (K) telle que P A soit totalement échelonnée. Alors rg(P A) = rg(A) et rg(At P t ) = rg(At ).
On suppose donc désormais A totalement échelonnée.
Montrons que la famille des lignes non nulles de A forment une base de l’ensemble des vecteurs lignes de A.
Notons r le nombre de lignes non nulles de A et 1 ≤ j1 < · · · < jr ≤ p les indices des colonnes pivotales.
Alors
pour k ∈ {1, . . . , r}, la k-ième ligne `k (A) est de la forme `k (A) = 0 · · · 0 1 ∗ · · · ∗ où le 1 est
placé sur la colonne jk . De plus, les nombres à droite du 1 sont nuls lorsqu’ils sont sur une colonne pivotale (car
la matrice est totalement échelonnée). Soient α1 , . . . , αr ∈ K tels que α1 `1 (A) + · · · + αr `r (A) = 0. Montrons
que α1 = · · · = αr = 0. Le vecteur ligne α1 `1 (A) + · · · + αr `r (A) a dans sa colonne d’indice j1 le nombre α1 ,
dans sa colonne d’indice j2 le nombre α2 , etc. . . Donc on a bien α1 = · · · = αr = 0.
Comme les lignes non nulles de A donnent par transposition une base des colonnes de At , r = rg(At ). Mais r est
aussi le nombre de colonnes pivotales de A, et donc r = rg(A). Donc rg(A) = rg(At ).
4.1.5 Exercices
Exercice 90 Les familles de vecteurs suivantes sont-elles libres ou liées ?
1. {(1, 1), (1, −1), (0, 1)} dans R2 .
2. {(1, 1), (1, 3)} dans R2 .
3. {(1, 2, −1), (−2, 1, 1), (1, −1, 2)} dans R3 .
4. {(1, 2, −1), (−2, 1, 1)} dans R3 .
5. {0, u1 , . . . un }, ui ∈ Rn .
6. {u1 , u1 , . . . un }, ui ∈ Rn .
7. {e1 , . . . en } avec ei les vecteurs canoniques de Rn .
v 1 = u1 + u2
v 2 = u1 + 2u2 + u3
v 3 = u2 + αu3
Exercice 92 Trouver le plus grand nombre possible de vecteurs linéairement indépendants parmi les vecteurs
suivants :
1 1 1 0 0 0
−1 0 0 1 1
u6 = 0
u1 =
0 u2 = −1 u3 = 0
u4 =
−1 u5 = 0
1
0 0 −1 0 −1 −1
Exercice 94 Dans R3 vérifier que les vecteurs {a, b, c} forment une base :
1. a = (2, 1, −3), b = (3, 2, −5), c = (1, −1, 1)
2. a = (1, 1, 1), b = (1, 1, 2), c = (1, 2, 3)
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 74 Algèbre linéaire, Maths générales II
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
Exprimer les vecteurs (6, 2, −7) et (6, 9, 14) dans ces bases.
Exercice 95 Dans l’espace vectoriel R3 , les vecteurs suivants constituent-ils une base ? (On pourra utiliser la
méthode de l’échelonnement)
1. u1 = (1, −1, 0), u2 = (1, 0, 1), u3 = (1, 2, 3).
2. u1 = (1, 0, −1), u2 = (0, 1, 0), u3 = (1, 1, 0).
3. u1 = (1, 2, 3), u2 = (2, 3, 1), u3 = (0, 0, 0).
4. u1 = (1, 0, 0), u2 = (1, 1, 0), u3 = (1, 1, 1).
5. u1 = (1, 1, −1), u2 = (1, −1, 1), u3 = (−1, 1, 1).
Exercice 96 Montrer que si (u1 , . . . , un ) est une base de Rn et A est une matrice inversible, alors (Au1 , . . . , Aun )
est aussi une base Rn .
forment une base de R4 . Dans cette base, calculer les composantes des vecteurs
Exercice 99 Quel est le rang des systèmes de vecteurs suivants ? (On pourra utiliser la méthode de l’échelonne-
ment). Dire si les vecteurs sont linéairement indépendants et s’ils forment une base.
1. u1 = (1, 0, 1), u2 = (1, 1, 0), u3 = (0, 1, 1).
2. u1 = (1, 0, 0, 1), u2 = (1, 1, 0, 0), u3 = (0, 1, 1, 0), u4 = (0, 0, 1, 1).
3. u1 = (1, 1, 0, 1), u2 = (−1, 1, 1, 0), u3 = (0, −1, 1, 1), u4 = (1, 1, 1, 0).
4. u1 = (1, −1, 0, 1), u2 = (1, 1, −1, 1), u3 = (0, 1, 1, 1), u4 = (1, 0, 1, 0).
5. u1 = (1, 0, 0, 2, 5), u2 = (0, 1, 0, 3, 4), u3 = (0, 0, 1, 4, 7), u4 = (2, −3, 4, 11, 12).
Exercice 100 Déterminer la dimension des sous-espaces vectoriels engendrés par chacune des 4 familles de
vecteurs ci-dessous. Donnez en une base et exprimer les coordonnées de chacun des vecteurs de la famille dans
la base trouvée.
1. la famille {u1 , u2 , u3 , u4 , u5 } avec :
1 2 3 4 5
2 3 4 5 6
u1 = 3 , u2 = 4
,
u3 =
5 ,
u4 =
6 ,
u5 =
7 ,
4 5 6 7 8
2. la famille {v 1 , v 2 , v 3 , v 4 } avec :
1 1 0 1
3 2 −1 0
v1 = 0 ,
v2 =
3 ,
v3 =
0 ,
v4 = ,
0
−1 0 −4 −13
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 75 Algèbre linéaire, Maths générales II
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
3. la famille {w1 , w2 , w3 , w4 , w5 } avec :
5 2 20 −2 8
8 2 10 0 −6
w1 = 2 , w2 = 2 ,
w3 =
2 ,
w4 =
−1 ,
w5 =
−3 ,
3 −1 5 1 0
4. la famille {z 1 , z 2 , z 3 , z 4 } avec :
1 1 −1 2
8 1 1 1
z1 = , z2 =
, z3 =
3 ,
z4 =
−3 .
1 −1
4 2 0 8
Exercice 102 (Familles de fonctions) Soit E l’espace vectoriel des fonctions de R dans R . Dire parmi les fa-
milles suivantes celles qui sont libres et celles qui sont liées. Ici les vecteurs (au sens éléments d’un espace
vectoriel) sont donc des fonctions...
1. {f, g, h}, avec f (x) = 2, g(x) = 4 sin2 (x), h(x) = cos2 (x)
2. {f, g, h}, avec f (x) = 1, g(x) = sin(x),h(x) = sin(2x).
3. {f, g}, avec f (x) = x , g(x) = cos(x).
4. {f, g, h, k}, avec f (x) = (1 + x)2 , g(x) = x2 + 2x, h(x) = 3 et k(x) = x.
5. {f, g, h}, avec f (x) = cos(2x) , g(x) = sin2 (x) ; h(x) = cos2 (x).
6. {f, g, h}, avec f (x) = 0 , g(x) = x, h(x) = x2 .
Exercice 103 (Sous espaces vectoriels et bases) Soient E un espace vectoriel, F et G des sous espaces vecto-
riels.
1. Montrer que F ∩ G est un sous espace vectoriel de E.
2. On prend ici E = R3 , F = Vect (u, v) et G = Vect (w, z) avec :
1 1 0 0
u = 1 , v = 1 , w = 1 , etz = 1 .
0 1 0 1
(a) Trouver des bases de F et G.
(b) Déterminer le sous espace F ∩ G et en donner une base.
1 2
3. On prend toujours E = R3 , F = Vect (u, v) et G = Vect (w, z) mais avec : u = 0 , v = 0 ,
0 0
0 0
w = 1 , et z = 0 .
1 1
(a) Trouver des bases de F et G
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 76 Algèbre linéaire, Maths générales II
4.1. Bases et dimension 4. Bases, dimension et sous-espaces
(b) Déterminer le sous espace F ∩ G. Ce sous espace admet-il une base ?
Exercice 104 (Sous espace vectoriel de polynômes) Soit E l’ensemble des polynômes réels de degré inférieur
ou égal à 4. On a montré dans l’exercice 67 que E est un espace vectoriel.
1. Donner une base de E.
Soit F l’ensemble des polynômes admettant les racines x = a et x = b 6= a. On a montré dans l’exercice 67 que
F est un sous espace vectoriel de E.
2. Donner une base de E.
3. Etudier le cas a = b.
Exercice 105 Quelle partie du plan décrivent les points (x, y) ∈ R2 tels que les vecteurs (1, 1 + x) et (1 − x, y)
forment une base de l’espace vectoriel R2 ?
Exercice 106 Soit E un espace vectoriel et P, P 0 deux familles finies de E. On suppose que P 0 ⊂ P.
Montrez que si P est libre alors P 0 est libre. Montrer que si P 0 est génératrice alors P est génératrice.
Peut-on avoir une réciproque ? Donner une démonstration ou un contre exemple.
Exercice 107 Proposer une preuve du théorème 4.20 inspirée de celle du théorème 4.16.
y 00 (t) = y(t), t ∈ R+
y(0) = 0, y 0 (0) = 0.
y 00 (t) = y(t), t ∈ R+
y(0) = a, y 0 (0) = b.
y 00 (t) = y(t) + 1, t ∈ R+
y(0) = 1, y 0 (0) = 1.
Exercice 109 (Sous espace de matrices) 1. Quelle est la dimension de l’espace vectoriel M3 (R) ?
2. Donner les six matrices de permutation de M3 (R) .
3. Montrer que Id3 est une combinaison linéaire des cinq autres matrices de permutation, qu’on note P1 , . . . , P5 .
3. Montrer que {P1 , . . . , P5 } est une famille libre de l’espace vectoriel M3 (R).
4. Montrer que {P1 , . . . , P5 } engendre le sous-espace S des matrices dont toutes les sommes de coefficients par
ligne et colonne sont égales.
5. En déduire la dimension de S.
Exercice 110 (Intersection de deux sous espaces) Soient E et F deux sous espaces vectoriels de Rn . On sup-
pose que dim(E) + dim(F ) > n. Montrer que E ∩ F n’est pas réduit au vecteur nul.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 77 Algèbre linéaire, Maths générales II
4.2. Sous espaces vectoriels supplémentaires, orthogonalité 4. Bases, dimension et sous-espaces
4.2 Sous espaces vectoriels supplémentaires, orthogonalité
4.2.1 Somme et intersection de deux espaces vectoriels
Proposition 4.29 (Intersection de sous espaces vectoriels) Soient F et G deux sous espaces vectoriels d’un K-
espace vectoriel E, alors H = F ∩ G est un sous espace vectoriel de E.
Définition 4.30 (Somme de sous espaces vectoriels) Soient F et G deux sous espaces vectoriels d’un K-espace
vectoriel E. On note
Proposition 4.31 (Famille génératrice de F + G) Soient F et G deux sous espaces vectoriels d’un K-espace
vectoriel E. Si (f 1 , . . . , f p ) est une famille génératrice de F et (g 1 , . . . , g q ) est une famille génératrice de G
alors la famille (f 1 , . . . , f p , g 1 , . . . , g q ) est une famille génératrice de H = F + G.
x = α1 f 1 + · · · + αp f p et y = β1 g 1 + · · · + βq g q .
Définition 4.32 (Somme directe) Soient F et G deux sous espaces vectoriels d’un K-espace vectoriel E. On dit
que F et G sont en somme directe si F ∩ G = {0}.
Définition 4.33 (Sous-espaces supplémentaires) Soient F et G deux sous espaces vectoriels d’un K-espace vec-
toriel E. On dit que F et G sont supplémentaires dans E, et on note E = F ⊕ G, si E = F + G et si F et G
sont en somme directe.
Proposition 4.34 (Première CNS pour les sous-espaces supplémentaires) Soient F et G deux sous espaces vec-
toriels d’un K-espace vectoriel E. Les espaces F et G sont supplémentaires si et seulement si tout vecteur x ∈ E
s’écrit de façon unique comme somme d’un vecteur de F et d’un vecteur de G.
Démonstration : Supposons que tout vecteur x ∈ E s’écrit de façon unique comme somme d’un vecteur de F
et d’un vecteur de G et montrons que F et G sont supplémentaires. On a bien E = F + G. De plus, supposons
par l’absurde qu’il existe z ∈ F ∩ G 6= {0E }. Alors on peut écrire z de deux façons différentes z = |{z}
z + 0E
|{z}
∈F ∈G
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 78 Algèbre linéaire, Maths générales II
4.2. Sous espaces vectoriels supplémentaires, orthogonalité 4. Bases, dimension et sous-espaces
et z = 0E + |{z}z ce qui contredit l’unicité de l’écriture. Par conséquent, F ∩ G = {0E }. Réciproquement si
|{z}
∈F ∈G
E = F + G et F ∩ G = {0E }, tout z ∈ E s’écrit sous la forme z = x + y avec x ∈ F et y ∈ G. Si cette
décomposition n’est pas unique, on a z = x1 + y 1 = x2 + y 2 . On en déduit que x1 − x2 = y 2 − y 1 .
|{z} |{z} |{z} |{z} | {z } | {z }
∈F G ∈F ∈G ∈F ∈G
Comme F ∩ G = {0E }, on en déduit que x1 − x2 = y 2 − y 1 = 0E . La décomposition de z est donc unique.
| {z } | {z }
∈F ∈G
Ainsi E = F ⊕ G.
Proposition 4.35 (Sous espaces supplémentaires et dimension) Soient F et G deux sous espaces vectoriels sup-
plémentaires d’un K-espace vectoriel E de dimension finie. On a
dim(E) = dim(F ) + dim(G).
Démonstration : Soit (f 1 , . . . , f n ) une base de F et (g 1 , . . . , g p ) une base de G. On a vu que (f 1 , . . . , f n ,
g 1 , . . . , g p ) est une famille génératrice de E = F + G. Montrons que c’est aussi une famille libre. On suppose
que
α1 f 1 + · · · + αn f n + β1 g 1 + · · · + βp g p = 0E .
Par conséquent,
α1 f 1 + · · · + αn f n = −β1 g 1 − · · · − βp g p ∈ F ∩ G = {0E }.
| {z } | {z }
∈F ∈G
Par suite
α1 f 1 + · · · + αn f n = 0E et β1 g 1 + · · · + βp g p = 0E .
Comme (f 1 , . . . , f n ) est une base de F et (g 1 , . . . , g p ) est une base de G, ce sont des familles libres et par
conséquent,
α1 = · · · = αn = β1 = · · · = βp = 0.
On conclut que dim(E) = n + p = dim(F ) + dim(G).
Proposition 4.36 (Existence d’un supplémentaire) Soit E un K-espace vectoriel de dimension finie et F un
sous-espace vectoriel de E. Alors il existe un sous-espace vectoriel G de E tel que F et G soient supplémentaires.
Démonstration : Soient (e1 , . . . , en ) une base de E et (f 1 , . . . , f p ) une base de F . La famille (f 1 , . . . , f p )
est une famille libre de E. Le théorème de la base incomplète (on applique le théorème 4.20 à la famille libre
(f 1 , . . . , f p ) et à la famille génératrice (e1 , . . . , en )) nous dit que l’on peut compléter la famille (f 1 , . . . , f p ) par
ei1 , . . . , ein−p pour en faire une base de E. On vérifie alors que G = Vect(ei1 , . . . , ein−p ) est un sous espace
supplémentaire de F dans E.
Proposition 4.37 (Sous espaces et dimension) Soient F et G deux sous espaces vectoriels d’un K-espace vecto-
riel E. On a
dim(F + G) = dim(F ) + dim(G) − dim(F ∩ G).
Démonstration : Soient F1 un supplémentaire de F ∩ G dans F et G1 un supplémentaire de F ∩ G dans G. Alors
F = F1 ⊕ (F ∩ G) et G = G1 ⊕ (F ∩ G). On en déduit
F + G = F1 ⊕ G1 ⊕ (F ∩ G).
Par conséquent,
dim(F + G) = dim(F1 ) + dim(G1 ) + dim(F ∩ G)
= (dim(F ) − dim(F ∩ G)) + (dim(G) − dim(F ∩ G)) + dim(F ∩ G) = dim(F ) + dim(G) − dim(F ∩ G).
Proposition 4.38 (Deuxième CNS pour les sous espaces supplémentaires) Soient F et G des sous espaces vec-
toriels de E. Alors E = F ⊕ G si et seulement si F ∩ G = {0E } et dim F + dim G = dim E.
Démonstration : On a déjà démontré le sens direct (proposition 4.35). Il reste à démontrer la réciproque. Suppo-
sons que F ∩ G = {0E } et dim F + dim G = dim E. Il reste à voir que E = F + G. Par la proposition 4.35, on
a dim(F + G) = dim F + dim G = dim E. Donc F + G est un sous espace de E qui a même dimension que E.
Cela montre que E = F + G (voir Proposition 4.22).
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 79 Algèbre linéaire, Maths générales II
4.2. Sous espaces vectoriels supplémentaires, orthogonalité 4. Bases, dimension et sous-espaces
4.2.2 Sous espaces liés aux matrices
Soit A ∈ Mn,p (K). On va étudier dans ce paragraphe les relations entre les sous espaces suivants liés à la matrice
A. On a déjà introduit :
1) l’espace des colonnes C(A), qui est égal à Im(A), sous espace de Rn ,
2) l’espace des lignes L(A), qui est égal à Im(At ) sous espace de Rp ,
3) le noyau Ker(A), sous espace de Rp .
On introduit de plus le noyau de la transposée, Ker(At ), qui est un sous espace de Rn .
On peut établir des relations importantes entre ces différents espaces.
On a déjà vu que dim C(A) = dim L(A) = r ≤ n (c’est une réécriture du fait qu’une matrice et sa transposée
ont même rang).
Avec les résultats qu’on a déjà obtenus, on peut facilement obtenir une relation entre les dimensions de Ker(A) et
Im(A).
Théorème 4.39 (Théorème du rang, version matricielle) Soit A ∈ Mn,p (K). Alors
dim(Ker(A)) + dim(Im(A)) = p.
Démonstration : Ce résultat est une conséquence du fait que les solutions spéciales forment une base de Ker(A),
ce qu’on a démontré à la proposition 3.23 (sans utiliser le mot “base” car à l’époque on n’avait pas introduit les
bases).
En effet, on sait que si r est le rang de A, il existe p − r solutions spéciales formant une base de Ker A. On
rappelle que les r colonnes pivotales de A forment une base de Im(A) et qu’on a dim Im(A) = r. On a donc
dim Ker A + dim Im(A) = p − r + r = p.
Définition 4.40 (Orthogonalité) On dit que deux sous espaces F et G de Rp sont orthogonaux si pour tout u ∈ F
et v ∈ G, u · v = 0.
Un vecteur x de Ker(A) est orthogonal à n’importe quelle ligne de A car Ax = 0, ce qui est équivalent à dire
que `i (A) · x = 0 pour i = 1, . . . , n.
Proposition 4.41 (Somme de sous espaces orthogonaux) Soient F et G de Rn des sous espaces orthogonaux
de Rp , alors ils sont en somme directe. On parle dans ce cas de somme directe orthogonale.
Théorème 4.42 (Orthogonalité de Ker(A) et Im(At )) Soit A ∈ Mn,p (R). Alors les ensembles Ker(A) et Im(At )
sont des sous espaces vectoriels supplémentaires orthogonaux de Rp .
De plus, les ensembles Ker(At ) et Im(A) sont des sous espaces vectoriels supplémentaires orthogonaux de Rn .
Démonstration : On a déjà vu que tout vecteur x ∈ Ker(A) est orthogonal à n’importe quelle ligne de A car
Ax = 0. Donc les sous espaces Ker(A) et L(A) = Im(At ) sont orthogonaux, et leur intersection réduite à {0E }.
De plus dim Im(At ) = dim Im(A) = r, et donc par le théorème du rang, dim Ker(A) + dim Im(At ) = p. On en
déduit par la proposition 4.38 que Ker(A) et Im(At ) sont des sous espaces vectoriels supplémentaires dans Rp .
Par transposition, on obtient immédiatement que les ensembles Ker(At ) et Im(A) sont des sous espaces vectoriels
supplémentaires orthogonaux de Rn .
Les applications de ce théorème sont multiples. Pour l’instant, nous remarquerons simplement que si x ∈ Rn ,
alors x se décompose de manière unique en x = xK + xL , où xK ∈ Ker(A) et xL ∈ L(A). On a donc
Ax = AxK + AxL = AxL . Donc tout vecteur b ∈ Im(A) peut s’écrire comme AxL où xL ∈ L(A) On a
même unicité : tout vecteur b ∈ Im(A) peut s’écrire de manière unique comme AxL où xL ∈ L(A) ; en effet si
b = AxL = Ax0L , alors xL − x0L ∈ Ker(A). Or on sait que Ker(A) ∩ L(A) = {0E }. On en déduit xL − x0L = 0.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 80 Algèbre linéaire, Maths générales II
4.2. Sous espaces vectoriels supplémentaires, orthogonalité 4. Bases, dimension et sous-espaces
4.2.3 Les sous-espaces de Rp
Les droites dans Rp
On rappelle que les droites sont les sous espaces vectoriels de dimension 1, donc engendrés par un vecteur e ∈ Rp .
Ce sont aussi les noyaux de matrices à p colonnes et de rang p − 1. En effet, par le théorème du rang, si A est une
matrice de rang p − 1, son noyau est de dimension 1.
– L’ équation paramétrique d’une droite est {x = λe, λ ∈ R}, où e est une solution (spéciale, par exemple) du
système Ax = 0.
– Les équations cartésiennes de cette droite sont constituées de p − 1 équations linéaires qu’on peut par exemple
obtenir en écrivant Rx = 0, où R est la forme échelonnée de A, qui a n − 1 lignes non nulles.
Exemple 4.43 (Exemple dans R3 ) Les équations cartésiennes d’une droite sont données par
0
a a
ax + by + cz = 0
0 0 0 , avec b ∧ b0 6= 0.
ax + b y + c z = 0
c c0
Notons qu’une droite vectorielle est l’intersection de deux plans vectoriels distincts.
a b c
Les équations ci dessus peuvent être écrites sous la forme Ax = 0 avec A = 0 0 0 . La droite en question
a b c
est donc bien le noyau de A. Un vecteur directeur de cette droite est un vecteur qui est orthogonal aux deux lignes
de la matrice A ; il peut être obtenu en prenant par exemple le produit vectoriel
0 0
bc − cb0
a a
e = b ∧ b0 = ca0 − ac0 .
c c0 ab0 − ba0
x
Réciproquement on obtient facilement les équations cartésiennes à partir de l’équation paramétrique x = y =
z
α
λe = λ β : il suffit d’éliminer λ pour obtenir des équations cartésiennes de la droite.
γ
x ∈ F ⇔ x = λ1 f 1 + · · · + λp−1 f p−1 .
Proposition 4.45 (Droite et plan supplémentaires) Si F est un sous-espace vectoriel de Rp , alors F est un hy-
perplan si et seulement si il existe une droite D telle que F et D soient supplémentaires.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 81 Algèbre linéaire, Maths générales II
4.2. Sous espaces vectoriels supplémentaires, orthogonalité 4. Bases, dimension et sous-espaces
Exemple 4.46 (Le cas particulier d’un plan de R3 ) On consid ère le
plan (P) dans R3 d’équation : x − 2y −
3z = 0. Ceci peut encore s’écrire Ax = 0, où A = 1 −2 −3 . Cette matrice est sous forme totalement
échelonée (on l’a fait exprès...) Les solutions spéciales de Ax = 0 sont s1 = (2, 1, 0) et s2 = (3, 0, 1). Le plan
(P) est engendré par les vecteurs s1 et s2 L’équation paramétrique du plan est donc
x 2λ1 + 3λ2
x = λ1 s1 + λ2 s2 c.à. d. y = λ1 .
z λ2
Notons que si l’on connaît les vecteurs s1 et s2 qui engendrent le plan, on retrouve facilement l’équation du plan
en posant (a, b, c) = s1 ∧ s2 qui est orthogonal à s1 et s2 (le vérifier avec notre exemple).
4.2.4 Exercices
Exercice 111 (Suite de l’exercice 75 ) Soit la matrice :
1 1 2 −1
−1 0 1 0
A= 0 0 1 −1
0 1 0 1
Exercice 112 Donner un système d’équations pour caractériser la droite de R3 qui passe par 0 et qui a pour
vecteur directeur (2, −1, 4).
Même question avec le plan de R3 qui passe par 0 et qui a pour vecteurs directeurs (2, −1, 4) et (1, 2, 1).
Exercice 113 Soit F le sous-espace vectoriel de R3 engendré par les vecteurs (1, 1, 1), (1, 0, −1) et (4, 2, 0).
Quelle est la dimension de F ? Faire un dessin.
Trouver un supplémentaire de F dans R3 .
Exercice 115 Dans l’espace vectoriel R4 on considère le sous-espace vectoriel F engendré par les vecteurs
f 1 = (1, 0, 1, 0), f 2 = (1, 1, 0, 1) et f 3 = (1, 2, 0, 1). On considère aussi le sous-espace vectoriel G engendré
par g 1 = (1, 2, −1, 2), g 2 = (0, 0, 1, 0), g 3 = (1, 3, −2, 3) et g 4 = (0, 1, 0, 1). Vérifier que
Exercice 116 Déterminer si les sous-espaces vectoriels de R3 suivants sont supplémentaires, en somme directe :
F = {(x, y, z) tels que x + 2y + z = 0, x − z = 0} et G = Vect{(1, a, b)}, selon le choix de a, b ∈ R.
F = Vect{(1, 2, −1), (1, 0, 1)} et G = Vect{(0, 1, 2)}.
F = {(x, y, z) tels que x + 2y + z = 0} et G = Vect{(1, 0, −1)}.
F = {(x, y, z) tels que x + 2y + z = 0} et G = Vect{(1, 2, 1)}.
Exercice 117 Soient x, y, u, v des éléments de R4 . On note F et G les sous-espaces vectoriels engendrés res-
pectivement par {x, y} et {u, v}. Dans quels cas a-t-on F ⊕ G = R4 ?
1. x = (1, 1, 0, 0), y = (1, 0, 1, 0), u = (0, 1, 0, 1), v = (0, 0, 1, 1)
2. x = (−1, 1, 1, 0), y = (0, 1, −1, 1), u = (1, 0, 0, 0), v = (0, 0, 0, 1)
3. x = (1, 0, 0, 1), y = (0, 1, 1, 0), u = (1, 0, 1, 0), v = (0, 1, 0, 1)
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 82 Algèbre linéaire, Maths générales II
4.2. Sous espaces vectoriels supplémentaires, orthogonalité 4. Bases, dimension et sous-espaces
Exercice 118 Soit F un sous-espace vectoriel de dimension 4 de l’espace vectoriel E = R7 .
1. Soit G un sous-espace vectoriel de F orthogonal à E. Quelles sont les dimensions possibles de G ?
2. Même question si maintenant G est un supplémentaire orthogonal à F .
3. Quelle est la plus petite taille possible d’une matrice A dont l’espace des lignes est F ?
4. Dans ce cas, combien de vecteurs a une base de KerA, et combien de composantes ont ces vecteurs de base ?
Exercice 120 (Noyau de At A) Soit A ∈ Mn,p (R). Montrer que Ker(At A) = Ker(A).
Exercice 121 (Base d’un hyperplan) Soit P l’hyperplan de R4 déquation x1 + x2 + x3 + x4 = 0. Donner une
base de P et une base de la droite orthogonale à P .
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 83 Algèbre linéaire, Maths générales II
4.2. Sous espaces vectoriels supplémentaires, orthogonalité 4. Bases, dimension et sous-espaces
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 84 Algèbre linéaire, Maths générales II
Chapitre 5
Applications linéaires
On remarque tout de suite que si T est une application linéaire, alors T (0E ) = 0F ; en effet, T (0E ) = T (0K x) =
0K T (x) = 0F .
L’application (
E →E
IdE :
x 7→ x
est une application linéaire appelée l’identité.
Exemple 5.2 (Produit scalaire et norme) Soit a ∈ R2 fixé, alors l’application de R2 dans R définie par u 7→
u · a est une application linéaire. Par contre, l’application u 7→ kuk ne l’est pas.
Exemple 5.3 (Transposition) L’application de M2 (R) dans M2 (R) définie par A 7→ At est une application
linéaire.
Exemple 5.4 (Dérivation et intégration) L’application “d’erivation” de C 1 ([0, 1]) dans C([0, 1]) définie par
f 7→ f 0 est 1
R x une application linéaire. De même l’application “intégration” de C([0, 1]) dans C ([0, 1]) d’efinie
par f 7→ 0 f (y)dy est une application linéaire.
Proposition 5.5 (Propriétés de linéarité) Soient E et F deux K-espaces vectoriels et T : E → F . une appli-
cation de E dans F . Alors T est une application linéaire de E dans F si et seulement si, pour tous λ, µ ∈ K, et
x, y ∈ E, T (λx + µy) = λT (x) + µT (y).
De plus, si E est de dimension finie, (e1 , . . . , en ) une base de E et T une application linéaire de E dans F ,
alors pour tout x ∈ E, on a T (x) = x1 T (e1 ) + . . . xN T (eN ) où les xi sont les composantes de x dans la base
(e1 , . . . , en ).
85
5.1. Définitions et exemples 5. Applications linéaires
Proposition 5.6 (L’espace vectoriel L(E, F )) Soient E, F des K-espaces vectoriels. L’ensemble L(E, F ) est un
espace vectoriel. En particulier,
– la somme de deux applications linéaires est une application linéaire :
si S, T ∈ L(E, F ), alors S + T ∈ L(E, F ),
– Le produit d’une application linéaire par un scalaire est une application linéaire :
si T ∈ L(E, F ) et α ∈ K, alors αT ∈ L(E, F ).
Démonstration : On va montrer que L(E, F ) est un espace vectoriel est un sous espace vectoriel de l’ensemble
des applications de E dans F . On remarque que l’application nulle (x ∈ E 7→ 0F ) est bien un élément de
L(E, F ).
– Soient x, y ∈ E et λ, µ ∈ K et S, T ∈ L(E, F ). On a
(S+T )(λx+µy) = S(λx+µy)+T (λx+µy) = λS(x)+µS(y)+λT (x)+µT (y) = (S+T )(x)+λ(S+T )(y).
(αT )(λx + µy) = αT (λx + µy) = µ (λT (x) + µT (y)) = λ(αT )(x) + µ(αT )(y).
Proposition 5.7 (Composée de deux applications linéaires) Soient E, F, G trois K-espaces vectoriels. La com-
posée de deux applications linéaires est une application linéaire : si S ∈ L(F, G), T ∈ L(E, F ), alors S ◦ T ∈
L(E, G) avec S ◦ T (x) = S(T (x)), ∀x ∈ E.
S◦T (λx+µy) = S (T (λx + µy)) = S λ T (x) +µ T (y) = λS(T (x))+µS(T (y)) = λS◦T (x)+µS◦T (y).
| {z } | {z }
∈F ∈F
Proposition 5.9 Soient E et F deux K-espaces vectoriels. Soit T une application linéaire de E dans F . L’espace
KerT est un sous-espace vectoriel de E et l’espace ImT est sous-espace vectoriel de F .
Démonstration :
– On sait que T (0E ) = 0F . Donc 0E ∈ KerT . Pour montrer que KerT est un sous-espace vectoriel de E, il reste
donc à montrer que pour tous x, y ∈ KerT , λ, µ ∈ K, on a λx + y ∈ KerT .
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 86 Algèbre linéaire, Maths générales II
5.1. Définitions et exemples 5. Applications linéaires
– Soient y 1 , y 2 ∈ ImT ⊂ F . Il existe x1 , x2 ∈ E tels que y 1 = T (x1 ) et y 2 = T (x2 ). On remarque alors que
Donc λy 1 + µy 2 ∈ ImT .
Définition 5.10 Soit E et F deux K-espaces vectoriels. Soit T une application linéaire de E sur F . On appelle
rang de T la dimension de l’espace vectoriel Im(T ) et on le note rg(T ).
On donne maintenant le théorème du rang pour les applications linéaires. Il peut se démontrer à partir de celui
sur les matrices (voir remarque 5.18 plus loin) mais on donne ici une démonstration directe, sans passer par les
matrices.
Théorème 5.11 (Théorème du rang) Soient E, F deux K-espaces vectoriels de dimension finie et T ∈ L(E, F ),
on a
dim(E) = dim(Ker(T )) + dim(Im(T )).
Démonstration : Soient (u1 , . . . , up ) une base de ker T et (w1 , . . . , wq ) une base de Im(T ). On veut montrer
que p + q = dim(E). Soient v 1 , . . . , v q ∈ E les antécédents de w1 , . . . , wq par T : T (v i ) = wi . Montrons que
la famille (u1 , . . . , up , v 1 , . . . , v q ) est une base de E. Si c’est le cas on aura bien montré que p + q = dim(E).
– Montrons que la famille (u1 , . . . , up , v 1 , . . . , v q ) est libre. Supposons α1 u1 +. . .+αp up +β1 v 1 +. . .+βq v q =
0E . On a alors
p q p q
!
X X X X
T αi ui + βi ui = αi T (ui ) + βi T (v i ) = 0F ,
i=1 i=1 i=1 i=1
et comme T (ui ) = 0F et T (v i ) = wi ,
q
X
βi wi = 0F ,
i=1
Mais (w1 , . . . , wq ) est une base de Im(T ), c’est donc une famille libre. On en déduit βi = 0 pour tout i =
1, . . . , q. On écrit alors que α1 u1 + . . . + αp up = 0E , et comme la famille (u1 , . . . , up ) est libre, on a aussi
α1 = . . . = αp = 0.
– Montrons maintenant que Pla famille (u1 , . . . , up , v 1 , . . . , v q ) est génératrice. Soit x ∈ E, et y = T (x) ∈
q
Im(T ). On a donc y = i=1 γi wi , où les sont les γi sont les composantes de y dans la base (w1 , . . . , wq ).
Posons alors
X q
xI = γi v i et xK = x − xI .
i=1
Par linéarité, on a
q
X q
X
T (xK ) = T (x) − T (xI ) = y − γi T (v i ) = y − γi wi = 0F ,
i=1 i=1
Proposition 5.12 Soit E et F deux K-espaces vectoriels. Soit T une application linéaire de E dans F .
– L’application T est injective si et seulement si KerT = {0E }.
– L’application T est surjective si et seulement si ImT = F .
– L’application T est bijective si et seulement si KerT = {0E } et ImT = F . On parle alors d’ isomorphisme,
et d’ automorphisme si F = E.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 87 Algèbre linéaire, Maths générales II
5.1. Définitions et exemples 5. Applications linéaires
Démonstration :
– L’application T est injective si et seulement si pour tous x, y ∈ E tels que T (x) = T (y) alors x = y, c.à.d.
si et seulement si T (x − y) = 0F implique x − y = 0E , soit encore si et seulement si T (z) = 0F implique
z = 0E , ce qui équivaut à KerT = {0E }.
– L’application T est surjective si et seulement si pour tout y ∈ F , il existe x ∈ E tel que T (x) = y, c.à.d. si et
seulement si F = ImT .
– Par conséquent, T est bijective si et seulement si KerT = {0E } et ImT = F .
5.1.3 Exercices
Exercice 122 (Applications linéaires ou non ?) 1. Déterminer parmi les applications définies de R2 → R sui-
vantes, celles qui sont linéaires :
1. Π1 (x, y) = x, Π2 (x, y) = y,
2. T1 (x, y) = xy, T2 (x, y) = x + y, T3 (x, y) = x + y + 1, T4 (x, y) = x2 − y 2 ,
3. T5 (x, y) = |x + y|, T6 (x, y) = sin x, T7 (x, y) = x − 3y.
2. Déterminer parmi les applications définies de R2 → R2 suivantes, celles qui sont linéaires : S1 (x, y) = (y, x),
S2 (x, y) = (x, y 2 ) , S3 (x, y) = (1, x).
Exercice 123 (Applications R2 dans R2 ) Parmi les applications T de R2 dans R2 ou dans R suivantes, quelles
sont celles qui satisfont T (λx) = λT (x), et quelles sont celles qui satisfont T (x + y) = T (x) + T (y) ?
x
T (x) = T (x) = x1 + x2 T (x) = (2x1 , 3x2 ) T (x) = max(x1 , x2 )
kxk
Exercice 124 (Application linéaire dans R2 ) Soit T une application linéaire de R2 dans R2 telle que T (1, 1) =
(2, 2), T (2, 0) = (0, 0). Déterminer T (u) pour les vecteurs u suivants :
Exercice 125 Dans R3 vérifier que les vecteurs suivants forment une base :
Trouver les images de la base canonique par l’application linéaire T : R3 → R définie par :
Exercice 126 (Composition d’applications linéaires) Soient S et T les deux applications linéaires de R2 dans
R2 définies par :
S(x, y) = (4x − y, x − y) et T (x, y) = (x + y, 2x − y).
Calculer S ◦ T et T ◦ S. Et vérifier (rapidement !) que ces applications sont linéaires.
Exercice 127 Soient S et T les deux applications linéaires de R2 dans R2 définies par :
Montrer que ce sont des automorphismes de R2 (c.à.d. des applications linéaires bijectives de R2 dans R2 ).
Exercice 128 (Linéarité et continuité) Vérifier qu’une application linéaire de R dans R est continue.
Soit T une application continue de R dans R telle que :
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 88 Algèbre linéaire, Maths générales II
5.2. Applications linéaires et matrices 5. Applications linéaires
Exercice 129 (Noyau et image d’applications linéaires) Pour chacune des applications linéaires T suivantes,
répondre aux questions suivantes :
1. Vérifier que l’application T est linéaire.
2. Déterminer le noyau et l’image de T . Donner la dimension et une base de chacun des sous-espaces.
Exercice 130 (Image réciproque) Déterminer l’application linéaire T : R3 −→ R2 telle que, si e1 , e2 , e3 dési-
gnent les vecteurs de la base canonique, on ait :
Proposition 5.15 Soient E, F , G trois K-espaces vectoriels de dimension finie. On se donne B = (e1 , . . . , ep )
une base de E, B 0 = (f 1 , . . . , f n ) une base de F et B 00 = (B 0 = (g 1 , . . . , g q )) une base de G. Soit R ∈ L(E, F ),
S ∈ L(E, F ), T ∈ L(F, G) et λ ∈ K. On a
1. MB,B0 (R + S) = MB,B0 (R) + MB,B0 (S).
2. MB,B0 (λR) = λMB,B0 (R).
3. MB,B00 (T ◦ R) = MB0 ,B00 (T ) · MB,B0 (R).
Corollaire 5.16 Soient E, F deux K-espaces vectoriels de même dimension n, B une base de E, B 0 une base de
F, et T ∈ L(E, F ) inversible. Alors
−1
MB0 ,B (T −1 ) = (MB,B0 (T )) .
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 89 Algèbre linéaire, Maths générales II
5.2. Applications linéaires et matrices 5. Applications linéaires
Démonstration : Pour le sens direct, on applique la proposition précédente : on a Idn = MB (IdE ) = MB (T ◦
−1
T −1 ) = MB (f ) · MB (f −1 ). Pour la réciproque, soit S ∈ L(F, E) telle que MB0 ,B (S) = (MB,B0 (T )) (l’exis-
tence de S est assurée par la Proposition 5.14). On a alors MB,B (T ◦ S) = MB0 ,B (S)MB,B0 (t) = Idn . Par la Pro-
position 5.14), le seul endomorphisme de matrice Idn dans la base B est l’application identité. Donc S ◦ T = IdE .
De même, T ◦ S = IdF . Donc T est inversible.
Lemme 5.17 Soient E et F des espaces vectoriels de dimensions respectives p et n, et T une application linéaire
de E dans F . Soient B = (e1 , . . . , ep ) une base de E, B 0 = (f 1 , . . . , f n ) une base de F et A la matrice de T
dans les bases B et B 0 . Alors dim(Ker(A)) = dim(Ker(T )) et rg(A) = rg(T ).
Démonstration : Montrons par exemple la première égalité. Soit (s1 , . . . , sq ) une base de Ker(A) et notons
Xj = (s1,j , . . . , sp,j ) ∈ Rp pour P
1 ≤ j ≤ q, où les scalaires s1,j sont les composantes de sj dans la base
n
canonique de Rp . On définit aj := i=1 si,j ei pour 1 ≤ j ≤ q. Alors pour tout x = (x1 , . . . , xp ) ∈ Rp , on a
p
X n X
X p
Ax = 0 ⇔ ∀i = 1, . . . , n, ai,j xj = 0 ⇔ ( ai,j xj )f i = 0
j=1 i=1 j=1
p X
X n p
X Xp
⇔ ( ai,j f i )xj = 0 ⇔ xj T (ej ) = 0 ⇔ T ( xj ej ) = 0. (5.2.2)
j=1 i=1 j=1 j=1
Pp
Donc x ∈ Ker(A) ssi T (a) = 0 avec a = j=1 xj ej . En particulier, la famille (a1 , . . . , aq ) est contenue dans
Pq Pq
Ker(A). On vérifie comme ci-dessus que si λ1 , . . . , λq ∈ K, alors i=1 λi si = 0 ssi i=1 λi ai = 0. Donc
p
Pp argument, pour tout x = (x1 , . . . xp ) ∈ R , (s1 , . . . , sq , x) est
la famille (a1 , . . . , aq ) est libre. Par le même
libre ssi (a1 , . . . , aq , a) est libre, où a = i=1 xi ei . On en déduit que la famille (a1 , . . . , aq ) est génératrice
de Ker(A). Finalement, (a1 , . . . , aq ) est une base de Ker(A), donc dim(Ker(A)) = q. On montre de même que
dim(Im(A)) = dim(Im(T )). Le théorème est démontré.
Remarque 5.18 (Théorèmes du rang pour les applications linéaires et pour les matrices) Par le lemme pré-
cédent, on démontre facilement le théorème du rang pour les applications linéaires (théorème 5.11), à partir du
théorème du rang pour les matrices. En effet, supposons que T est une application linéaire de E dans F , et soient
B = (e1 , . . . , ep ) une base de E, B 0 = (f 1 , . . . , f n ) une base de F et A la matrice de T dans les bases B et B 0 ;
alors, par le théorème 4.39 on a : dim(E) = dim(Ker(A)) + rg(A). On en déduit par le lemme ci-dessus que
dim(E) = dim(Ker(T )) + rg(T ).
Les colonnes de la matrice de passage de B à B 0 sont constitués des coordonnées des éléments de B 0 dans la base
−1
B. Par le Corollaire 5.16, on a PB,B0 = (PB0 ,B ) .
Théorème 5.21 Soit E un K-espace vectoriel, B et B 0 deux bases de E et T ∈ L(E), alors si PB,B0 désigne la
matrice de passage de la base B à la base B 0 , on a
−1
MB0 (T ) = PB,B 0 MB (T )PB,B 0 = PB 0 ,B MB (T )PB,B 0 .
On a aussi
−1
MB,B0 (T ) = PB,B 0 MB (T ) = PB 0 ,B MB (T ) et MB,B 0 (T ) = MB 0 (T )PB 0 ,B .
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 90 Algèbre linéaire, Maths générales II
5.2. Applications linéaires et matrices 5. Applications linéaires
MB0 (T )
(E, B 0 )
T / (E, B 0 ) ⇔ (E, B 0 ) / (E, B 0 )
O O
−1
IdE IdE PB,B0 PB,B 0 =PB0 ,B
(E, B) / (E, B) (E, B) / (E, B)
T MB (T )
MB,B0 (T )
(E, B)
T / (E, B 0 ) ⇔ (E, B) / (E, B 0 )
u: u:
uuu uuu
u u
T
uu MB (T )
uu
uu IdE uu PB0 ,B
(E, B) (E, B)
5.2.3 Exercices
Exercice 132 (Changement de base) Dans R3 , on considère les vecteurs
1. Soit T une application linéaire T telle que T (a) = (2, 3, −1), T (b) = (3, 0, −2), T (c) = (2, 7, −1). Pour
(x, y, x) ∈ R3 , exprimer T (x, y, z) en fonction de (x, y, z).
2. Même question pour l’application linéaire T̃ telle que T̃ (a) = 2a−2b, T̃ (b) = 2c, T̃ (c) = a−b−c.
3. Déterminer le noyau et l’image de ces deux applications linéaires ainsi que des bases de ces sous espaces.
Trouver une base de Ker(T ). Déterminer un supplémentaire de Ker(T ) dans R3 et vérifier qu’il est isomorphe
à Im(T ) (c.à.d qu’il existe un isomorphisme, i.e. une application linéaire bijective du supplémentaire de Ker(T )
dans Im(T ))
Exercice 134 (Famille d’applications linéaires de R3 ) Soit m un paramètre réel. On considère l’endomorphisme
Tm de R3 (c.à.d. une application linéaire de R3 dans R3 ) defini par Tm (x, y, z) = (X, Y, Z) avec :
X = (m − 2)x + 2y − z
Y = 2x + my + 2z
Z = 2mx + 2(m + 1)y + (m + 1)z
Montrer que le rang de Tm est égal à 3 sauf pour des valeurs particulières de m que l’on déterminera. Pour ces
valeurs particulières, préciser la valeur du rang et donner les équations cartésiennes des sous espaces Ker(Tm )
et Im(Tm ) ainsi que des bases de chacun d’eux.
Exercice 135 (Application linéaire sur un espace des matrices) Soit E l’espace vectoriel des matrices réelles
2 × 2.Dans cetespace on considère le vecteur (au sens élément de l’espace vectoriel, qui est donc ici une matrice)
1 1
P = .
1 1
On va considérer l’endomorphisme S de E (application linéaire de E dans E) donné par la multiplication (à
gauche) par P . C’est à dire T (A) = P A. (Vérifier que c’est bien une application linéaire).
On rappelle que la base canonique de E est l’ensemble des matrices :
1 0 0 1 0 0 0 0
B = M1 = , M2 = , M3 = , M4 =
0 0 0 0 1 0 0 1
Quelles sont les images des matrices Mi par l’application T ? En déduire alors la matrice de l’application T dans
la base B (qui est donc une matrice 4 × 4 ; pourquoi ?)
Faire la même chose pour l’endomorphisme T̃ de E qui est la multiplication à droite par P .
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 91 Algèbre linéaire, Maths générales II
5.3. Applications linéaires remarquables : formes linéaires, projecteurs 5. Applications linéaires
Matrice d’une application linéaire, changement de bases
Exercice 136 (Changements de base) On considère l’application linéaire T : R2 → R2 définie par T (x1 , x2 ) =
(x2 , x1 ).
1. Ecrire la matrice A de l’application linéaire T dans la base B = (e1 , e2 ) canonique.
2. (a) Montrer que la famille de vecteurs B 0 = (e01 , e02 ) avec e01 = (0, 1), e02 = (1, 0) est une base de R2 .
(b) Ecrire la matrice de passage P de la base B à la base B 0 et calculer son inverse P −1 .
(c) Ecrire la matrice A0 de l’application linéaire T dans la base B 0 .
(d) Vérifier que A0 = P −1 AP .
3. Mêmes questions avec la famille de vecteurs B 00 = (e001 , e002 ) avec e01 = (1, 1), e002 = (1, −1)
Proposition 5.23 Soit E un K-espace vectoriel de dimension n. Pour toute base B, la matrice d’une homothétie
Tλ de rapport λ est donnée par
MB (Tλ ) = λIdn .
Démonstration : Il suffit d’écrire que pour tout élément e de la base B, H(e) = λe.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 92 Algèbre linéaire, Maths générales II
5.3. Applications linéaires remarquables : formes linéaires, projecteurs 5. Applications linéaires
5.3.2 Formes linéaires
Définition 5.24 Soit E un K-espace vectoriel. On appelle forme linéaire sur E, une application de L(E, K).
Proposition 5.25 Soit E un K-espace vectoriel et T une forme linéaire sur E. Soit B = (e1 , . . . , en ) une base
de E, il existe (α1 , . . . αn ) ∈ Kn tel que pour tout x = x1 e1 + · · · + xn en on ait
T (x) = α1 x1 + · · · + αn xn .
Notons que si K = R, f (x) est le produit scalaire dans Rn des deux vecteurs (α1 , . . . , αn ) et (x1 , . . . , xn ).
Attention de ne pas confondre le vecteur x ∈ E et le vecteur (x1 , . . . , xn ) ∈ Rn .
Proposition 5.26 Soit E un K-espace vectoriel de dimension n et T une forme linéaire non nulle sur E. On a
dim(Im(T )) = 1 et dim(Ker(T )) = n − 1.
Démonstration : On sait que Im(T ) est un sous-espace vectoriel de K non réduit à {0}. Par conséquent Im(T ) =
K. On en déduit que dim(Im(T )) = 1 et par le théorème du rang que dim(Ker(T )) = n − 1
Ainsi, le noyau d’une forme linéaire non nulle sur E est un hyperplan de E. Réciproquement, si F est un hyperplan
de E, il existe une forme linéaire non nulle sur E dont le noyau est F .
3
Exemple 5.27 (Forme linéaire de R ) La forme linéaire définie par T (x, y, z) = x + y + z peut aussi s’écrire
Ax = 0 avec A = 1 1 1 et x = (x, y, z) et on a déjà vu que le noyau de A est l’hyperplan d’équation
x + y + z = 0. La forme linéaire T a donc aussi pour noyau le plan P d’équation x + y + z = 0.
5.3.3 Projecteur
Définition 5.28 Soit E un K-espace vectoriel. On dit que p ∈ L(E) est un projecteur si p ◦ p = p.
Démonstration : Soit x ∈ E on peut écrire x = p(x)+x−p(x). Il est clair que p(x) ∈ Im(p) et x−p(x) ∈ Ker(p)
car p(x − p(x)) = p(x) − p2 (x) = 0. On en déduit que Im(p) + Ker(p) = E. Soit x ∈ Ker(p) ∩ Im(p), on a
x = p(y) et p(x) = 0 ou encore p(p(y)) = p(y) = 0 = x. On en déduit que Im(p) et Ker(p) sont supplémentaires
dans E. De plus, si x ∈ Im(p), x = p(y) et p(x) = p2 (y) = p(y) = x. Donc p|Im(p) = IdIm(p) .
Exemples dans R3
– Projection p sur une droite D de vecteur directeur f 1 : dim(Im(T )) = 1. Il existe alors deux vecteurs f 2 , f 3
linéairement indépendants de Ker(p) tel que B 0 = (f 1 , f 2 , f 3 ) soit une base de R3 . De plus
1 0 0
MB0 (p) = 0 0 0 .
0 0 0
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 93 Algèbre linéaire, Maths générales II
5.3. Applications linéaires remarquables : formes linéaires, projecteurs 5. Applications linéaires
Exemple 5.30 si f 1 = (1, −1, 0), f 2 = (0, 1, 1) f 3 = (1, 0, −1), la matrice de cette projection dans la base
canonique est donnée par
1 −1 1
1
MB (p) = −1 1 −1 .
2
0 0 0
En effet, MB (p) = PB,B0 MB0 (p)PB0 ,B avec
1 0 1 1 −1 1
−1 1
PB,B0 = −1 1 0 et PB0 ,B = (PB,B0 ) = 1 1 1 .
2
0 1 −1 1 1 −1
– Projection p sur un plan P parallèlement à une droite D. On note (f 1 , f 2 ) une base de P et f 3 un vecteur
directeur de D. La famille B 0 = (f 1 , f 2 , f 3 ) est alors une base de R3 et
1 0 0
MB0 (p) = 0 1 0 .
0 0 0
Exemple 5.31 si f 1 = (1, −1, 0), f 2 = (0, 1, 1) f 3 = (1, 0, −1), la matrice de cette projection dans la base
canonique est donnée par
1 −1 1
1
MB (p) = 0 2 0 .
2
1 1 1
5.3.4 Symétrie
Définition 5.32 Soit E un K-espace vectoriel. On dit que S ∈ L(E) est une symétrie si S ◦ S = Id.
Exemples dans R3
– Symétrie S par rapport à un plan P parallèlement à une droite D. On note (f 1 , f 2 ) une base de P et f 3 un
vecteur directeur de D. La famille B 0 = (f 1 , f 2 , f 3 ) est alors une base de R3 et
1 0 0
MB0 (S) = 0 1 0 .
0 0 −1
Exemple 5.33 si f 1 = (1, −1, 0), f 2 = (0, 1, 1) f 3 = (1, 0, −1), la matrice de cette projection dans la base
canonique est donnée par
0 −1 1
MB (S) = 0 1 0 .
1 1 0
– On remarquera que −S est alors la symétrie par rapport à la droite D parallèlement au plan P.
5.3.5 Exercices
Exercice 139 (Homothétie) Soit E un K-espace vectoriel et a ∈ K donné. On considère l’homothétie de rapport
a Ha : E → E définie par Ha (x) = ax, ∀x ∈ E.
1. Vérifier que Ha ∈ L(E).
2. Montrer que Ha est un automorphisme de E si et seulement si a 6= 0. Calculer alors Ha−1 .
3. Calculer Ha ◦ Hb , avec β ∈ K.
Exercice 140 (Homothétie) Soient E un espace vectoriel et T un endomorphisme de E. Montrer que, si la famille
{x, T (x)} est liée pour tout x ∈ E alors T est une homothétie, c’est-à-dire il existe λ ∈ R tel que T (x) = λx
pour tout x ∈ E.
Exercice 141 (Endomorphisme nilpotent) Soit E un espace vectoriel et T un endomorphisme de E tel queT 2 =
0.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 94 Algèbre linéaire, Maths générales II
5.3. Applications linéaires remarquables : formes linéaires, projecteurs 5. Applications linéaires
1. Montrer que Im(T ) ⊂ Ker(T ).
2. Montrer que IdE + T est un automorphisme de E.
Exercice 142 (CNS pour un projecteur) Soit T une application linéaire du R−espace vectoriel E sur lui-même.
Montrer que T 2 = Id si et seulement si 12 (T + IdE ) est un projecteur.
Exercice 143 (Image d’un projecteur) Soient p et q deux projecteurs de E un K-e.v. Montrer que p et q ont
même image si et seulement si p ◦ q = q et q ◦ p = p. Donner une condition nécessaire et suffisante pour que p et
q aient même direction, c.a.d. même noyau.
Exercice 144
1. Soit T une application linéaire sur E de dimension finie. Montrer que les propriétés (1) à (3) sont équiva-
lentes.
Indications : Si vous souhaitez montrer (2) ⇒ (1) vous pourrez considérer la restriction de T au sev Im(T ).
Si vous souhaitez montrer (2) ⇒ (3) il peut être utile d’utiliser la formule du rang.
2. Donner un exemple d’application linéaire T vérifiant Im T = Im T 2 et qui ne soit pas un projecteur.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 95 Algèbre linéaire, Maths générales II
5.3. Applications linéaires remarquables : formes linéaires, projecteurs 5. Applications linéaires
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 96 Algèbre linéaire, Maths générales II
Chapitre 6
Déterminants
Le déterminant d’une matrice carrée est un nombre réel ou complexe, selon que l’on considère les matrices réelles
ou complexes. Il n’est défini que pour les matrices carrées. C’est donc une application de Mn (K) dans K. On a
déjà défini le déterminant (définition 1.11) d’une matrice carrée d’ordre 2.
a b a b
Si A = son déterminant est det(A) = = ad − bc.
c d c d
De plus, on a vu qu’une matrice 2 × 2 est inversible (exercice 43) si et seulement si det(A) 6= 0, et dans ce cas
son inverse est
−1 1 d −b
A = .
det(A) −c a
En fait, le déterminant est un excellent test pour l’inversibilité des matrices ; dans le cas général d’une matrice
A ∈ , on aura : Certains d’entre vous ont peut-être déjà vu des formules donnant le déterminant d’une matrice
carrée d’ordre n, soit par une formule de récurrence, soit par une formule portant sur les permutations.
Nous les verrons par la suite, mais, pour plus de clarté, nous allons commencer par définir le déterminant par trois
propriétés fondamentales, desquelles découlent toutes les autres.
Théorème 6.1 (Existence et unicité) Il existe une unique application de Mn,n (K) dans K qui vérifie (D1), (D2)
, (D3).
97
6.1. Propriétés du déterminant 6. Déterminants
Nous démontrerons plus loin que l’on peut construire une application qui vérifie ces propriétés.
On note souvent pour A = (ai,j ) ∈ Mn (K)
(D5) Le déterminant de A ne change pas si on ajoute à une ligne de A le produit par λ d’une autre ligne de A.
On en dd́uit que si U est une matrice triangulaire obtenue à partir de A par élimination de Gauss sans
permutation, alors det(A) = det(U ).
Démonstration : On suppose que n ≥ 2. Soit λ ∈ K et A, A0 ∈ Mn (K). On suppose qu’il existe i0 et j0
tel que i0 6= j0
`i = `0i , ∀i 6= i0 et `0i0 = `i0 + λ`j0 ,
on veut montrer que
det(A) = det(A0 ).
On considère A00 la matrice telle que pour tout i 6= i0 , `00i = `i et `00i0 = `j0 . D’après le corollaire précédent,
on a det(A00 ) = 0. On multiplie maintenant cette ligne `00i0 par λ, la matrice obtenue A(3) est toujours de
déterminant nul par la propriété (D3a). On utilise maintenant la propriété (D3b) pour les matrices A, A0 et
A(3) et on obtient que det(A) = det(A0 ) + det(A(3) ) = det(A0 ).
(D6) Si la matrice A a une ligne nulle, alors detA = 0. Démonstration : Ceci découle de la propriété (D3a) en
prenant t = 0.
Qn
(D7) Si U est une matrice triangulaire, alors detU = i=1 di , où les di sont les termes diagonaux.
Démonstration : à faire. . .
(D9) Si A et B sont deux matrices carrées d’ordre n, alors det(AB) = det(A)det(B). En particulier, si A est
inversible, det(A−1 ) = det(A)
1
.
Démonstration : à faire. . .
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 98 Algèbre linéaire, Maths générales II
6.2. Définition par des formules 6. Déterminants
Par (D3b), en décomposant a b = a 0 + 0 b , on a
a b a 0 0 b
= + .
c d c d c d
En faisant la même chose pour la deuxième ligne, on a :
a b a 0 a 0 0 b 0 b
= + + + .
c d c 0 0 d 0 d c 0
a 0 a c a 0 1 0
Par les propriété (D10) et (D6), = = 0. Par les propriétés (D3a) et (D1), = ad = ad.
c 0 0 0 0 d 0 1
On obtient donc finalement :
a b
= ad − bc.
c d
Notons qu’on n’a eu aucun choix lors de cette construction, qui est donc unique.
6.1.4 Exercices
Exercice 145 (Propriétés fondamentales du déterminant)
1. Montrer que les propriétés (D1) (D2) (D3) sont bien vérifiées par le déterminant des matrices 2 × 2 .
a b
2. Soit δ l’application de M2 (R) dans R définie par δ(A) = ad + bc si A = . Montrer que δ vérifie
c d
les proprétés (D1) et (D3) mais pas (D2).
1−a 1 1
Exercice 147 (Opérations sur les lignes) Expliquer comment trouver que 1 1−a 1 = a2 (3 − a)
1 1 1−a
en effectuant des opérations sur les lignes et les colonnes.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 99 Algèbre linéaire, Maths générales II
6.2. Définition par des formules 6. Déterminants
Proposition 6.2 (Déterminant par la formule du pivot) Soit A une matrice inversible et detA défini par le théo-
rème ??. alors :
1. Si A est non inversible, detA = 0.
Qn
2. Si A est inversible, detA = ± i=1 di où les di sont les pivots, et le signe est le déterminant de la matrice
de permutation P telle que P A = LU .
Cette proposition est très importante. En effet, c’est de cette manière qu’est implémenté le calcul de déterminant
dans n’importe quel logiciel raisonnable. Les formules que nous allons voir par la suite, si elles ont bien sûr leur
intérêt mathématique, ne permettent pas d’aboutir à des calculs pour des déterminants de “grosses” matrices en un
temps raisonnable.
où ε(α, β, . . . , ω) est le signe de la permutation, c.à.d. 1 si la permutation est paire (nombre pair déchanges par
rapport à l’identité) et -1 si la permutation est impaire (nombre impair déchanges par rapport à l’identité).
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 100 Algèbre linéaire, Maths générales II
6.2. Définition par des formules 6. Déterminants
avec
a a2,3 a a2,3 a a2,2
M1,1 = 2,2 , M1,2 = 2,1 et M1,3 = 2,1 .
a3,2 a3,3 a3,1 a3,3 a3,1 a3,2
La matrice M1,1 (resp. M1,2 ,M1,3 ) est donc une matrice 2 × 2 obtenue à partir de A en supprimant la ligne 1 et la
colonne 1 (resp. 2, 3). On écrit encore cette formule :
det(A) = a1,1 c1,1 + a1,2 c1,2 + a1,3 c1,3 , (6.2.5)
où ci,j est appelé cofacteur de ai,j est égal à (−1)i+j det(Mi,j ).
Si on reprend le cas des matrices 2 × 2 étudié au paragraphe précédent, on a la formule : det(A) = ad − bc =
a(d) + b(−c). le terme d est le cofacteur de a et le terme −c le cofacteur de b.
On va maintenant définir de manière plus génŕale le déterminant d’une matrice n×n par la formule des cofacteurs :
Proposition 6.3 (Formule des cofacteurs) Soit A = (ai,j ) ∈ Mn (K), on appelle déterminant de la matrice A
un élément de K, noté det(A) que l’on définit par récurrence de la façon suivante :
– Si n = 1 et A = (a), alors det(A) = a.
– Si n ≥ 2, alors
det(A) = a1,1 c1,1 + a2,1 c2,1 + · · · + an,1 cn,1 ,
où ci,j est le cofacteur associé au coefficient ai,j , défini par : ci,j = (−1)i+j ∆i,j = (−1)i+j det(Mi,j ) et
Mi,j ∈ Mn−1 (K) est la matrice obtenue à partir de la matrice A en supprimant la ième ligne et la j ème
colonne.
Ce déterminant satisfait les propriétés (D1)-(D2)-(D3).
Démonstration : Montrons que cette construction du déterminant vérifie bien les propriétés (D1)-(D2)-(D3).
(D1) Pour n = 1 on a bien det(Id) = 1. On en déduit que det(Idn ) = 1 par récurrence sur n grâce à la formule
des cofacteurs.
(D2) On montre le résultat par récurrence sur la dimension de la matrice. Soit A, A0 ∈ Mn (K). On suppose que
A0 est obtenue à partir de A par un échange de lignes. Plus précisément, on note `i , `0i les lignes respectives
de ces matrices, et on suppose qu’il existe i0 et j0 tel que i0 6= j0
`i = `0i , ∀i 6= i0 , j0 et `i0 = `0j0 , `j0 = `0i0 ,
On veut montrer que det(A) = −det(A0 ). On note ci,j les cofacteurs de la matrice A et c0i,j les cofacteurs
de la matrice A0 . Par définition, on a :
det(A0 ) = a1,1 c01,1 + a2,1 c02,1 + · · · + aj0 ,1 ci0 ,1 + · · · + ai0 ,1 cj0 ,1 + · · · + an,1 cn,1 .
Par hypothèse de récurrence, pour tout j 6= i0 , j0 , on a c0j,1 = −cj,1 . Par ailleurs, c0i0 ,1 = (−1)i0 +1 det(Mi00 ,1 )
où Mi00 ,1 est la matrice extraite de A0 lorsqu’on enlève la ligne i0 et la colonne 1. Mais les lignes de A0
sont égales à celles de A sauf les lignes i0 et j0 qui sont échangées. Donc Mi00 ,1 est aussi la matrice ob-
tenue à partir de A lorsqu’ on enlève la première colonne et la i0 ème ligne et qu’on remplace la ligne
`j0 par la ligne `i0 . Pour ramener cette ligne `i0 à sa position il faut alors faire j0 − i0 + 1 échanges
de lignes. Par hypothèse de récurrence, on a donc det(Mi00 ,1 ) = (−1)j0 −i0 +1 det(Mj0 ,1 ) De même on a
det(Mj00 ,1 ) = (−1)i0 −j0 +1 det(Mi0 ,1 ). On en déduit c0i0 ,1 = −cj0 ,1 et c0j0 ,1 = −ci0 ,1 . On en déduit le
résultat.
(D3a) Soit λ ∈ K. On veut montrer que i on multiplie par λ une ligne d’une matrice de Mn (K) alors son
déterminant est multiplié par λ.
On montre le résultat par récurence sur la taille de la matrice. Pour n = 2 le résultat est immédiat. On
suppose le résultat vrai pour toute matrice de taille n − 1. Soit A une matrice de taille n et Aλ = Di (λ)A.
On utilise la définition du déterminant pour calculer det(Di (λ)A). On a
Remarquons que ∆λi,1 = ∆i,1 et que ∆λj,1 = λ∆j,1 si j 6= i en utilisant l’hypothèse de réccurence. On en
déduit que
det(Di (λ)A) = λdet(A).
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 101 Algèbre linéaire, Maths générales II
6.2. Définition par des formules 6. Déterminants
(D3b) On considère trois matrices A, A0 , A00 ∈ Mn (K). On note `i , `0i , `00i les lignes respectives de ces matrices.
On suppose qu’il existe i0 tel que
det(A) = a1,1 ∆A A
1,1 − a2,1 ∆2,1 + · · · + (−1)
i0 +1
ai0 ,1 ∆A
i0 ,1 + · · · + (−1)
n+1
an,1 ∆A
n,1
0 00
Or ai0 ,1 = a0i0 ,1 + a00i0 ,1 , ∆A A A
i0 ,1 = ∆i0 ,1 = ∆i0 ,1 . De plus si i 6= i0 , en utilisant la récurrence on a
0 00
∆A A A
i,1 = ∆i,1 + ∆i,1 .
Démontrons maintenant quelques autres des propriétés directement par la formule des cofacteurs :
Proposition 6.4 (Propriété (D7)) Si A ∈ Mn (K) est une matrice triangulaire supérieure ou inférieure, alors le
déterminant de A est égal au produit des coefficients diagonaux de la matrice.
Démonstration : On montre le résultat par récurrence sur la taille de la matrice. Lorsque n = 2 le résultat est
immédiat. Supposons le résultat vrai pour toute matrice triangulaire de taille n − 1.
Si A est une matrice triangulaire supérieure de taille n. Comme ai,1 = 0 pour tout i ≥ 2 on a det(A) = a1,1 ∆1,1
avec ∆1,1 déterminant d’une matrice triangulaire supérieure de taille n − 1 dont les coefficients diagonaux sont
les coefficients diagonaux de A, ai,i pour i ≥ 2. D’où le résultat.
Si la matrice A est triangulaireQinférieure, la matrice A1,1 est une matrice triangulaire inférieure, l’hypothèse de
n
récurrence assure que ∆1,1 = i=2 ai,i . Si i > 1, alors la matrice Ai,1 a une ligne identiquement nulle, par suite
son déterminant ∆i,1 est nul (proppriété (D6)). Le résultat suit immédiatement.
Corollaire 6.5 Le déterminant de la matrice Di (a) est égal à a et si i 6= j, le déterminant de Ti,j (λ) est égal à 1.
det(AB) = det(A)det(B).
Démonstration :
– Première étape. Notons que ce résultat est démontré si A est une matrice de dilatation (propriété (D3a)) ou si
A est une matrice de transvection (propriété (D5)). Par conséquent le résultat est également démontré si A est
un produit de matrices de dilatation ou de transvection.
– Deuxième étape. Notons que si A est une matrice inversible alors A est un produit de matrices élémentaires
(Corollaire 3.30). Donc si A est inversible det(AB) = det(A)det(B).
– Troisième étape. Supposons maintenant que la matrice A soit non inversible. Il existe une matrice E inversible
telle que EA soit échelonnée, en particulier triangulaire supérieure. Or EA n’est pas inversible. Donc la dernière
ligne de la matrice EA est une ligne de zéros. On déduit de la propriété (D6) que det(EA) = 0 et d’après l’étape
précédente, comme E est inversible, det(A) = det(E −1 EA) = det(E −1 )det(A) = 0. Remarquons alors que
la dernière ligne de la matrice EAB est nulle de sorte que (propriété (D6)) det(EAB) = 0. A nouveau comme
E est inversible on sait que det(E −1 EAB) = det(E −1 )det(EAB), on en déduit que det(AB) = 0 et donc
que l’on a bien det(AB) = det(A)det(B) = 0.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 102 Algèbre linéaire, Maths générales II
6.3. Applications du déterminant 6. Déterminants
Démonstration : On utilise le résultat précédent. On a
Par suite
1
det(A−1 ) = .
det(A)
Théorème 6.8 (Propriété (D10), déterminant de la transposée) Si A est une matrice de Mn (K) alors det(At ) =
det(A).
Démonstration : On remarque que le résultat est vrai pour les matrices élémentaires et pour les matrices trian-
gulaires. Pour une matrice A quelconque on utilise une forme échelonnée A0 = EA. On a det(A0 ) = det((A0 )t )
car A0 est triangulaire supérieure et det(E −1 ) = det((E −1 )t ) car E est un produit de matrices élémentaires. On
en déduit que
et pour tout i = 1, . . . , n
Autrement dit, on peut développer le déterminant par rapport à n’importe quelle ligne ou colonne.
Démonstration : L’équation 6.2.1 découle de la propriété (D2), tandis que l’équation 6.2.2 est une conséquence
de la propriété (D10).
Remarque 6.10 Soit A ∈ Mn (K). Le déterminant (−1)i+j ∆i,j est appelé cofacteur de ai,j . La comatrice de
A, notée Co (A) est la matrice de Mn (K) dont le coefficient i, j est le cofacteur (−1)i+j ∆i,j .
On a en fait pour tout i = 1, . . . , n
det(A) = (−1)i+1 ∆i,1 ai,1 + (−1)i+2 ∆i,2 ai,2 + · · · + (−1)i+n ∆i,n ai,n ,
et pour tout j = 1, . . . , n
det(A) = (−1)j+1 ∆1,j a1,j + (−1)j+2 ∆2,j a2,j + · · · + (−1)j+n ∆n,j an,j .
((Co (A))t A)i,j = (−1)i+1 ∆1,i a1,j + (−1)i+2 ∆2,i a2,j + · · · + (−1)i+n ∆n,i an,j
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 103 Algèbre linéaire, Maths générales II
6.3. Applications du déterminant 6. Déterminants
En utilisant la formule (6.2.1), on déduit que ((Co (A))t A)i,i = det(A). De plus si i 6= j, on reconnaît dans
((Co (A))t A)i,j le déterminant de la matrice obtenue en remplaçant dans A a1,i , . . . , an,i par a1,j , . . . , an,j ,
autrement dit la matrice obtenue à partir de A en remplaçant la colonne i par la colonne j. La matrice ainsi
obtenue a deux colonnes identiques, son déterminant est donc nul. Par conséquent si i 6= j ((Co (A))t A)i,j = 0.
On a donc bien montré que (Co (A))t A = A(Co (A))t = det(A)Idn .
Proposition 6.12 Soient E et F deux K-espaces vectoriels de dimension n. On se donne B = (e1 , . . . , en ) une
base de E et B 0 = (ε1 , . . . , εn ) une base de F . Soit f ∈ L(E, F ). Alors f est un isomorphisme de E sur F si et
seulement si
det(MB,B0 (f )) 6= 0.
1
X= (Co (A))t b,
det(A)
ou composantes par composantes
1
(−1)i+1 ∆1,i b1 + (−1)i+2 ∆2,i b2 + · · · + (−1)i+n ∆n,i bn
xi =
det(A)
a1,1 · · · a1,i−1 b1 a1,i+1 · · · a1,n
1 .. .. .. .. ..
= . . . . .
det(A)
an,1 · · · an,i−1 bn an,i+1 · · · an,n
Démonstration :
Il suffit de remarquer par réccurence que le déterminant d’une matrice de taille n est une somme de produits de n
termes distincts de la matrice. Par conséquent c’est bien un polynôme en X. On montre alors par réccurence que
son terme dominant est (−1)n X n .
On verra plus loin (next year) que les valeurs propres d’une matrice A sont les racines (dans C) du polynôme
caractéristique. Les valeurs propres et vecteurs propres sont des notions très importantes pour comprendre la
structure d’une matrice et de l’application linéaire qui lui est associée.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 104 Algèbre linéaire, Maths générales II
6.3. Applications du déterminant 6. Déterminants
6.3.5 Exercices
Exercice 148 La famille (2, 1, 0), (1, 3, 1), (5, 2, 1) est-elle libre ?
Exercice
149
(Matrices Déterminer les valeurs du paramt̀re t ∈ R pour lesquelles matrices Mt =
inversibles)
1 t 1 1 1 t
t 1 1 et Nt = 1 t 1 sont inversibles.
1 t 1 t 1 1
1 1 1
Exercice 150 (Condition d’inversibilité) Calculer x y z et déterminer la condition d’inversibilité de la
x2 y2 z2
matrice.
1 −1 0 0
2 1 0 0
Exercice 151 (Inverses de matrice par le déterminant) En utilisant la comatrice, inverser les matrices
0 0
1 2
0 0 2 1
1 0 1 0
0 1 0 1
et
1 0 −1 0 ainsi que leurs produits.
0 1 0 −1
Exercice 152 Soit E un espace vectoriel réel de dimension finie n et ϕ ∈ L(E) telle que ϕ2 = −idE .
1. Donner des exemples de telles applications dans le cas n = 2 ou 4.
2. Montrer que de telles applications existent si et seulement si n est pair.
[ On pourra utiliser le déterminant de φ.]
Exercice 153 (Applications du déterminant aux systèmes linéaires) Combien de solutions a le système linéaire
suivant :
3x +y +z = 1
2x −y +z = 0
−x +y −2z = 2
Et ce système ?
3x +y +z = 0
2x −y +z = 0
−x +y −2z = 0
Et celui-là ?
+y +z = 1
2x +4z = 1
−x +y −z = −1
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 105 Algèbre linéaire, Maths générales II
6.4. Quelques calculs de déterminants 6. Déterminants
6.4 Quelques calculs de déterminants
6.4.1 Matrice de Froebenius
Proposition 6.14 (Déterminant d’une matrice de Frobenius) Le polynôme
P (X) = (−1)n+1 X n+1 − an X n − · · · − a1 − a0
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 106 Algèbre linéaire, Maths générales II
6.4. Quelques calculs de déterminants 6. Déterminants
6.4.2 Déterminant de Van der Monde
On s’intéresse pour quatre réels distincts x1 , x2 , x3 , x4 au déterminant suivant :
1 1 1 1
x1 x2 x3 x4
∆(x1 , x2 , x3 , x4 ) =
(x1 )2 (x2 )2 (x3 )2 (x4 )2
(x1 )3 (x2 )3 (x3 )3 (x4 )3
En developpant ce déterminant par rapport à la première colonne on remarque que ∆(x1 , x2 , x3 , x4 ) est un po-
lynôme de degré 3 en la variable x1 . De plus si x1 = x2 ou x1 = x3 ou x1 = x4 , c’est le déterminant d’une
matrice qui a deux colonnes identiques et par conséquent ∆(xi , x2 , x3 , x4 ) = 0 pour i = 2, 3, 4. On en déduit que
x2 , x3 , x4 sont les racines de ce polynôme de degré 3 et qu’il existe une fonction δ(x2 , x3 , x4 ) telle que
1 1 1
δ(x2 , x3 , x4 ) = − x2 x3 x4
(x2 )2 (x3 )2 (x4 )2 .
Autrement dit
1 1 1 1
x1 x2 x3 x4 Y
∆(x1 , x2 , x3 , x4 ) = = (xi − xj ).
(x1 )2 (x2 )2 (x3 )2 (x4 )2
1≤i≤4j>i
(x1 )3 (x2 )3 (x3 )3 (x4 )3
a b 0 0 0
a b 0 0 b 0 0 0
b a b 0 0
b a b 0 b a b 0
∆5a,b = 0 b a b 0 = a −b
0 b a b 0 b a b
0 0 b a b
0 0 b a 0 0 b a
0 0 0 b a
a b 0 0
a b 0
b a b 0
= a − b2 b a b
0 b a b
0 b a
0 0 b a
= a∆4a,b − b2 ∆3a,b
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 107 Algèbre linéaire, Maths générales II
6.4. Quelques calculs de déterminants 6. Déterminants
De même
∆4a,b = a∆3a,b − b2 ∆2a,b
∆3a,b = a∆2a,b − b2 ∆1a,b
∆2a,b = a2 − b2
∆1a,b = a
On en déduit que
∆3a,b = a(a2 − b2 ) − b2 a = a3 − 2b2 a
∆4a,b = a(a3 − 2b2 a) − b2 (a2 − b2 ) = a4 − 3b2 a2 + b4
∆5a,b = a(a4 − 3b2 a2 + b4 ) − b2 (a3 − 2b2 a) = a5 − 4b2 a3 + 3ab4
Le cas classique est a = −2b, on trouve alors
∆3a,b = = −4b3
∆4a,b = a(a3 − 2b2 a) − b2 (a2 − b2 ) = 5b4
∆5a,b = a(a4 − 3b2 a2 + b4 ) − b2 (a3 − 2b2 a) = −6b5
6.4.4 Exercices
Exercice 154 Calculer de plusieurs façons le déterminant suivant
1 2 1 3
2 −1 0 2
−1 1 −1 1
0 1 0 2
2 0 4
Exercice 155 Sans calcul, montrer que 5 2 7 est divisible par 2 et calculer le plus rapidement possible ce
2 5 5
déterminant.
2 1 14
Exercice 156 Sans calcul, montrer que 5 5 7 est divisible par 17.
7 5 5
1 2 1 4 1 2 1 4
5 5 7 0 2 4 2 8
Exercice 157 Calculer les déterminants suivants et .
0 7 5 5 0 7 5 5
1 0 2 0 1 0 2 0
a b c
Exercice 158 Calculer c a b .
b c a
Exercice 159 Calculer les déterminants des matrices suivantes :
a c c b c a b c a x y z x y z t
c a b c a c c b b x y z −y x −t z
c b a c , b c c a , c x0
,
y0 z 0 −z
t x −y
b c c a c b a c d x0 y0 z0 −t −z y x
a a2 a2
1+a b a b a b+c+d 1 0 a
b
1 + a b a a
, b b2 c + d + a 0
, 1 b b2
a b 1+a b a c c2 d + a + b 1 0 c c2
b a b 1+a a d d2 a+b+c 0 1 d d2
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 108 Algèbre linéaire, Maths générales II
6.4. Quelques calculs de déterminants 6. Déterminants
Exercice 160 (Déterminants de Vandermonde) On note a1 , · · · , an des réels. Calculer les déterminants n × n
suivants.
1 1 ··· 1 a1 a2 a3 ··· an
a1 a2 ··· an a2 a2 a3 ··· an
D1 = a21 a22 ··· a2n , D2 = a3 a3 a3 ··· an
.. .. .. ..
. . . .
an−1
1 a n−1
2 · · · an−1
n an an an ··· an
a+b a 0
.. ..
b . .
Bn =
.. ..
. . a
0 b a+b
an+1 − bn+1
∀n ∈ N, n ≥ 2, Bn = .
a−b
Exercice 163 Calculer le déterminant de la matrice tridiagonale suivante
2 −1 0 0 0
−1 2 −1 0 0
0 −1 2 −1 0
0 0 −1 2 −1
0 0 0 −1 2
Applications du déterminant
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 109 Algèbre linéaire, Maths générales II
6.4. Quelques calculs de déterminants 6. Déterminants
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 110 Algèbre linéaire, Maths générales II
Appendices
111
Annexe A
Corrigés d’exercices
A.1 Chapitre 1
Exercice 13
` ` 0 1 −1
u = Au∗ , avec u = s , u = s , et A = −1 1 0 .
c c 1 −1 1
113
A.2. Chapitre 2 A. Corrigés d’exercices
Le vecteur directeur de D1 a pour coefficients -1, -2 et 1 :
−1
~ = −2
w
1
4. Le plan orthogonal a la droite D1 et passant par B = (1, 1, 1) a pour vecteur normal le vecteur directeur de D1
~ On a donc P 00 d’équation −x − 2y + z + ρ = 0, où la constante ρ est déterminée par le fait que le plan P 00
soit w.
passe par par le point B. L’équation du plan P 00 est donc −x − 2y + z + 2 = 0.
A.2 Chapitre 2
Exercice 32 (Grosses matrices)
(Corrigé par Maximilien Rigaut)
1 0 −3 8 3 2 −1 4 11 13 1 3
0 0 1 3
2 4 3
0 0 2 5 6
2 −5 −1 3 0 −1 2 3 = −1 −12 −1 8
0 0 1 0 1 1 1 1 0 −1 2 3
−3 1
1 1 −3 7 12 0
= −4 22
−2 0 4 −3 2 0 17 −11
−1 3
−3 1 −5 −3 13 −18
12 0 1 1 −3 7 12 12 −36 84
2 0 −2 0 4 3 = 2
2 −6 14
−1 3 −7 −1 15 2
Exercice 45
−4 2 3 10 1 −7
B0 = 4 −2 1 , B1 = −2 3 11 ,
2 1 −4 −2 3 3
2 1 −7 −8 0 0 2 1 −7
1
B2 = −2 −5 11 , B2 A = 0 −8 0 ⇒ A−1 = − −2 −5 11 .
8
−2 3 −5 0 0 −8 −2 3 −5
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 114 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices
P1 P2 P3
– P3 est relié à P1 et à P3 .
ce qui donne le graphe suivant :
Calculons A2 :
2 1 0
A2 = 1 1 0
2 1 1
Démontrons que les coefficients de A2 P représentent le nombre de chemin à deux arêtes entre i et j.
3
En effet soit C = A2 , on a Ci,j = k=1 Ai,k Ak,j . Or par définition de la matrice A, Ai,k Ak,j = 1 si et
seulement si il existe une arête entre i et k et une arête entre k et j ; donc Ai,k Ak,j = 1 si et seulement si il existe
P3
un chemin à deux arêtes entre i et j. Sinon, Ai,k Ak,j = 0. Comme Ci,j = k=1 Ai,k Ak,j , on en déduit que Ci,j
est exactement le nombre de chemin à deux arêtes entre i et k.
Calculons A3 :
3 2 0
A3 = 2 1 0
4 2 1
3
Par définition, (A3 )i,j = k=1 (A2 )i,k Ak,j . Or (A2 )i,k est le nombre de chemin à deux arêtes entre i et k. Mais
P
Ak,j = 1 si et seulement si il existe une arête entre k et j. Donc (A2 )i,k Ak,j est le nombre de chemins à trois
P3
arêtes entre i et j passant par k. On en déduit finalement que (A3 )i,j = k=1 (A2 )i,k Ak,j est le nombre total de
chemins à trois arêtes entre i et j.
A.3 Chapitre 3
Exercice 73 (Somme de deux sous-espaces vectoriels)
1. D’abord, on a évidemment 0 ∈ F + G. Montrons que F + G est stable par combinaison linéaire. Si u et v
∈ F + G, alors on peut écrire u = uF + uG et v = v F + v G , avec uF , v F ∈ F et uG , v G ∈ G . Soient α et
β ∈ R. On a αu + βv = α(uF + uG ) + β(v F + v G ) = αuF + βv F + αuG + βv G . Or αuF + βv F ∈ F et
αuG + βv G ∈ G. Donc OK.
2 1
2. Dans E = R : on prend F la droite de vecteur directeur i = et G la droite de vecteur directeur
0
0 1
j . Le vecteur i + j = n’appartient pas à F ∪ G.
1 1
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 115 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices
Si b3 n’est pas une combinaison linéaire de b1 et b2 , alors la matrice n × 2 dont la première colonne est égale à
b1 et la seconde à b2 convient.
0
2. F : ensemble des matrices diagonales
G : ensemble des matrices multiples de l’identit ?.
3. F : ensemble des fonctions y de R dans R dont la d ?riv ?e seconde est nulle
G : ensemble des fonctions constantes.
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 116 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices
de dimension 3.
Une matrice symétrique de dimension n s’écrit comme combinaisons linéaires des n matrices Eii , i =
1, . . . , n et des matrices Eij + Eij , j > i, où les Eij sont définies à la première question. Or le nombre des
matrices Eij + Eij , j > i est le cardinal de l’ensemble des couples (i, j) vérifiant j > i. Comptons les :
pour i = 1, il y en a : n − 1. Pour i = 2, il y en a n − 2. Pour i = k, il y en a n − k (dessinez les matrices
pour n = 3 si vous ne comprenez pas...) Donc en tout, il y en a n − 1 + n − 2 + . . . + n − (n − 1), soit
Pn−1 Pn−1
encore i=1 (n − i) = n(n − 1) − i=1 i = n(n − 1) − n(n−1 2 = n(n−1)
2 . Si on ajoute les n matrices
diagonales, on a donc n + n(n−1) 2 = n(n+1)
2
Ces matrices sont libres, forment un base de l’espace des matrices diagonales, qui est donc de dimension n.
2. (a) On vérifie facilement que les familles {u, v} et {w, z} sont libres. Elles sont donc des bases des
espaces qu’elles engendrent. Donc {u, v} est une base de F et {w, z} est une base de G.
(b) Soit x ∈ F ∩ G, alors x est de la forme : x = αu + βv. et x = α0 w + β 0 z.
α+β 0
x = α + β = α0 + β 0
β β0
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 117 Algèbre linéaire, Maths générales II
A.3. Chapitre 3 A. Corrigés d’exercices
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 118 Algèbre linéaire, Maths générales II
Annexe B
2. (Remontée) On calcule x
Pour i allant de n à 1,
Pn
xi = u1i,i (yi − j=i+1 ui,j xj )
119
B.1. Algorithmes de Gauss et LU B. Algorithmes et programmes informatiques
Méthode LU avec pivot partiel
La méthode LU avec pivot partiel consiste simplement à remarquer que l’ordre dans lequel les équations sont
prises n’a aucune importance pour l’algorithme. Au départ de l’algorithme, on se donne la bijection t de {1, . . . , n}
dans {1, . . . , n} définie par t(i) = i, et qui va étre modfiée au cours de l’algorithme pour tenir compte du choix
du pivot. On écrit l’algorithme précédent avec les nouveaux indices de ligne t(i), ce qui donne :
1. (Factorisation) Pour i allant de 1 à n, on effectue les calculs suivants :
(a) Choix du pivot (et de t(i)) : on cherche k ∈ {i, . . . , n} t.q. |at(k),i | = max{|at(l),i |, l ∈ {i, . . . , n}}.
On change alors t en prenant t(i) = t(k) et t(k) = t(i).
On ne change pas la ligne t(i)
ut(i),j = at(i),j pour j = i, . . . , n,
(b) On modifie les lignes t(j) autres que les lignes t(1), . . . , t(n) (et le second membre), en utilisant la
ligne t(i). Donc pour t(j) ∈ {t(i + 1), . . . , t(n)} (noter qu’on a uniquement besoin de connaétre
l’ensemble , et pas l’ordre) :
a
lt(j),i = at(j),i
t(i),i
,
Université Aix-Marseille 1 PEIP-L1, 27 avril 2010 120 Algèbre linéaire, Maths générales II