Polycopie Algebre2
Polycopie Algebre2
Algèbre linéaire
a11 x1 + · · · + a1p xp = b1 a11 a12 ··· a1p x1 b1
a21
a21 x1 + · · · + a2p xp = b2 a22 ··· a2p x2 b2
(S) ⇐⇒ . .. .. × .. = ..
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
.. . . . .
an1 x1 + · · · + anp xp = bn an1 an2 · · · anp xp bn
| {z } | {z } | {z }
.............................................
A X B
2 Applications linéaires 35
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3 Image et noyau d’une application linéaire . . . . . . . . . . . . . . . . . . . 39
4 Détermination d’une application linéaire dans une base . . . . . . . . . . . . 41
5 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 45
5.1 Théorème du rang (ou de noyau) . . . . . . . . . . . . . . . . . . . . 45
5.2 Conséquences de théorème du rang . . . . . . . . . . . . . . . . . . . 46
6 Structures algébriques sur L(E, F ) et L(E) . . . . . . . . . . . . . . . . . . 48
6.1 L’espace vectoriel L(E, F ) sur K . . . . . . . . . . . . . . . . . . . . 48
6.2 La structure d’anneau sur L(E) . . . . . . . . . . . . . . . . . . . . . 48
6.3 Le groupe linéaire GL(E) . . . . . . . . . . . . . . . . . . . . . . . . 49
6.4 La structure de K-algèbre sur L(E) . . . . . . . . . . . . . . . . . . . 50
3 Matrices et déterminants 52
I Matrices 53
1 L’ensemble des matrices à coefficients dans K . . . . . . . . . . . . . . . . . 54
1.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.2 Définitions et opérations basique . . . . . . . . . . . . . . . . . . . . 55
2 Opérations algébriques sur les matrices . . . . . . . . . . . . . . . . . . . . . 58
2.1 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . . . 58
2.2 Les puissances d’une matrice carrée . . . . . . . . . . . . . . . . . . . 61
2.3 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.4 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 65
2.5 Trace d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . 66
3 Représentation matricielle d’une application linéaire . . . . . . . . . . . . . 66
3.1 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . 66
3.2 Relation entre matrices et applications linéaires . . . . . . . . . . . . 68
3.3 L’application linéaire canoniquement associée à une matrice . . . . . 71
3.4 Le rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.5 Système d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . 73
3.6 Opérations élémentaires sur lignes ou colonnes . . . . . . . . . . . . 74
3.7 Résolution d’un système linéaire par la méthode du pivot de Gauss . 75
4 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.1 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . 76
4.2 Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . 78
5 Formule de changement de bases . . . . . . . . . . . . . . . . . . . . . . . . 81
5.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2 Formule de changement de bases . . . . . . . . . . . . . . . . . . . . 82
5.3 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
II Déterminants 89
1 Déterminants d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . 90
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2 Développement d’un déterminant suivant une rangée . . . . . . . . . . . . . 93
2.1 Mise en place . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2.2 Matrice des cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.1 Déterminant et système de Cramer . . . . . . . . . . . . . . . . . . . 96
3.2 Déterminant et rang . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
« L’algèbre n’est qu’une géométrie écrite ; la géométrie n’est qu’une algèbre figurée.»
Sophie Germain
L’algèbre linéaire est la branche des mathématiques qui s’intéresse à l’étude des
espaces vectoriels (ou espaces linéaires), aux transformations linéaires et aux systèmes
d’équations linéaires. Un espace vectoriel est un ensemble doté d’une opération d’« addi-
tion » et d’une opération de « multiplication par scalaires », lesquelles vérifient une certaine
liste d’axiomes. Ces axiomes gouvernent aussi bien les propriétés de chaque opération, que
la comparabilité entre les deux opérations.
En terminologie, qui dit algèbre dit calcul, mais qu’entend-on par « linéaire » ? il est
plus facile en l’occurrence de s’appuyer sur nos connaissances élémentaires, car il s’agit bel
et bien de la règle trois et de la notion de « proportionnalité ». Par exemple : quand le
marchand affiche 12dh le prix d’un kilo de pommes, il est implicite que x kilos de pommes
couteront 12 x dirhams, donc le prix des pommes est donné par la fonction de R dans R dé-
finie par x 7→ 12 x (le prix est une fonction linéaire du poids). En mathématiques, lorsque
l’on énonce que la dérivation est une opération linéaire on comprend qu’il s’agit d’une
opération qui respecte la structure linéaire de calcul ; c.-à-d.elle conserve la combinaison
0
linéaire de deux fonctions ; αf +βg = αf 0 +βg 0 . La linéarité est un concept omni-présent
aussi en sciences physiques : en électricité, le courant à travers un circuit résistant est une
fonction linéaire de la tension appliquée, la propagation des ondes sonores (ou lumineuses)
et la conduction thermique sont des phénomènes linéaires remarquables et universels.
L’algèbre linéaire commence par l’étude de vecteurs dans les espaces cartésiens de
dimension 2 et 3. Un vecteur, ici, est un segment de droite caractérisé à la fois par sa
longueur (ou norme), sa direction et son sens. Les vecteurs peuvent alors être utilisés pour
représenter certaines entités physiques comme des déplacements, additionnés ou multipliés
par des scalaires (nombres), formant ainsi le premier exemple concret d’espace vectoriel.
L’histoire de l’algèbre linéaire commence avec René Descartes le premier qui pose
des problèmes de géométrie, comme l’intersection de deux droites, sous forme d’équation
linéaire. Il établit alors un pont entre deux branches mathématiques jusqu’à présent sépa-
rées : l’algèbre et la géométrie. Ce n’est qu’au XIXe siècle que l’algèbre linéaire devienne
une branche des mathématiques à part entière. En effet, l’algèbre linéaire nait de l’étude
des systèmes linéaires abordés dès 1678 par Leibnitz ; Maclaurin en 1748 donne les formules
de résolutions à deux et trois inconnus, complétés dans le cas général par Cramer en 1754.
À partir de là, Vandermonde puis Laplace ont l’idée de définir un déterminant d’ordre n
par récurrence sur n, en développant par rapport à une ligne ou à une colonne. D’autre
part, dans les recherches arithmétiques Gauss avait adopté, pour designer une transfor-
mation linéaire, une notation sous forme de tableau : la notation matricielle. Avec Cayley
et Sylvester, au milieu du dix-neuvième siècle, la théorie des matrices se développe. Le
début du XXe siècle voit la naissance de la formalisation moderne des mathématiques. Les
espaces vectoriels deviennent alors une structure générale omni-présente dans presque tous
les domaines mathématiques. Sous leur forme la plus simple, les espaces vectoriels repré-
sentent intuitivement les déplacements dans les espaces géométriques élémentaires comme
la droite, le plan ou notre espace physique. La construction moderne permet de généraliser
la notion d’espace à des dimensions quelconques.
Enfin, l’algèbre linéaire est un outil utilisé en mathématiques pour résoudre des pro-
blèmes aussi divers que la théorie des groupes, des anneaux ou des corps, la géométrie
algébrique, les équations différentielles, la théorie spectrale, la statistique mathématiques
etc... Ses techniques développées sont aussi utilisées dans de nombreuses autres branches
comme les sciences naturelles(en génétique), les sciences d’ingénieur(les Réseaux routiers,
traitement d’image ; compresseur d’image JPEG et identification des visages), la chimie
(équilibrage des réactions chimiques, combustion incomplète), l’économie (le modèle de
Leontief), la théorie des graphes (appliquée en sciences sociales) et la dynamique des po-
pulations qui servent de base à de nombreux domaines dans la recherche opérationnelle.
L’algèbre linéaire fournit aussi un support théorique important en informatique : un lan-
gage informatique sorti dès 1969 adoptait des notations généralisées de l’algèbre linéaire
le langage APL et en analyse des données le fameux langage R voire un algorithme
qu’utilise la compagnie Google dès 1998 pour ordonner les pages trouvées par son moteur
de recherche ; il s’agit de l’algorithme ¨PageRank¨. Le programme de ce module
porte sur les concepts de base de l’Algèbre Linéaire : Espaces vectoriels, concepts de
base, Applications linéaires, Matrices et déterminants, nécessaires pour pouvoir,
par la suite, traiter et résoudre plusieurs applications de type linéaire en l’occurrence la
résolution des systèmes d’équations linéaires et la réduction des endomorphisme (Algèbre
3 en 2AP2), calcul différentiel (Analyse 3), Probabilité et statistique chaines de Markov
(CI3 et 4 ), Analyse numérique (interpolation polynômiales) et théorie des graphes (CI3).
1. Pré-requis : Module d’algèbre 1.
2. Objectifs et compétences visés : L’étudiant de la filière 2AP1, sera capable au
terme de ce cours et tout en s’appuyant sur les différentes ressources mises à sa
disposition (Support de cours, Séries d’exercices TD, Références bibliographiques et
électroniques, travaux personnels,. . . ) de :
(i) Comprendre ce qu’est la structure des espaces vectoriels et des sous-espaces vecto-
riels ainsi que leurs propriétés fondamentales ; assimiler et bien manipuler les notions
de l’indépendance et de dépendance linéaire, des familles génératrices, des bases, de
la dimension d’un espace vectoriel et du rang de familles finies de vecteurs ;
(ii) Saisir la définition d’une application linéaire et ses propriétés fondamentales et
comprendre les notions du noyau, de l’image et du rang d’une application linéaire,
exploiter les propriétés des applications linéaires, et notamment le théorème du rang,
pour construire des espaces vectoriels et en estimer la dimension ;
(iii) Assimiler la notion de matrices et bien maitriser les opérations fondamentales
(l’addition, la multiplication par un scalaire, la multiplication) ; saisir la relation
entre matrice et application linéaire et le théorème de changement de bases, savoir
déterminer pour une matrice sa transposée, son rang , son déterminant et sa trace
et son inverse (lorsque la matrice est carrée), maitriser la méthode d’élimination
de Gauss (Algorithme du pivot) et bien l’appliquer (au calcul du rang et l’inverse
d’une matrice et à la résolution d’un système linéaire ), Manipuler les techniques de
calcul des déterminants ;
(iv) Bien manipuler toutes les notions suscitées dans le cas des espaces vectoriels réels
ou complexes de dimension finie et arriver à réaliser de concrètes applications en
mettant en relation l’ensemble des concepts étudiés.
Sommaire
1 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1 Structure d’espace vectoriel . . . . . . . . . . . . . . . . . . . . . 7
1.2 Exemples : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . 10
2.1 Définition et exemples . . . . . . . . . . . . . . . . . . . . . . . . 10
2.2 Intersection de sous-espaces vectoriels . . . . . . . . . . . . . . . 12
2.3 Combinaison linéaire . . . . . . . . . . . . . . . . . . . . . . . . . 12
3 Partie génératrice, partie libre, base . . . . . . . . . . . . . . . . 14
3.1 Partie génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.2 Partie libre, liée . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4 Espace vectoriel de dimension finie . . . . . . . . . . . . . . . . . 20
5 Le rang d’un système fini de vecteurs . . . . . . . . . . . . . . . 26
6 Somme de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . 27
6.1 Somme et somme directe de deux sous-espaces vectoriels . . . . . 27
6.2 Formule de Grassmann . . . . . . . . . . . . . . . . . . . . . . . 29
6.3 Supplémentaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
6.4 Somme et somme directe de sous-espaces vectoriels généralisation 33
La notion fondamentale dans ce chapitre est celle d’espace vectoriel ; elle généralise
les propriétés de l’ensemble des vecteurs de notre espace à trois dimensions.
Dans tout ce qui suit, K désigne soit le corps des nombres réels R soit le corps des nombres
complexes C.
1 Espaces vectoriels
Premiers exemples
• Le plan vectoriel V2 et l’espace vectoriel V3 Le calcul vectoriel est fondé sur les
deux opérations suivantes :
- l’addition des vecteurs (loi de composition interne), ~u + ~v
- Le produit d’un vecteur par un nombre réel (scalaire), α.~u (loi de composition externe).
~
u + ~v
~v
α.~
u si α > 0
~
u
α.~
u si α < 0
~ ∈ Vn (n = 2 ou 3)
qui obéissent à un ensemble donné de règles de calcul ; pour tout (~u, ~v , w)
et pour tout (α, β) ∈ R2 on a
Le but de la suite est de généraliser cette notion de structure et mettre en ouvre un outil
essentiel et efficace ” le calcul vectoriel” qui s’appliquera aussi à d’autres espaces ” non
classiques” (espaces de fonctions , de polynômes, de matrices, des ondes acoustiques....).
Définition 1.1.
Soit E un ensemble non vide. On appelle loi de composition externe sur E à scalaires
dans K (ou la multiplication par un scalaire) une application de K × E dans E. On
note α .x où tout simplement α x, s’il n’y a pas de confusion l’image dans E du couple
(α, x) ∈ K × E i.e.
∀ (α, x) ∈ K × E, α. x ∈ E
♣♣ Exemples 1.2.
1. La multiplication α z ∈ C pour tout (α, z) ∈ R × C définit une loi de composition
externe sur E = C à scalaires dans R.
2. Kn désigne l’ensemble des n-uplets x1 , . . . , xn avec xi ∈ K pour tout i ∈
[[1, n]]. L’opération α .(x1 , . . . , xn ) = (α x1 , . . . , α xn ) ∈ Kn , pour tout α ∈ K et
(x1 , . . . , xn ) ∈ Kn définie une loi de composition externe sur Kn à scalaire dans K.
3. L’opération α. (x1 , x2 ) = (α x1 , α x2 ) pour tout (x1 , x2 ) ∈ E = R2 et α ∈ C ne
définit pas une loi de composition externe sur E à scalaires dans C.
Définition 1.3.
On appelle un K-espace vectoriel un ensemble E muni d’une loi de composition interne
(notée +) et d’une loi externe (notée . ), si on a
— (E, +) est un groupe commutatif,
— ∀(x, y) ∈ E 2 et ∀(α, β) ∈ K2 on a les quatre propriétés suivantes :
Par commodité, les éléments d’un K-e.v (les vecteurs) se notent x, y, z, u, v, ... , tandis
que les éléments de K (les scalaires) sont représentés par α, β, γ, λ, ....
Remarques.
1. L’élément neutre 0E de E, + est appelé le vecteur nul (Il ne faut pas confondre
le vecteur nul 0E avec 0 ∈ K) et l’élément symétrique d’un élément v s’écrira −v,
nous utilisons la notation v1 − v2 = v1 + (−v2 ).
2. En général, un K-e.v n ’est jamais vide car il contient au moins le vecteur nul.
3. K admet lui-même une structure d’espace vectoriel sur K, cela trouble parfois un
débutant. Il faut comprendre que l’on considère alors deux ”copies” de l’ensemble
K (vectorielle-scalaire) ; les éléments de la première jouent le rôle des vecteurs, les
éléments de la seconde jouent le rôle des scalaires.
4. On peut munir C de deux structures d’espaces vectoriels ; l’une sur C, l’autre sur R.
Il ne faut pas confondre le C-e.v et R-e.v.
1.2 Exemples :
La structure de K-e.v repose essentiellement au fait qu’on peut additionner et multiplier
par un scalaire les vecteurs. Suivant les espaces dans lesquels on se place, ces vecteurs
peuvent être des nombres, des fonctions, des polynômes, des suites ,des matrices, etc...
Ensuite nous donnons une large éventail d’exemples très utiles d’espaces vectoriels auxquels
nous allons travailler tout au long de ce cours. En signalant que les deux opérations (interne
et externe) sont parfaitement naturelles et leurs propriétés évidentes.
♣♣ Exemples 1.4.
1. L’espace Kn est un K-e.v : Soient n ∈ N et notons K (K = R ou K = C)
∗ n
l’ensemble des n-uplets x1 , . . . , xn avec xi ∈ K pour tout i ∈ [[1, n]], muni des
deux lois suivantes :
∀α ∈ K α (x1 , . . . , xn ) = (α x1 , . . . , α xn ) ∈ Kn .
et
a1 a2 α a1 α a2
∀α ∈ R α. = ∈ M2 (R).
a3 a4 α a3 α a4
Alors M2 (R), +, . est un espace vectoriel sur R. Il en est de même pour
M3 (R), +, . .
4. L’espace vectoriel des fonctions numériques : Soit X un ensemble non vide.
Notons F(X, K) l’ensemble des fonctions f : X 7→ K muni,
• Loi interne ,
f + g : x ∈ X 7→ f (x) + g(x) ∈ K
• Loi externe ,
∀α ∈ K α.f : x 7→ α f (x) ∈ K
• Loi externe
∀α ∈ K α.u = α un )n∈N ∈ KN
est un espace vectoriel sur K dont le vecteur nul est la suite nulle,i.e.un = 0 pour
tout n ∈ N.
z Exercice 1. Soit Ei , +, . i∈[[1,n]] une famille d’espaces vectoriels sur le corps K. Mon-
Q
trer qu ’on peut définir naturellement sur E = ni=1 Ei le produit cartésienne des Ei une
structure d’espace vectoriel sur K.
Proposition 1.5.
Soit E un K-espace vectoriel. pour tout ∀(α, x) ∈ K × E on a les propriétés suivantes :
(i) α.(−x) = (−α).x = − α.x. En particulier, (−1).x = −x.
(ii) x + (−x) = x − x = 0E .
(ii) Triviale.
(iii) Si α = 0 alors pour tout x ∈ E on a 0.x = (0 + 0).x = 0.x + 0.x =⇒ 0.x = 0E .
Si x = 0E alors α.0E = α.(0E + 0E ) = α.0E + α.0E =⇒ α.0E = 0E .
(iv) Soient x ∈ E et α ∈ K tel que α.x = 0E , si α 6= 0 alors
α−1 . α.x = (α−1 α).x = 1.x = x = α−1 . |{z}
α.x = α−1 .0E = 0E .
=0E
Par conséquent , x = 0E .
2 Sous-espaces vectoriels
2.1 Définition et exemples
Rappelons qu’on a déjà évoqué la notion de sous-structure pour les groupes (sous-
groupes- Algèbre 1). De façon similaire nous introduirons la notion de sous-espace vec-
toriel d’un K-espace vectoriel.
∀ (x, y) ∈ F 2 ∀α ∈ K on a x+y ∈F et α. x ∈ F
.
Proposition 1.7.
Les propriétés suivantes sont équivalentes
(i) F est un sous espace vectoriel de E.
(ii) 0E ∈ F et ∀ (x, y) ∈ F 2 , ∀ (α, β) ∈ K2 on a α.x + β. y ∈ F .
(iii) 0E ∈ F et ∀ (x, y) ∈ F 2 , ∀ α ∈ K on a α.x + y ∈ F .
♣♣ Exemples 1.8.
1. E et {0E } sont évidemment des sous-espaces vectoriels de E : ce sont les sous-
espaces triviaux de E.
2. R est un sous-espace vectoriel de C en tant qu’un R-e.v.
3. L’ensemble F = {(x, y) ∈ R2 | x − 2y = 0} est un sous-espace vectoriel de R2 .
4. L’ensemble P = {(x, y) ∈ R2 | x > 1} n’est pas un sous-espace vectoriel de R2 .
5. Z2 n’est pas un sous-espace vectoriel de R2 car, il n’est pas stable par multiplication
d’un réel.
6. P l’ensemble des fonctions paires de R dans R est un sous-espace vectoriel de
F(R, R).
Théorème 1.9.
F est un sous-espace vectoriel de E, si et seulement si, F muni des deux lois induites est
lui même un K-espace vectoriel.
Démonstration.
(=⇒) Tout d’abord montrons que F est un groupe abélien. Pour cela, il suffit de justifier qu’il
s’agit bel et bien d’un sous-groupe additif de E ; 0E ∈ F =⇒ F 6= ∅. Soit (x, y) ∈ F 2 par
stabilité par multiplication on aura −y ∈ F et par celle de l’addition on a x−y = x+(−y) ∈
F . Ainsi F est un sous-groupe de (E, +). D’autre part, la stabilité par multiplication
conduit trivialement aux quatre axiomes (i),(ii),(iii) et (iv). Par la suite, F est un sous-
espace vectoriel de E.
(⇐=) c’est trivial.
b Point Méthode.
La façon la plus efficace de prouver qu’un ensemble est muni d’une structure de K-espace
vectoriel, est de montrer que c’est un sous-espace vectoriel d’un K-e.v usuel.
♣♣ Exemples 1.10.
1. C k (I, R) l’ensemble des fonctions de classe k sur un intervalle ouvert I de R où
k ∈ N ∪ {∞} est un R-espace vectoriel.
2. Kn [X] l’ensemble des polynômes de degré inférieur ou égale à n est un K-espace
vectoriel.
3. L’ensemble des suites numériques convergentes dans K est un K-espace vectoriel.
G = {(x1 , x2 , x3 ) ∈ R3 | x1 − x2 + x3 = 1},
U = {z ∈ C | |z| 6 1},
D = {z ∈ C | z + i z̄ = 0}.
z Exercice 4. Soit A ∈ K[X]. Montrer que les lois usuelles munissent l’ensemble
FA = {P A | P ∈ K[X]} d’une structure d’espace vectoriel sur K.
Proposition
1.11.
Si FiTi∈I est une famille non vide de sous-espaces vectoriel d’un K-espace vectoriel E,
alors Fi est un sous-espace vectoriel de E.
i∈I
T
Démonstration. F = Fi n’est pas vide il contient le vecteur nul. Maintenant soient
i∈I
(x, y) ∈ F 2 et α ∈ K on a donc (x, y) ∈ Fi pour tout i de I. Comme Fi est un sous-espace
vectoriel de E alors, x + y ∈ Fi et αx ∈ Fi pour tout i de I. Ce qui montre que F est
stable par addition et multiplication par un scalaire.
l Note. De la même façon on dit que x est combinaison linéaire d’une famille A infini
de vecteurs de E, s’il existe une famille finie de n scalaires (λ1 , . . . , λn ) et de vecteurs
n
X
v1 , . . . , vn de A tels que x = λi .vi .
i=1
♣♣ Exemples 1.13.
(i) 0E est toujours combinaison de n’importe quelle famille fine des vecteurs de E.
(ii) Tout (x, y) ∈ R2 est une combinaison linéaire de e1 = (0, 1) et e2 = (1, 0) car,
(x, y) = x e1 + y e2 .
(iii) On considère dans
R les trois vecteurs
3
suivants : U = 2, 1, −3 , V = 1, −2, 4 ,
W = 17, −4, 2 et X = 17, −4, 5 . Le vecteur W est une combinaison linéaire de
(U, V ), car W = 5U + 6V mais, X ne l’est pas. Cherchons (α, β) ∈ R2 tel que
2α + β = 17
W = α U +β V ⇐⇒ α − 2β = −4 ⇐⇒ (α, β) = (6, 5) ⇐⇒ W = 6U +5V
−3α + 4β = 2
2α + β = 17
X = α U + β V ⇐⇒ α − 2β = −4 il n’y a pas de solution !.
−3α + 4β = 5
(v) Tout polynômes de Kn [X] est une combinaison linéaire de monômes de la forme
X i avec i ∈ [[1, n]].
(vi) L’oscillateur harmonique (tout système physique dont l’évolution de la position , de
la vitesse ou d’accélération est fonction sinusoïdale du temps, par exemple le ressort
en mouvement rectiligne) est régit par l’équation différentielle linéaire d’ordre 2 a
coefficients constantes :
r
2 k
ẍ(t) + ω0 x(t) = 0, ω0 =
m
La position s’écrit sous la forme x(t) = xm cos(ω0 t+φ) est une combinaison linéaire
de t 7→ cos(ω0 t) et t 7→ sin(ω0 t).
Théorème 1.14.
Soit A = (v1 , . . . , vn ) une famille de n vecteurs d’un K.e.v E. Alors, l’ensemble des
combinaisons linéaires de la famille A est le plus petit sous-espace vectoriel de E
contenant A (au sens de l’inclusion), appelé le sous-espace engendré par A et noté
V ect(A), c.-à-d.
nX
n o
V ect(A) = λi .vi / (λ1 , . . . , λn ) ∈ Kn .
i=1
Le résultat reste aussi valable dans le cas ou A est un ensemble infini de vecteurs de E.
Démonstration. Posons
nX
n o
C= λi .vi / (λ1 , . . . , λn ) ∈ Kn .
i=1
Il est claire que C est un sous-espace vectoriel de E contenant (v1 , . . . , vn ) ( Remarque
précédente). Maintenant, soit F est un sous-espace vectoriel de E contenant (v1 , . . . , vn ).
Comme F est stable par combinaisons linéaires et vi ∈ F pour tout i ∈ [[1, n]] alors
Xn
λi .vi ∈ F . Ainsi C ⊂ F . D’où, C est le plus petit sous-espace vectoriel de E contenant
i=1
A.
b Point Méthode. Pour montrer qu’une partie F d’un K.e.v en est un sous-espace
vectoriel, il peut être efficace de mettre en évidence que c’est le sous-espace engendré par
une certaine famille de vecteurs de F .
n o
z Exercice 7. F = (x, y, z) ∈ R3 / x − y + z = 0 est un sous-espace vectoriel de R3 .
Dans cette section, nous allons caractériser une famille de vecteurs d’un espace vecto-
riel dont les combinaisons linéaires permettent de construire tous les autres vecteurs de
l’espace. Ainsi, nous avons besoin des notions indispensables d’algèbre linéaire : partie
génératrice, libre et base.
Définition 1.16.
Soit E un K-espace vectoriel. Une famille G = vi i∈I ( I ⊂ N∗ finie ou non) de vecteurs
de E est dite génératrice (ou engendrent E ) si et seulement si, V ect G = E.
Autrement dit, Tout vecteur de E est une combinaison linéaire d’éléments de G.
En particulier, v1 , . . . , vn est une famille génératrice de E, si et seulement si,
n
X
∀v ∈ E ∃(λ1 , . . . , λn ) ∈ Kn v= λi .vi .
i=1
Remarques.
(i) La famille vide est génératrice de {0E }, car V ect{∅} = {0E }.
(ii) v1 , . . . , vn est une famille finie génératrice de E, si et seulement si, vi ∈ E pour
tout i ∈ [[1, n]] et pour tout vecteur v de E, il existe une famille de n > 1 scalaires
(λ1 , . . . , λn ) tel que
Xn
v= λi .vi .
i=1
Il n’est pas sûr que ces scalaires soient uniques!
→
− →
− →
− →−
Par exemple, si ~k = i + 2 j alors, i , j , ~k est une famille génératrice de V2 ;
→
− →
− →
−
car tout vecteur →−u de V2 s’écrit, →
−u = x i + y j + 0 k avec (x, y) ∈ R2 . Mais, le
→
−
vecteur nul 0 s’écrit de deux manières différentes comme combinaison linéaire de
→
− → − ~
i , j ,k ;
→
− →
− →
− →
− →
− − →
→ −
0 =0 i +0j +0k = i +2j − k.
♣♣ Exemples 1.17.
1. 1, i est une partie génératrice de R-espace vectoriel C.
2. La famille e1 , . . . , en est une partie génératrice de Kn avec e1 = 1, 0, . . . , 0 ,
. . .,ei = 0, 0, . . . , 1, 0, . . . , 0 (la iime composante vaut 1 pour tout i ∈ [[1, n]]).
Pour tout (x1 , . . . , xn ) P ∈ Kn on a (x1 , . . . , xn ) = x1 (1, 0, . . . , 0)+x2 (0, 1, 0, . . . , 0)+
· · · + xn (0, . . . , 0, 1) = ni=1 xi ei .
n o
3. F = (x, y, z) ∈ R3 / x − y + z = 0 est engendré par e = (1, 1, 0); f = (0, 1, 1) .
4. La famille de deux vecteurs U 2, 1, −3 et V 1, −2, 4 n’engendre pas R3 car, le
vecteur W 0 17, −4, 5 n’est pas une combinaison linéaire de (U, V ).
5. La famille de polynômes 1, X, X 2 , . . . , X n engendre l’espace vectoriel Kn [X] (tout
polynôme de Kn [X] est combinaison linaire des monômes X i (i ∈ [[0, n]]) ). De
même, la famille infinie (X n )n>0 engendre K[X].
1 0 0 1 0 0
6. Les quatre matrices E1,1 = , E1,2 = , E2,1 = et E2,2 =
0 0 0 0 1 0
0 0
engendrent M2 (R).
0 1
Remarques.
(i) Si v1 , . . . , vn une famille de vecteurs de E et F un sous-espace vectoriel de E.
Alors
v1 , . . . , vn ⊂ F est une partie génératrice de F ⇐⇒ F = V ect v1 , . . . , vn
Définitions 1.18.
Soit n > 1 un entier naturel.
• Une famille v1 , . . ., vn est dite partie libre de E si pour toute famille de n
scalaires λ1 , . . . , λn on a,
n
X
λi .vi = 0E ⇒ λ1 = λ2 = · · · = λn = 0.
i=1
Autrement dit, une famille finie de vecteurs est libre si la seule combinaison linéaire nulle
est la combinaison linéaire nulle triviale ; elle est liée s’il existe une combinaison linéaire
nulle non triviale, c’est-à-dire avec des coefficients non tous nuls.
Remarques.
(i) Par convention, la famille vide est libre.
(ii) Toute famille contenant le vecteur nul 0E est liée. Par conséquent, les vecteurs d’une
famille libre sont tous non nuls.
(iii) Si on change l’ordre d’une famille libre (respectivement liée), on obtient aussi une
famille libre (respectivement liée).
(iv) Si l’un de vecteurs d’une famille se répète ou bien il est colinéaire à un autre de la
même famille alors, celle ci est nécessairement liée.
(v) Une sous-famille d’une famille libre est aussi libre.
(vi) Une sur-famille finie d’une famille liée est aussi liée ( si on ajoute des vecteurs à
une famille liée elle reste
aussi liée).
(vii) La famille v1 , . . . , vn est liée si et seulement si, l’un de ses vecteurs est égal à une
combinaison linéaire des autres.
♣♣ Exemples 1.19.
1. Deux vecteurs u et v d’espace vectoriel E sont dits colinéaires si et seulement si,
l’un des deux vecteurs est proportionnel à l’autre. Alors, la famille (u, v) est liée.
En revanche, si u et v ne sont pas colinéaires alors, la famille (u, v) est libre.
2. Dans le R-e.v C, la famille 1,i est libre. En revanche, lorsqu’on considère C
comme un C-e.v, la famille 1, i devienne liée, car i.1 + (−1).i = 0.
3. La famille (3, 1), (0, 2) de R2 est libre.
4. La famille (3, 1, −2), (15, 5, −10) de R3 est liée.
5. La famille e1 , . . . , en est libre dans Kn .
6. Pour tout n ∈ N∗ la famille de polynômes (1, X, X 2 , . . . , X n ) est une famille libre
de K[X]. P
En effet, si a0 , a1 , . . . , an sont des scalaires tels que ni=1 ai X i = 0K[X] alors a0 =
a1 = · · · = an = 0.
7. La famille P1 = 1 + X + X 2 , P2 = 3 + X + 5X 2 , P3 = 2 + X + 3X 2 est une
famille liée de K2 [X]. Car, P1 + P2 = 2P3 .
Autre méthode :
α + 5β + 3γ = 0 α + 5β + 3γ = 0
α P1 +β P2 +γ P3 = 0 ⇐⇒ α + β + γ = 0 ⇐⇒ α+β+γ =0
α + 3β + 2γ = 0 2β + γ = 0
α =β
⇐⇒ (α = β = 1 , γ = −2)
γ = −2β
Alors, P1 + P2 − 2P3 . D’ou , la famille est liée.
8. La famille u(1, −1, 1), v(0, −1, 2), w(1, 1, 3) de R3 est libre. Soit (α, β, γ) ∈ R3
on a,
α = −γ
α u + β v + γ w = (0, 0, 0) ⇐⇒ β = 2γ ⇐⇒ α = β = γ = 0.
6γ = 0
1 −1 1 1 1 0
9. A = ,B = et C = sont linéairement dépendants dans
1 0 1 2 1 1
M2 (R) car, A + B = 2C.
10. Les fonctions x → sin x, x → sin(x + 1) et x → sin(x + 2) sont linéairement
dépendantes dans F(R, R) (utiliser la formule sin p + sin q = 2 sin p+q p−q
2 cos 2 ).
i Commentaire. On peut généraliser la notion de famille (finie) libre et liée à une famille
infinie de vecteurs de E en disant que celle-ci est libre si toutes ses sous-familles finies sont
libres. Elle est liée si elle possède une sous-famille finie liée.
b Point Méthode.
• Pour montrer qu’une famille finie est libre, on commence par écrire une combinai-
son linéaire quelconque de ses éléments que l’on suppose nulle. Il reste à prouver
que tous les scalaires sont nuls.
• Pour montrer qu’une famille est libre, on part d’une combinaison linéaire finie
nulle, puis on démontre que tous les coefficients sont nuls. En particulier, pour
montrer que F = vi i∈N est une famille libre, il suffit de vérifier que toutes les
familles de la forme vi i∈[[0,n]] sont libres car toute partie finie de N est contenue
dans l’intervalle de la forme [[0, n]] avec n ∈ N.
Théorème 1.20.
v1 , . . . , vn une famille libre de vecteurs de E. Pour tout (λ1 , . . . , λn ) et (µ1 , . . . , µn )
scalaires dans K, on a
n
X n
X
λi v i = µi vi ⇒ ∀i ∈ [[1, n]] λ i = µi .
i=1 i=1
Nous achevons cette section par le résultat suivant qui sera utile dans la suite dans
la théorie de la dimension pour montrer qu’une famille de vecteurs est libre.
Proposition 1.21.
Soit v1 , . . . , vn une famille libre de E. Pour tout v de E
v1 , . . . , vn , v est libre ⇐⇒ v ∈
/ V ect v1 , . . . , vn .
Démonstration.
⇒) C’est triviale .
⇐) SoitP v ∈/ V ect v1 , . . . , vn et montrons que la famille v1 , . . . , vn , v est libre. Soit
α v + ni=1 λi vi = 0E avec α, λ1 , . . . , λn des scalaires dans K il s’agit de prouver que tous
les scalaires sont nuls. P
Supposons que α 6= 0, alors v = ni=1Pλi α−1 vi ∈ V ect v1 , . . . , vn ce qui est contradic-
toire avec l’hypothèse. Ainsi, α = 0 et ni=1 λi vi = 0E . Or, la famille v1 ,. . . , vn est libre
ce qui entraine que λ1 = λ2 = λn = 0 = α. D’ou, la famille v1 , . . . , vn , v est libre.
v1 , . . . , vn , v est liée ⇐⇒ v ∈ V ect v1 , . . . , vn .
3.3 Bases
Dans un cadre simple de la géométrie usuelle déjà étudiée dans le secondaire, on sait
qu’un vecteur de l’espace s’écrit de manière unique comme combinaison linéaire des trois
vecteurs i, j, k non coplanaires de V3 . Ce qui se traduit par le fait que la famille ~i, ~j, ~k
~ ~ ~
est libre et génératrice. On peut aussi évoquer - pour des géographes - la nécessité de
repères ; un tel repérage se fait en fixant d’abord une origine, puis en choisissant deux
directions : c’est ce que nous appellerons une base de l’espace vectoriel R2 . Ainsi, cette
idée qui va s’étendre dans le cadre général.
Définition 1.22.
E un K-espace vectoriel. Une famille finie B = v1 , . . . , vn est dite une base de E si
elle est à la fois libre et génératrice.
En vertu du théorème 1.20 et la définition d’une famille génératrice, une base se caractérise
par le résultat ci-dessous,
Proposition 1.23.
B = v1 , . . . , vn est une base de E si et seulement si, tout v vecteur de l’espace E s’écrit
de manière unique comme combinaison linéaire de v1 ,...,vn c.-à-d.,
P
n
∀v ∈ E ∃! λ1 , . . . , λn ∈ Kn tel que v = λi .vi
i=1
.
♣♣ Exemples 1.24.
1. 1, i est une base de R-e.v C. Si z = x + iy un nombre complexe alors, z (1,i) =
x
.
y
2. (1, 3, 0); (0, 1, 1) est une base du plan vectoriel P d’équation 3x − y + z = 0 dans
R3 .
3. Un vecteur non nul u d’un K-e.v E forme une base de la droite vectorielle D =
vect u = K.u. Aussi, deux vecteurs u et v non colinéaires de E forment bien une
base du plan vectoriel P = vect (u, v).
4. La famille e1 , . . . , en est une base de Kn , appelée la base canonique.
5. La famille (1, X, X 2 , . . . , X n ) est une base de Kn [X], appelée la base canonique.
6. La famille de trois vecteurs u1 = (1, 3, −2), u2 = (3, 3, 0) et u3 = (0, −3, 3) ne
constitue pas une base de R3 .
7. La famille B = 2, −X, X 2 + X est une base de R2 [X].
8. E1,1 , E1,2 , E2,1 , E2,2 est une base de M2 (R).
Remarques.
• Si on change l’ordre des vecteurs d’une base B de l’espace on obtient également une
nouvelle base B 0 . Par ailleurs, un changement de base conduit à un changement de
cordonnées de tous les vecteurs de E ( i.e.[v]B 6= [v]B0 ). L’importance de l’ordre des
vecteurs d’une base sera visible lorsqu’on étudiera au chapitre suivant la notion de
matrice associée à une application linéaire dans des bases données.
• On peut donc étendre la définition d’une base pour une famille infinie B = vn n∈N
de vecteurs de E, en disant aussi qu’il s’agit à la fois d’une famille libre et génératrice
de E. Par exemple , la famille X n n>0 est une base de K[X].
« Je veux soutenir l’intuition par des considérations géométriques. Car il est clair
le système de deuxième échelon correspond au plan, et que le plan est pensé comme
engendré en déplaçant tous les points d’une ligne dans une direction qui n’est pas
contenue en elle. On obtient également l’espace infini comme le système de troisième
échelon...et la géométrie ne peut pas avancer plus loin, tandis que la science abstraite
ne connaît pas de limite »
Hermann G. Grassman, Die lineale Ausdechnungleher (1944).
Définition 1.25.
On dit que E est de dimension finie s’il réduit à {0E } ou s’il admet une famille géné-
ratrice finie. Dans le cas contraire, on dit que E est de dimension infinie.
♣♣ Exemples 1.26.
1. C est un R-e.v de dimension finie, car 1, i engendre C
2. Kn est de dimension finie, car e1 , . . . , en engendre Kn .
3. K[X] est de dimension infinie.
Démonstration.
3) Raisonnons par l’absurde, supposons qu’il existe une famille finie génératrice F =
P1 , . . . , Pn avec Pi ∈ K[X] pour tout i ∈ [[1, n]]. Notons d = max deg P1 , . . . , deg P n ∈
∗
N . Alors, le P polynôme X d+1 ∈ K[X] de degré d+1, mais X d+1 ∈
/ V ect P1 , P2 , . . . , Pn ; car
le polynôme ni=1 λi Pi est toujours de degré inférieur ou égale à d. Ainsi, V ect P1 , . . . , Pn 6=
K[X] ce qui contredit au fait que la famille F est génératrice. D’ou K[X] est un espace
vectoriel de dimension infinie.
Une question naturelle qui se pose, un K-espace vectoriel admet-il toujours une base ?
L’espace vectoriel R2 est engendrée par les deux vecteurs e1 = (1, 0) et e2 = (0, 1) qui
forment une famille libre, donc elle s’agit bien d’une base de R2 . De plus, toute les bases
de R2 comportent exactement deux vecteurs.
De façon général, un espace vectoriel de dimension finie admet toujours une base, c’est
le lemme d’extraction d’une base.
Une conséquence immédiate du lemme d’extraction d’une base en dimension finie est le
corollaire suivant,
Corollaire 1.28.
Tout K-espace vectoriel de dimension finie admet au moins une base.
Remarque.
• Si E = {0E } alors
l’ensemble vide est sa base.
• La famille X n n∈N constitue une base de l’espace vectoriel de dimension infinie
K[X].
• On peut démontrer, en utilisant l’axiome du choix, que tout K-espace vectoriel de
dimension infinie, possède au moins une base et généralise également le corollaire
1.28
Théorème 1.29.
Tout K-espace vectoriel admet au moins une base.
Maintenant, on sait que tout K-espace vectoriel admet au moins une base, une autre
question qui s’impose ses bases ont-elles le même nombre d’éléments ? Nous commençons
tout d’abord à établir le lemme ci-dessous qui compare le nombre d’éléments d’une famille
libre avec celui d’une famille génératrice.
Lemme 1.30.
Si L et G deux familles respectivement libre et génératrice d’un K-espace vectoriel de
dimension finie E. Alors
card L 6 card G .
Autrement dit, toute famille libre a au plus card G éléments.
Ainsi,
n
X
vn+1 = λ−1
n+1 .up − λ−1
n+1 λi .vi ,
i=1
Autrement dit, vn+1 ∈ V ect v1 , . . . , vn , up . Par la suite,
E = V ect v1 , . . . , vn+1 = V ect v1 , . . . , vn , up .
Ce qui montre que, pour tout i ∈ [[1, p − 1]] le vecteur ui est une combinaison linéaire de
v1 , . . . , vn , up c.-à-d., il existe une famille de scalaires a1,i , . . . , ap−1,i , bi telle que
n
X
∀i ∈ [[1, p − 1]] ui = bi .up + ai,j .vj .
j=1
P
Alors, wi = ui − bi .up = nj=1 ai,j .vj ∈ V ect (v1 , . . . , vn ) = F pour tout i ∈ [[1, p − 1]] et
p − 1 > n. Vu l’hypothèse de récurrence la famille de p − 1 vecteurs w1 , . . . , wp−1 est
liée. Alors, il existe une famille de scalaires β1 , . . . , βp−1 non tous nuls telle que
p−1
X
0E = βi .wi .
i=1
Ainsi,
p
X p−1
X
∃i0 ∈ [[1, p − 1]] 0E = βi .ui avec βi0 6= 0 et βp = βi bi .
i=1 i=1
Par la suite, la famille L = u1 , . . . , up est liée, ce qui contredit avec l’hypothèse que L
est libre. Finalement, on aura Card L 6 Card G.
Théorème 1.31.
Soit E un K-espace vectoriel de dimension finie.
Toutes les bases de E ont le même nombre d’éléments.
Démonstration. Soient B = (v1 , . . . , vn ) et B 0 = u1 , . . . , up deux bases de E.
Comme B est une famille libre et B 0 engendre E et d’après le lemme 1.30 alors, on a n 6 p.
De même, on aura p 6 n. D’où l’égalité n = p.
♣♣ Exemples 1.33.
1. dimR C = 2 et dimC C = 1.
2. La dimension d’une droite vectorielle d’un K-e.v est un.
3. dim M2 (R) = 4.
4. dim Kn = n, pour tout n > 1.
5. dim Kn [X] = n + 1.
6. dim K[X] = ∞.
Corollaire 1.34.
Soit E un K-espace vectoriel de dimension finie n.
(i) Toute famille libre de E ayant au plus n éléments.
(ii) Toute famille comporte au moins n + 1 éléments est liée.
(iii) Toute famille génératrice de E ayant au moins n éléments.
(iv) Toute famille libre ayant exactement n éléments est une base.
(v) Toute famille génératrice ayant exactement n éléments est une base.
Démonstration. (i) et (iii) sont des conséquence immédiates du lemme 1.30 et le théorème
1.31.(ii) par contra-opposée.
(iv) Soit L = (v1 , . . . , vn ) une famille libre de E, donc il s’agit de prouver que L =
(v1 , . . . , vn ) engendre l’espace E. Soit v ∈ E, d’après (ii) la famille v1 , . . . , vn , v est liée
et par suite, v est une combinaison linéaire de L, d’où L est une base de E.
(v) Si maintenant G = (v1 , . . . , vn ) une famille génératrice de n éléments de E, d’après
le lemme d’extraction d’une base, il existe une base B ⊂ G de E. Or, on a dim E = n =
Card B = Card G. Par la suite, G = B est une base de E.
b Point Méthode.
• Pour prouver qu’une famille est une base dans un espace de dimension finie, il suffit de
vérifier que cette famille est libre de taille maximale égale à dim E.
z Exercice 9.
1. Montrer que La famille u(1, −1, 1), v(0, −1, 2), w(1, 1, 3) est une base de R3 .
2. Soient P1 = X 3 , P2 = X 2 (1 − X), P3 = X (1 − X)2 et P4 = (1 − X)3 . Montrer
que P1 , P2 , P3 , P4 est une base de R3 [X] et déterminer les coordonnées de Q =
X 2 + X − 1 dans cette base.
Théorème 1.35.
E un K-espace vectoriel de dimension finie.
Tout sous-espace vectoriel F de E est aussi de dimension finie et dimK F 6 dimK E ; il
y a égalité des dimensions si et seulement si, F = E.
Démonstration. Tout d’abord, une famille libre de F est également libre de E, alors son
cardinal est inférieur ou égale à n. Soit L une famille libre de F de cardinal maximal
p 6 n. Si v ∈ F , alors la famille L ∪ {v} est liée et par suite v est combinaison linéaire
d’éléments de L. Ainsi, L est une partie génératrice, ce qui montre que L est une base de
F et dim F = p 6 n.
Si dim F = dim E = n alors, la base B de F comporte exactement n éléments, donc elle
est libre dans E et comme dim E = n, alors B est une base de E. Ainsi, tout vecteur de
E est combinaison linéaire d’éléments de B ⊂ F , ce qui entraine que E ⊂ F . D’où légalité
E = F.
b Point Méthode.
• Pour montrer qu’un sous e.v , ou un K-e.v est de dimension finie, il
suffit de montrer qu’il admet une famille génératrice finie, ou bien qu’il est inclus
dans un sous espace vectoriel de dimension finie.
• Pour prouver que deux espaces vectoriels de dimensions finies sont
égaux, il suffit de montrer une inclusion et l’égalité de leurs dimensions.
Nous achevons cette section par un résultat très important de l’algèbre linéaire qu’on
utilise dans de nombreuses situations, c’est le fameux théorème de la base incomplète.
Comme R3 est de dimension 3 il suffit donc de chercher deux vecteurs u2 , u3 pour lesquels
la famille de trois vecteurs u1 , u2 et u3 constitue une base de R3 .
Commençons à choisir un vecteur u2 non colinéaire à u1 , par exemple on prend u2 =
(0, 1, 0) donc la famille deces deux vecteurs est libre elle constitue donc une base du plan
vectoriel P = V ect u1 , u2 dont l’écriture paramétrique suivante
x = 3t , y = −t , z = t + k (t, k) ∈ R2 .
Maintenant essayons de trouver le troisième vecteur u3 tel que la famille u1 , u2 , u3 soit
libre. Autrement dit, donc il faut choisir ce vecteur de tel sorte que u3 ∈/ P (proposition
1.21). Par exemple on prend u3 = (0, 0, 1) (le système linéaire de 3 équations en deux
inconnus (t, k) n’est pas homogène !), ainsi la famille u1 , u2 , u3 est bien une base de
R3 .
Définition 1.39.
Soit F = v1 , . . . , vp une famille finie de p vecteurs d’un K-espace
vectoriel E. On
appelle rang de F, la dimension du sous-espace vectoriel V ect F de E engendré par F.
Notation. rg F = dim V ect v1 , . . . , vp .
Remarques.
(i) On a toujours rg v1 , . . . , vp 6 p. Si de plus, E est de dimension finie alors,
rg v1 , . . . , vp 6 min p, dimK E
.
(ii) L’ordre des vecteurs dans une famille n’a pas d’influence sur son rang.
(iii) Soient F et F 0 deux familles finies de vecteurs de E, si F ⊂ F 0 alors rg F 6
rg F 0 .
♣♣ Exemples 1.40.
1. Dans R3 on a rg v1 , v2 , v3 = 1 avec v1 = (1, 1, −1), v2 = (2, 2, −2) et v3 =
(−3, −3, 3) car, 2 v1 = v2 et −3 v1 = v3 .
1 −1 1 1 1 0
2. rg A, B, C = 2 avec A = ,B= et C = car, A + B =
1 0 1 2 1 1
2C et (A, B) est une famille libre de M2 (R).
3. Le rang dans R4 de la famille v1 , v2 , v3 est égale à 2, avec v1 = (1, 1, 0, −1),
v2 = (1, 2, 1, 0) et v3 = (3, 5, 2, −1).
En effet, le rang par définition est la dimension de sous-espace vectoriel F = V ect v1 , v2 , v3 ,
donc cherchons
à extraire l’une de ses bases qu’on sait toujours qu’elle existe, la famille
v1 , v2 , v3 engendre F . Celle-ci est-elle libre ? par un calcul simple on a v3 = v1 + 2v 2 ce
qui montre qu’elle est liée et par suite, n’est pas une base de F . Alors, rg v1 , v2 , v3 6 2,
cela permet donc d’éliminer le vecteur v3 de la famille. Il est clair que v1 , v2 engendre
F et libre. Ainsi, il s’agit bien d’une base de F , d’où rg v1 , v2 , v3 = rg v1 , v2 = 2.
Proposition 1.41.
Soit F = v1 , . . . , vp une famille finie de p vecteurs d’un K-espace vectoriel E. Alors,
(i) rg v1, . . . , vp = p ⇐⇒ v1 , . . . , vp est libre.
(ii) rg F est égale au nombre maximum d’éléments d’une famille libre ex-
traite de F.
Solution. Notons G = V ect f0 , f1 , f2 , f3 , il s’agit de determiner la dimension de G. Tout
d’abord on a,
1 cos(1)
sin = f0 ∈ G et cos = f1 − f0 ∈ G
sin(1) sin(1)
Alors, V ect sin, cos ⊂ G et donc V ect sin, cos = G. Ainsi, la famille sin, cos en-
gendre G. Comme celle-ci est libre alors elle constitue bien une base de G. D’ou, dim G =
rg f0 , f1 , f2 , f3 = 2.
z Exercice
12. Déterminer dans C2 le rang de la famille u = (i, 2), v = (3, 4i), w =
(i, 7) (on pourra distinguer les deux cas : C2 considéré comme un R-e.v ou un C-e.v ).
Définition 1.42.
Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E. La somme de F et
G est l’ensemble n o
F + G = u + v / (u, v) ∈ F × G
Proposition 1.43.
Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E. Alors,
(i) F + G est un sous-espace vectoriel de E.
(ii) F + G = V ect(F ∪ G).
Par la suite,
w = α1 e1 + · · · + αn en + β1 e01 + · · · + βp e0p .
D’ou, B ∪ B 0 est une famille génératrice de F + G.
♣♣ Exemples 1.44.
n o n o
1. Soient F = (x, 0, 0) ∈ R3 / x ∈ R et F = (0, y, 0) ∈ R3 / y ∈ R .
Alors F + G = R.e1 + R.e2 = V ect{e1 , e2 } (le plan vectoriel) avec e1 = (1, 0, 0) et
e2 = (0, 1, 0).
n o
2. P = (x, y, z) ∈ R3 / x + y + z = 0 et D = V ect {u} = R u avec u = (1, 1, 1).
Alors, P + D = R3 .
Définition 1.45.
Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E. Si F ∩ G = {0E }
alors, on dit que la somme F + G est directe et on écrit, F ⊕ G.
Proposition 1.46.
Soient F et G deux sous-espaces vectoriels d’un K-espace vectoriel E. Les propriétés
suivantes sont équivalentes
(i) La somme F + G est directe.
(ii) Si, u + v = 0E avec (u, v) ∈ F × G alors, u = v = 0E .
(iii) Tout w de F + G, il existe un unique couple (u, v) ∈ F × G tel que w = u + v.
(iv) Si BF et BG respectivement deux bases de F et G alors, la famille BF ∪ BG est une
base de F + G est appelé la base adaptée aux sous-espaces vectoriels F et G.
Démonstration. Supposons que la somme F + G est directe on sait que BF ∪ BG est une
famille génératrice de F + G, il suffit de justifier que BF ∪ BG est libre,
α1 e1 + · · · + αn en + β1 e01 + · · · + βp e0p = 0
Théorème 1.47.
Soient F et G deux sous-espaces vectoriels de dimension finis d’un K-espace vectoriel E.
Alors, F + G est un sous-espace de dimension fini de E et de plus,
dim F + G = dim F + dim G − dim F ∩ G
.
6.3 Supplémentaire
Définition 1.48.
Deux sous-espaces vectoriels F et G d’un K-espace vectoriel E sont dits supplémentaires
si et seulement si, E est la somme directe de F et G, soit
E =F ⊕G
♣♣ Exemples 1.49.
1. E et {0E } sont supplémentaires.
2. Dans C autant qu’un R-e.v, i R et R sont supplémentaires, voire σR et R, pour
tout σn∈
/ R. o
3. P = (x, y, z) ∈ R3 / x + y + z = 0 et D = V ect {u} = R u avec u = (1, 1, 1)
sont supplémentaires dans R3 .
4. Soit n et m deux entiers tels que 1 6 m < n. les deux sous-espaces vectoriel de Kn
sont supplémentaires
n o
Fm = (x1 , x2 , ..., xm , 0, .., 0) ∈ Kn / xj ∈ K ∀j 6 m
n o
Gm = (0, ..., 0, xm+1 , xm+2 , ..., xn ) ∈ Kn / xj ∈ K ∀j > m + 1 .
5. Soit E et F deux K-e.v. Dans l’espace vectoriel E × F (le produit cartésienne ), les
deux s.e.v E × 0F et 0E × F sont supplémentaires, car E × F = E × 0F ⊕ 0E × F .
6. Dans F(R, C), +, . les deux sous-espaces vectoriels des fonctions paires et im-
paires sont supplémentaires.
De façon générale si, F est un sous-espace vectoriel d’un K-espace vectoriel E, il est
naturel de se demander s’il admet un supplémentaire dans E. Le théorème de la base
incomplète permet d’élucider ce problème en dimension finie et nous avons le résultat
suivant :
Théorème 1.50.
Dans un espace vectoriel de dimension fine n tout sous-espace F de E admet un supplé-
mentaire G dans E c.-à-d.
E =F ⊕G
.
Solution.
— H ⊂ R5 et de plus, x, x, x+y, x−y, 2x = x (1, 1, 1, 1, 2)+y (0, 0, 1, −1, 0), donc H =
V1 V2
V ect(V1 , V2 ). Ainsi, H est s.e.v de R5 .La famille BH = (V1 , V2 ) est génératrice
dans H, elle est aussi libre (les deux vecteurs ne sont pas colinéaires). Alors BH
forme bien une base de H et on a dim H = 2.
— Un supplémentaire de H existe et sa dimension sera 5−2 = 3. L’idée est de compléter
la base BH de H en une base de R5 ( construire trois vecteurs V3 ,V4 et V5 pour les-
quels B = V1 , V2 , V3 , V4 V5 forme une base de R5 ). R5 = V ect V1 , V2 , V3 , V4 , V5 =
V ect V1 , V2 ⊕ V ect V3 , V4 , V5 = H ⊕ G. Ainsi, G est un supplémentaire de H
H G
dans R5 .
(V1 , V2 ) est libre donc, on choisit V3 ∈ / H = V ect(V1 , V2 ) ; V3 = (1, 0, 0, 0, 0).
Ainsi, La famille (V1 , V2 , V3 ) est libre de R5 . On choisit donc V4 tel que V4 ∈ /
V ect (V1 , V2 , V3 ) = H1 , dim H1 = 3 :
x1 1 0 1
x2
1 0 0
V = x3 ∈ V ect V1 = 1 , V2 = 1 , V3 = 0
x4 1 −1 0
x5 2 0 0
α1 + α3 = x1 0
α1 = x 2 1
c.-à-d.? ∃ α1 , α2 , α3 ∈ R5 α1 + α2 = x3 = 0
= V4 ∈/ V ect (V1 , V2 , V3 ).
α − α = x 0
1 2 4
2α1 = x5 0
— Le choix de V4 se fait de sorte que le système ne soit pas homogène !( il n’y a pas
de solution, car α1 = 1 = 0, impossible).
z Exercice 14.
n o
F = (x, x, x + y, x − y, 2x) ∈ R5 / (x, y) ∈ R2
n o
z Exercice 15. Soit F = P ∈ R3 [X] / P 0 (5) = 0 .
Définition 1.51.
Soit (Fi )i∈I une famille quelconque (finie ou non) de sous-espaces vectoriels de E. On
définit la somme des sous-espaces vectoriels (Fi )i∈I par :
X [ nX
n [ o
Ei = V ect Fi = vi / n ∈ N∗ et vi ∈ Fi ∀i ∈ [[1, n]] .
i∈I i∈I i=1 i∈I
Définition 1.52.
Soit (Fi )i∈[[1,n]]P
une famille de sous-espaces vectoriels d’un K-espace vectoriel E. On dit
que la somme ni=1 Fi est une somme directe si et seulement si,
n
X
∀ x1 , . . . , xn ∈ F1 × F2 × . . . Fn : xi = 0E ⇒ xi = 0E ∀i ∈ [[1, n]].
i=1
n
X n
M
Notation. Fi = Fi = F1 ⊕ F2 · · · ⊕ Fn
i=1 i=1
Remarques.
P
La somme ni=1 FiPest directe si et seulement si, la seule décomposition de 0E dans
(i) P
n n
i=1 Fi est 0E = i=1 0Fi .
(ii) Si E un K-espace vectoriel de dimension finie et B = v1 , . . . , vn une base de E
alors ,
Mn
E= K.vi .
i=1
Autrement dit, la somme des droites vectorielles K.vi est directe.
Théorème 1.53.
Soit (Fi )i∈[[1,n]] une famille de sous-espaces vectoriels d’un K-espace vectoriel E. Les pro-
priétés suivantes sont équivalentes :
Pn
(i) la somme Pn i=1 Fi est directe ; P
(ii) ∀x ∈ i=1 Fi , ∃!(x1 , . . . , xq ) ∈ F1 × · · · × Fn , x = ni=1 xi
Pk
(iii) ∀k ∈ [[1, q − 1]], i=1 Ei ∩ Ek+1 = {0E }
Démonstration. P P P
(i) =⇒ (ii) Soit x ∈ ni=1 Fi tel que x = ni=1 xi = ni=1 yi avec (xi , yi ) ∈ Fi pour tout
Xn
i ∈ [[1, n]]. Puisque, xi − yi = 0E avec xi − yi ∈ Fi , et la somme est directe on aura
i=1
donc, xi = yi pour tout i ∈ [[1, n]]. D’ou l’unicité de la décomposition de x.
Pk
(ii) =⇒ (iii) Soient k ∈ [[1, q − 1]] et x ∈ i=1 Ei ∩ Ek+1 ; il existe donc (x1 , . . . , xk ) ∈
E1 × · · · × Ek tel que x = x1 + · · · + xk , soit xk+1 = x ∈ Fk+1 alors,
k+1
X
xi = 0E
i=1
En vertu de (ii) on déduit que, xi = 0E pour tout i ∈ [[1, n]], ce qui montre que x = 0E .
D’ou (ii).
(iii) =⇒ (i) Supposons qu’il existe alors x1 , . . . , xn ∈ F1 ×F2 ×. . . Fn tel que x1 +· · ·+xq =
0E avec (xi )16i6n non tous nuls. On pose i0 = max{i / xi 6= 0} ; i0 est un entier au moins
égal à 2 et
iX
0 −1
xi0 = −(x1 + · · · + xi0 −1 ) ∈ Ei0 ∩ Ei
i=1
Pn
ce qui est en contradiction avec l’hypothèse ; ainsi la somme i=1 Fi est directe
Applications linéaires
Sommaire
1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3 Image et noyau d’une application linéaire . . . . . . . . . . . . . 39
4 Détermination d’une application linéaire dans une base . . . . 41
5 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . 45
5.1 Théorème du rang (ou de noyau) . . . . . . . . . . . . . . . . . . 45
5.2 Conséquences de théorème du rang . . . . . . . . . . . . . . . . . 46
6 Structures algébriques sur L(E, F ) et L(E) . . . . . . . . . . . . 48
6.1 L’espace vectoriel L(E, F ) sur K . . . . . . . . . . . . . . . . . . 48
6.2 La structure d’anneau sur L(E) . . . . . . . . . . . . . . . . . . . 48
6.3 Le groupe linéaire GL(E) . . . . . . . . . . . . . . . . . . . . . . 49
6.4 La structure de K-algèbre sur L(E) . . . . . . . . . . . . . . . . 50
1 Introduction
La linéarité est un concept important en sciences. On appelle linéaires des phéno-
mènes où une grandeur est fonction linéaire de certains paramètres. En simplifiant, ce
sont les phénomènes où la fonction f qui à une cause associe son effet, est linéaire. Si
on ajoute deux causes, l’effet produit est la somme des effets : si f (cause1) = ef f et1 et
f (cause2) = ef f et2, alors f (cause1 + cause2) = ef f et1 + ef f et2 ; si on augmente une
cause, l’effet est augmenté d’autant : f (λ.cause1) = λ.ef f et1. On dit que les effets se su-
perposent. Les propriétés mathématiques des applications linéaires donnent alors des outils
pour étudier ces phénomènes.
2 Généralités
Définition 2.1.
Soient E et F deux espaces vectoriel sur le corps K. Une application f de E vers F est
K-linéaire ou tout simplement linéaire si,
Vocabulaire.
• L’ensemble des applications linéaires de E vers F est noté L(E, F ).
• Une application linéaire de E vers E lui-même est appelée un endomorphisme et
l’ensemble des endomorphismes est noté plus simplement L(E).
• Si u ∈ L(E, F ) et bijective, on dit que u est un isomorphisme de E dans F .
• Un endomorphisme qui est bijectif est appelé un automorphisme de E.
• Si u ∈ L(E, K) (F = K) on dit que u est une forme linéaire sur E et on note,
L(E, K) = E ∗ c’est le dual de E.
Remarques.
(i) On peut dire qu’une application linéaire est une application entre deux espaces vec-
toriels qui respecte leur structure d’espace vectoriel.
(ii) si Si u ∈ L(E, F ) alors, u(0E ) = 0F . En particulier, si u(0E ) 6= 0F alors, u n’est
pas linéaire.
Proposition 2.2.
Corollaire 2.3.
b Point Méthode. Pour démontrer qu’une application est linéaire on utilise souvent
le corollaire 2.3.
♣♣ Exemples 2.4.
1. L’application de E vers F qui à tout vecteur x de E associe 0F est une application
linéaire appelée l’application nulle, elle est notée 0 si il n’y a pas d’ambiguïté.
2. L’application IdE de E dans E telle que IdE (x) = x est un endomorphisme de E.
3. Soit λ ∈ K l’homothétie de rapport α est l’application de E dans E définie par
hα (x) = α.x, pour tout vecteur x de E. Alors hα , est un endomorphisme sur E
i.e. hα ∈ L(E).
4. Soit u ∈ L(E, F ) et S un sous-espace vectoriel de E. On appelle la restriction
u|S : S → F de u sur S est définie par u|S (x) = x pour tout vecteur x de S. Il est
clair que u|S est une application linéaire.
5. l’application Φ : R2 → C définie par Φ(x, y) = x + iy pour tout couple (x, y) de R2
est une application R-linéaire bijective de R-espace vectoriel R2 dans le R-espace
vectoriel C(c’est un isomorphisme de R2 dans C ).
6. La symétrie orthogonale dans R2 par apport à la droite y = x est un automorphisme
de R2 .
7. La dérivée ou la différentielle
D : K[X] −
7 → K[X]
,
P 7 → P0
−
z Exercice 18. Montrer que la rotation R de centre (0, 0) et d’angle θ est un endomor-
phisme de R2 .
Définitions 2.6.
Soient E et F deux espaces vectoriels sur le corps K et f ∈ L(E, F ).
Le sous-espace vectoriel f (E) de F s’appelle image de f et se note Im(f ).
n o
Im(f ) = f (x) / x ∈ E
Remarques.
(i)
y ∈ Im(f ) ⇐⇒ ∃ x ∈ E y = f (x)
.
En particulier, f est surjective si, et seulement si, Im(f ) = F .
(ii) La notation ker(f ) provienne de la littérature anglaise ¨Kernel space¨.
(iii) ker(f ) est un sous-espace vectoriel de E et on a
♣♣ Exemples 2.7.
1. L’application f : R3 → R2 définie par f (x, y, z) = x − y + 4z, 3x − z pour tout
(x, y, z) de R3 est linéaire et son noyau ker(f ) est la droite engendrée par le vecteur
(1, 13, 3) et Im(f ) = R2 .
2. L’application g : R2 → R3 définie par g(x, y) = 2x, 5y, x + y pour tout (x, y) de
R2 est linéaire et son image est le plan engendre par les deux vecteurs (2, 0, 1) et
(0, 5, 1) et son noyau ker(g) = {(0, 0, 0)}.
3. La dérivée D est un endomorphisme de K[X], son noyau ker(D) est l’ensemble
des polynômes dont la dérivée est nulle, c’est le sous-espace vectoriel Kbb0 [X] des
polynômes constants. Son image Im(D) est l’espace tout entier K[X] (c.-à-d.D est
surjectif ).
Le noyau et l’image d’une application linéaire f ∈ L(E, F ) sont des sous-espaces remar-
quables qui nous fournissent des informations sur f . En particulier, il est intéressant de
savoir si f ∈ L(E, F ) est injective. Le résultat suivant caractérise cette propriété :
Proposition 2.8.
Soient E et F deux espaces vectoriel sur le corps K et f ∈ L(E, F ).
f est injective si, et seulement si, ker f = {0E }.
Démonstration.
• Si f est injective, on sait déjà que 0E ∈ ker(f ). Soit maintenant x un élément de
ker f donc, f (x) = f (0E ) = 0F . Ainsi, x = 0E et par la suite ker f = {0E }.
• Réciproquement, soit f ∈ L(E, F ) telle que ker f = {0E }, montrons que f est injec-
tive. Soit x, y deux vecteurs de E tels que f (x) = f (y). On a alors successivement
f (x) − f (y) = 0F , f (x − y) = 0F , x − y ∈ ker f et donc nécessairement x − y = 0E ,
d’où x = y et par suite f est injective.
b Point Méthode. Pour démontrer qu’une application linéaire f est injective, systé-
matiquement prouver que son noyau est réduit à {0E } c.-à-d.
∀x ∈ E f (x) = 0F ⇒ x = 0E
f : R3 7 → R2
−
(x, y, z) −7 → x − y + 4z, 3x − z
z Exercice 21.
1. Soit (a, b) ∈ K2 . Montrer que l’application fa,b : K2 → K définie par fa,b (x, y) =
ax + by pour tout (x, y) de K2 est une forme linéaire.
2. Déterminer le noyau de fa,b , pour quelles valeurs de (a, b) l’application fa,b est-elle
bijective ?.
3. Montrer que toute forme linéaire sur K2 est de la forme fa,b . Conclure ?
Ind. Utiliser la base canonique de l’espace vectoriel K2 .
4. Conjecturer la généralisation de la conclusion de la question précédente sur Kn .
Théorème 2.9.
Soient E et F deux K-espaces vectoriels et B = e1 , . . . , en une base de E. Alors, pour
toute famille v1 , . . . , vn de n vecteurs de F , il existe une unique application linéaire f
de E dans F telle que f (ei ) = vi pour tout i ∈ [[1, n]].
Démonstration.
Existence : On définie l’application f de E dans F par
n
X n
X
f (x) = αi vi , x= αi ei ∈ E,
i=1 i=1
elle est bien définie par unicité de la décomposition de vecteur x et on a f (ei ) = vi pour
X n Xn
tout i ∈ [[1, n]]. Montrons que f est linéaire. Soient x = αi ei et x = βi ei deux
i=1 i=1
vecteurs de E et λ ∈ K alors,
n
X n
X n
X
f (λ.x + y) = λαi + βi vi = λ αi .vi + βi vi = λ.f (x) + f (y).
i=1 i=1 i=1
Unicité : Supposons qu’il existe g ∈ L(E, F ) telle que g(ei ) = vi pour tout i ∈ [[1, n]].
Xn
Alors, pour tout x de E on a x = αi ei et par linéarité on aura
i=1
n
X n
X
g(x) = αi .g(ei ) = αi .vi = f (x).
i=1 i=1
Ainsi, f = g.
z Exercice 22. Soit e1 , e2 , e3 la base canonique de R3 . Montrer qu’il existe une unique
application linéaire f ∈ L(R3 , R2 ) telle que f (e1 ) = v1 = (1, 3) , f (e2 ) = v2 = (−1, 0) et
f (e3 ) = v3 = (4, −1) en donnant l’expression de f .
Solution. D’après le théorème précédent elle existe une unique f ∈ L(R3 , R2 ) telle que
f (e1 ) = v1 = (1, 3) , f (e2 ) = v2 = (−1, 0) et f (e3 ) = v3 = (4, −1). Pour l’expression de f
on a pour tout u ∈ R3 s’écrit u = x e1 + y e2 + z e3 où u = (x, y, z) ∈ R3 alors, par linéarité
on aura,
f (u) = x f (e1 ) + y f (e2 ) + z f (e3 ) = x − y + 4z, 3x − z
Ainsi,
f : R3 7 → R2
−
(x, y, z) −7 → x − y + 4z, 3x − z
Proposition 2.10.
Soit f ∈ L(E, F ) avec E de dimension finie.
(i) Si B est une famille génératrice de E alors, la famille f (B) engendre Im f .
(ii) Si B est une famille liée de E alors, la famille f (B) est liée de F .
(iii) Si f est injective et B est une famille B est libre de E, alors f (B) est libre dans
F.
Démonstration.
(i) On note B = (e1 , . . . , en ) une famille génératrice de E et f (B) = f (e1 ), . . . , f (en ) .
Xn
Soit y ∈ Im f alors, il existe x ∈ E tel que y = f (x). on a x = λi ei et
Pn Pn i=1
y=f i=1 λi ei = i=1 λi f (ei ). Par la suite, la famille f (B) engendre Im f .
(ii) Soit B = (e1 , . . . , en ) une famille liée, alors il existe une famille finie (αi )i∈J⊂[1,n]
X X
de scalaires non tous nuls vérifiant, αi ei = 0E alors, αi f (ei ) = 0F ce qui
i∈J i∈J
montre que la famille f (B) est liée de F .
n
X
(iii) Maintenant, supposons que f est injective et B = (e1 , . . . , en ) est libre, si αi f (ei ) =
i=1
0F avec ((α1 , . . . , αn ) une famille de scalaires. Alors,
n
X n
X
0F = αi f (ei ) = f αi ei = f (0E ).
i=1 i=1
n
X
Par injectivité on aura, αi ei = 0E . Comme la famille B est libre alors il en
i=1
résulte que αi = 0 pour tout i = 1, . . . , n. Ce qui montre que la famille f (B) est
libre dans F .
Corollaire 2.11.
Si E est de dimension finie, f ∈ L(E, F ) et B une base de E.
(i) f est surjective ⇐⇒ f (B) est génératrice de F et dans ce cas, dim F 6 dim E.
(ii) f est injective ⇐⇒ f (B) est libre dans F et dans ce cas, dim E 6 dim F .
(iii) f est bijective ⇐⇒ f (B) est une base de F et dans ce cas, dim F = dim E.
Démonstration.
(i) : (⇒) Si f est surjective alors, Im f = F en vertu de la proposition 2.10 la famille f (B)
est génératrice de F et de plus, dim F 6 card(f (B)) = n = dim E.
(⇐) Si F = V ect(f (B)) où f (B) = f (e1 ), . . . , f (en ) .
Si y ∈ F alors, il existe (λ1 , . . . , λn ) scalaires tels que,
n
X n
X n
X
y= λi f (ei ) = f λi ei = f (x) x = λi ei
i=1 i=1 i=1
D’où, x = 0E et par conséquent f est injective. De plus, card(f (B)) = n = dim E 6 dim F .
(iii) : C’est une conséquence directe de (i) et (ii).
Définition 2.12.
Deux espaces vectoriels E et F sur le corps K sont dites isomorphes, s’il existe un
isomorphisme de E dans F et on écrit E ∼
= F.
♣♣ Exemples 2.13.
1. L’application : z = x + iy 7→ (x, y) est un isomorphisme de C dans R2 et ces deux
R-espaces vectoriels sont isomorphes
et et on a C ∼
= R2 .
3. L’application : f 7→ f , f (0) est un isomorphisme de C 1 (R, R) dans C(R, R) × R
0
et on a C 1 (R, R) ∼
= C(R, R) × R.
i Commentaire. Le fait que deux espaces vectoriels soient isomorphes signifie intuiti-
vement que ces deux espaces sont « identiques » d’un strict point de vue vectoriel. Un
isomorphisme est alors comme un dictionnaire pour passer de l’un de ces espaces à l’un
autre. Toute propriété vectorielle - c.-à-d.que l’on peut exprimer en terme de combinaisons
linéaires - de l’un des espace a son analogue dans l’autre espace. Par exemple, l’identifica-
tion du corps des nombres complexes C avec le plan vectoriel R2 permet donc résoudre des
problèmes des nombres complexes via le « langage géométrique » et vice-versa.
Corollaire 2.14.
Deux K-espaces vectoriels E et F de dimension finie sont isomorphes si,et seulement s’ils
sont de même dimension. En particuliers, tous les espaces vectoriels sur K de dimensions
n sont isomorphes à Kn .
Démonstration.
⇒) C’est une conséquence immédiate de (iii)- Corollaire 2.11.
⇐) Supposons que dim E = dim F . Soit B = (e1 , . . . , en ) une base de E et (v1 , . . . , vn )
une base de F , il existe une application linéaire unique f ∈ L(E, F ) telle que f (ei ) = vi
pour tout i ∈ [[1, n]]. Comme f (B) = (v1 , . . . , vn ) est une base de F , d’après (iii)-Corollaire
48 l’application, f est bijective. Ainsi, E w F . En particulier, on a dim E = n = dim Kn
par suite,E w Kn .
♣♣ Exemples 2.15.
1. M2 (R) ∼= R4 .
∼ K4 .
2. K3 [X] =
3. Les deux espaces vectoriels C3 et R3 ne sont pas isomorphes.
Définition 2.16.
Soient E et F deux espaces vectoriels sur le corps K et f ∈ L(E, F ). Si Im f est de
dimension finie, on appelle rang de f et on note rg(f ) la dimension de Im f .
Remarques.
(i) En particulier si E est de dimension
finie, alors le rang de f est bien défini.
En effet, si B = v1 , . . . , vp est une base de E, alors la famille de vecteurs f (B) =
f (v1 ), . . . , f (vp ) engendre Im f qui est de dimension finie ; le rang de f est aussi
le rang de cette famille de vecteurs, il ne dépend pas de la base de E choisie pour le
déterminer.
(ii) Si E et F sont de dimensions finies alors, rg(f ) 6 min(dim E, dim F ).
(iii) Si F est de dimension finie, alors f est surjective ⇐⇒ rg(f ) = dim F .
f : R3 7 → R3
−
(x, y, z) −7 → x − y + 2z, 2x − z, 4x + 2y − 7z
Théorème 2.17.
Soit f ∈ L(E, F ) avec E est de dimension finie. Alors,
Démonstration. Comme ker f est un sous-espace vectoriel de E alors il est est aussi de
dimension finie. Notons e1 , . . . , ep une base de ker f que l’on complète en une base
B = e1 , . . . , ep , ep+1 , . . . , en de E (théorème de la base incomplète). D’après ce qui
précède, on sait que la famille f (B) est génératrice de Im f . Mais comme f (e1 ) = f (e2 ) =
· · · = f (ep ) = 0F , la famille f (ep+1 ), . . . , f (en ) est aussi génératrice de Im f . Montrons
que cette famille est libre. Soient αp+1 , . . . , αn des scalaires tels que
n
X
αi f (ei ) = 0F .
i=p+1
n
X n
X
Par linéarité on a f αi ei = 0F , soit αi ei ∈ ker f . Il existe donc des scalaires
i=p+1 i=p+1
α1 , . . . , αp tels que
n
X p
X
αi ei = αi ei .
i=p+1 i=1
n
X p
X
On alors, αi ei − αi ei = 0E . Comme B est une base de E les scalaires α1 , . . . , αn
i=p+1 i=1
sont tous nuls. Ainsi, la famille f (ep+1 ), . . . , f (en ) constitue bien une base de Im f et on
a donc, rg(f ) = n − p = dim E − dim(ker f ).
Remarques.
(i) Bien que dim E = dim(ker f ) + rg(f ) et f ∈ L(E), en général les sous-espaces ker f
et Im f ne sont pas toujours supplémentaires dans E.
(ii) Soient E et F deux espaces vectoriels sur le corps K de dimensions finies et f ∈
L(E, F ) on retrouve les résultats du Corollaire 48 ;
• Si f est injective alors, dim E 6 dim F .
• Si f est surjective alors, dim E > dim F .
f : R3 7 → R2
−
(x, y, z) −7 → x − y + 4z, 3x − z
1. Déterminer ker f .
2. Montrer que f est surjective.
Corollaire 2.18.
Soient E et F deux espaces vectoriels sur le corps K de dimensions finies et f ∈ L(E, F ).
(i) f est injective si, et seulement si, rg(f ) = dim E.
(ii) f est surjective si, et seulement si, rg(f ) = dim F .
Ainsi, on obtient le résultat très important qui caractérise les isomorphismes d’espaces
vectoriels en dimension finie par une seule propriété soit l’injection ou bien la surjection.
Théorème 2.19.
E et F deux K-e.v de dimensions finies tels que dim E = dim F et f ∈ L(E, F ).
T : Kn [X] −
7 → Kn [X]
P 7 → P − P0
−
est un automorphisme.
Ainsi,T est linéaire. En vertu du corolaire ??, pour montrer que T est bijective, il suffit
donc de justifier qu’il est injectif ;
comme P et P 0 ont un degré différent alors, T (P ) = 0 ⇒ P = P 0 ⇒ P = 0. D’où, T est
un automorphisme.
D : R[X] −7 → R[X]
.
P 7−→ P 0
1. On sait que D est un endomorphisme de R[X] (e.v de dimension infinie) son noyau vaut
R0 [X] (l’ensemble des polynômes constants), donc il n’est pas injectif mais naturellement
il est surjectif.
2. Il est clair que φ est un endomorphisme. On a de plus φ est injective, car φ(P ) = 0 ⇒
XP = 0 ⇒ P = 0 ( P 6= 0 ⇒ deg(XP ) = degP + 1 ⇒ XP 6= 0).
En revanche, φ n’est pas surjective, car par exemple le polynôme constant 1 ne possède
pas d’antécédent !.
Proposition 2.21.
L’ensemble L(E, F ) a une structure de K-espace vectoriel pour les lois internes et externes
induites par celles de F . En particulier, l’ensemble L(E) des endomorphismes de E est
un espace vectoriel.
Proposition 2.22. Soit E un K-espaces vectoriel. Alors, L(E), +, ◦ est un anneau
unitaire, non commutative dès que dim E > 2.
Démonstration. On sait que L(E), + est un groupe commutatif. Ensuite, ◦ est une loi de
composition interne sur L(E), associative , d’élément neutre IdE ∈ L(E) et distributive à
gauche et à droite par rapport à l’addition, mais, en générale cette loi est non commutative
( f ◦ g 6= g ◦ f ), par exemple,
f : R2 7 → R2
− R2 g :7 → R2
−
.
(x, y) −7 → (y, x) (x, y) − 7 → (x, 0)
On a f, g ∈ L(R2 ) et f ◦ g =
6 g ◦ f . Par la suite, L(E), +, ◦ est un anneau unitaire non
commutative.
Définition 2.23.
On définit les puissances d’un endomorphisme f ∈ L(E) par
(i) f 0 = IdE .
(ii) ∀n ∈ N f n+1 = f n ◦ f = f ◦ f n c.-à-d.f n = f ◦ f · · · ◦ f ( n fois ).
−n
(iii) Si f ∈ GL(E) et n < 0 on définit f n = f −1 .
Proposition 2.24.
Si f et g commutent entre eux dans L(E) ( i.e.f ◦ g = g ◦ f ) alors,
n
X
n
∀n ∈ N f +g = Cnk f k ◦ g n−k (Formule de Binôme).
k=0
En particulier,
n
X
n
∀n ∈ N f + IdE = Cnk f k .
k=0
Proposition 2.25.
L’ensemble GL(E) des automorphismes de E muni de la loi de composition des applica-
tions est groupe, appelle groupe linaire de E.
Démonstration. La composition est une loi associative dans GL(E) ⊂ L(E) et IdE ∈
GL(E) son élément neutre, il reste à vérifier que tout élément de GL(E) admet un inverse.
Si f ∈ GL(E) alors f −1 existe et bijective vérifiant f ◦ f −1 = f −1 ◦ f = IdE .
Montrons que f −1 est linéaire.
Soit (x, y) ∈ E 2 et α ∈ K. Comme f ∈ L(E) alors,
f α.f −1 (x) + f −1 (y) = α.f f −1 (x) + f f −1 (y) = α.x + y = f (f −1 (α.x + y))
Puisque f est injective alors,
f −1 (α.x + y) = α.f −1 (x) + f −1 (y) ⇒ f −1 ∈ GL(E).
Remarque. GL(E) est aussi l’ensemble des éléments inversibles dans l’anneau L(E), +, ◦ .
Proposition 2.26.
Soient E un espace vectoriel de dimension finie et f un endomorphisme de E. Alors les
assertions suivantes sont équivalentes :
(i) f est inversible ( ou encore est un automorphisme de E).
(ii) f est inversible à droite ( i.e.Il existe g ∈ L(E) tel que f ◦ g = IdE ).
(iii) f est inversible à gauche ( i.e.Il existe g ∈ L(E) tel que g ◦ f = IdE ).
Démonstration.
(i) =⇒ (iii) c’est trivial.
(iii) =⇒ (ii) Si f est inversible à gauche, alors il existe g ∈ L(E) tel que g ◦ f = IdE , on a donc
f = g −1 en composant à droite par g on obtient f ◦ g = IdE alors, f est inversible à droite
et on (ii).
(ii) =⇒ (i) Si f est inversible à droite, alors il existe g ∈ L(E) tel que f ◦ g = IdE , par suite
l’application f est surjective. Puisque on est en dimension finie, il en résulte que f est une
bijective c.-à-d.f ∈ GL(E). D’ou , (i).
Définition 2.27.
On appelle K-algèbre tout ensemble A muni de deux lois internes +, × et d’une loi ex-
terne. sur K, On la note A, +, ×, . si,
(i) (A, +, .) est un K-espace vectoriel.
(ii) (A, +, ×) est un anneau.
(iii) ∀λ ∈ K, ∀(x, y) ∈ A λ.(x × y) = (λ.x) × y = x × (λ.y).
Si de plus la deuxième loi interne est commutative on dit que A, +, ×, . est une
K-algèbre commutative.
♣♣ Exemples 2.28.
(i) C, +, ×, . est une R-algèbre unitaire commutative.
(ii) K[X], +, ×, . est une K-algèbre unitaire commutative.
‘En effet.,
(i) C, +, × est un corps commutatif donc c’est un anneau unitaire commutative0 et
C, +, . est un R-e.v (la multiplication externe sur le corps R). De plus, λ.(z ×z ) =
(λ.z) × z 0 =z × (λ.z) pour tout λ ∈ R et (z, z 0 ) ∈ C2 .
(ii) K[X], +, × est un anneau commutatif unitaire 1K[X] = 1 et K[X], +, . est K-e.v.
de plus, λ.(P × Q) = (λ.P ) × Q = P × (λ.Q) pour tout λ ∈ K et (P, Q) ∈ K[X].
Proposition 2.29. Soit E un K-espace vectoriel. Alors, L(E), +, ◦, . est une K-algèbre
unitaire non commutative dès que dim E > 2.
Démonstration. On sait que L(E), +, . est un K-espace vectoriel et L(E), +, ◦ est un
anneau unitaire non commutative dès que dim E > 2 (propositions 2.21 et 2.22). Reste à
vérifier l’axiome (iii) :
Ainsi,
λ(f ◦ g) = (λf ) ◦ g = f ◦ (λg)
D’où, L(E), +, ◦, . est une K-algèbre unitaire non commutative dès que dim E > 2.
Matrices et déterminants
Sommaire
1 L’ensemble des matrices à coefficients dans K . . . . . . . . . . 54
1.1 Motivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
1.2 Définitions et opérations basique . . . . . . . . . . . . . . . . . . 55
2 Opérations algébriques sur les matrices . . . . . . . . . . . . . . 58
2.1 Produit de deux matrices . . . . . . . . . . . . . . . . . . . . . . 58
2.2 Les puissances d’une matrice carrée . . . . . . . . . . . . . . . . 61
2.3 Matrices inversibles . . . . . . . . . . . . . . . . . . . . . . . . . 62
2.4 Transposée d’une matrice . . . . . . . . . . . . . . . . . . . . . . 65
2.5 Trace d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . 66
3 Représentation matricielle d’une application linéaire . . . . . . 66
3.1 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . 66
3.2 Relation entre matrices et applications linéaires . . . . . . . . . . 68
3.3 L’application linéaire canoniquement associée à une matrice . . . 71
3.4 Le rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . 72
3.5 Système d’équations linéaires . . . . . . . . . . . . . . . . . . . . 73
3.6 Opérations élémentaires sur lignes ou colonnes . . . . . . . . . . 74
3.7 Résolution d’un système linéaire par la méthode du pivot de Gauss 75
4 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
4.1 Calcul de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . 76
4.2 Calcul du rang d’une matrice . . . . . . . . . . . . . . . . . . . . 78
5 Formule de changement de bases . . . . . . . . . . . . . . . . . . 81
5.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5.2 Formule de changement de bases . . . . . . . . . . . . . . . . . . 82
5.3 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . 87
1 Déterminants d’une matrice carrée . . . . . . . . . . . . . . . . 90
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
2 Développement d’un déterminant suivant une rangée . . . . . . 93
2.1 Mise en place . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2.2 Matrice des cofacteurs . . . . . . . . . . . . . . . . . . . . . . . . 94
3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
3.1 Déterminant et système de Cramer . . . . . . . . . . . . . . . . . 96
3.2 Déterminant et rang . . . . . . . . . . . . . . . . . . . . . . . . . 97
I. Les Matrices
« One has to familiarize the student with actual questions from applications, so that
he learns to deal with real world problems.»
Lothar Collatz
« D’après mon expérience, les démonstrations où entrent en jeu les matrices peuvent
être abrégées de moiti si l’on expulse les matrices.»
Emil Artin, Algèbre et géométrie.
Dans ce que suit, tous les espaces vectoriels considérés sont de dimensions finies sur
le même corps K avec K = R ou K = C.
Historiquement, dans les recherches Arithmétiques, Gauss avait adopté, pour desi-
gner une transformation linéaire, une notation sous forme de tableau. Après, James Joseph
Sylvester (1814–1897) a inventé le terme matrice « Matrix » en 1850 et décrit les matrices
comme « un arrangement de forme allongée de chiffres ». Les opérations matricielles ont
été introduites par Arthur Cayley (1821–1895) en 1858. Son article « Une mémoire sur la
théorie des matrices » a été le premier à considérer les matrices comme des objets algé-
briques indépendants. La résolution d’un certain nombre de problèmes d’algèbre linéaire
se ramène à des manipulations sur les matrices.
Définition 3.1. Une matrice à n lignes et p colonnes à coefficients dans K est un tableau
à n lignes et p colonnes et donc à n × p cases, chaque case contenant un élément de K.
Dans ce cas, la matrice est de type (n, p). L’ensemble des matrices à n lignes et p colonnes
à coefficients dans K se note Mn,p (K).
Si de plus n = p, la matrice est dite carre. Dans ce cas, n est le format ou la taille de
la matrice carrée. L’ensemble des matrices carrées à coefficients dans K se note Mn (K).
Une matrice à n lignes et 1 colonne s’appelle une matrice colonne (ou uni-colonne).
L’ensemble des matrices colonnes à n lignes se note Mn,1 (K).
Une matrice à 1 ligne et p colonnes s’appelle une matrice ligne (ou uni-ligne). L’ensemble
des matrices lignes à p colonnes se note M1,p (K).
Ou encore
a1,1 a1,2 ··· a1,j ··· a1,p
a2,1 a2,2 ... a2,j ··· a2,p
.. .. .. ..
. . . .
A=
ai,1 ai,2
... ai,j ··· ai,p
.. .. .. ..
. . . .
an,1 an,2 ··· an,j ··· an,p
écriture dans laquelle le premier indice désigne le numéro de la ligne et le second celui de
la colonne et ai,j est le coefficient ligne i ∈ [[1, n]], colonne j ∈ [[1, p]], de A.
• Le i-ème vecteur ligne de A, le vecteur ai,1 , . . . , ai,p de Kp souvent note Li .
• Le j-ème vecteur colonne de A, le vecteur a1,j , . . . , an,j de Kn souvent note Cj .
• Quand A est une matrice carrée (n = p), la diagonale principale de la matrice A est
la diagonale formée par les coefficients a1,1 , a1,1 , . . . , an,n . Les coefficients de cette
diagonale principale sontsouvent appelés coefficients
diagonaux.
• Deux matrices A = ai,j 16i6n et B = bi,j 16i6n de même type (n, p) sont dites
16j6p 16j6p
égales si ai,j = bi,j pour tout (i, j) ∈ [[1, n]] × [[1, p]].
♣♣ Exemples 3.2.
1. On appelle matrice nulle d’ordre (n, p) la matrice dont tous les coefficients sont
nuls, on la note On,p i.e.ai,j = 0 pour tout (i, j) ∈ [[1, n]] × [[1, p]]. Si n = p on la
note On .
2. On appelle matrice identité d’ordre n la matrice carrée dont les coefficients diago-
naux sont égaux à1 et les autres coefficients
sont nuls i.e.i 6= j ai,j = 0 et ai,i = 1
1 0 ··· ··· 0
0 1 0 · · · 0
.. . . . . . . .
.
, on la note In =
. . . . .
.. . . . .
. . . 0
0 ··· ··· 0 1
L’entrée ai,j donne la valeur d’une unité de la j−ième monnaie exprimée dans la i-ième
monnaie. Par exemple, a3,4 = 142 signifie que 1 £ = 142 U, donc on aura,
A
C $ U £
A
C ∗ 0.8 ∗ 1.1
$∗ ∗ ∗ ∗
C,$, U, ,£) =
Matrice d’echanges (A
U ∗ ∗ ∗ 142
£ ∗ ∗ ∗ ∗
En complétant cette la matrice d’échanges on obtient ainsi,
A
C $ U £
A
C 1 0.8 0.0077 1.1
$ 1.25 1 0.0061 0.88
.
C,$,U,£) =
Matrice d’echanges (A
U 129.1 103.27 1 142
£ 0.9 1.13 0.007 1
On définit sur Mn,p (K) l’addition et une loi externe à coefficients dans le corps K comme
suivant :
• Pour tout A = ai,j 16i6n et B = bi,j 16i6n , on pose
16j6p 16j6p
A + B = ai,j+bi,j 16i6n .
16j6p
• Pour tout A = ai,j 16i6n et tout λ ∈ K, on pose
16j6p
λ.A = λ ai,j 16i6n .
16j6p
Théorème 3.3. Mn,p (K), +, . est un espace vectoriel sur le corps K.
♣ Exemple 3.4.
Dans M2,3 (K), il y a 6 matrices élémentaires,
1 0 0 0 1 0 0 0 1
E1,1 = E1,2 = E1,3 =
0 0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 0 0
E2,1 = E2,2 = E2,3 =
1 0 0 0 1 0 0 0 1
toute matrice A = (ai,j ) ∈ M2,3 (K) s’écrit de façon unique sous la forme
A = a1,1 E1,1 + a1,2 E1,2 + a1,3 E1,3 + a2,1 E2,1 + a2,2 E2,2 + a2,3 E2,3 .
Ainsi Eij 16i62 est une base de M2,3 (K) et dim M2,3 (K) = 6.
16j63
Proposition 3.5. La famille Ei,j 16i6n est une base de Mn,p (K) et dim Mn,p (K) =
16j6p
np.
z Exercice 26.
1. L’ensemble des matrices carrées d’ordre n diagonale, Dn (K) est un sous-espaces
vectoriel de Mn,p (K) et sa dimension est n.
2. L’ensemble des matrices carrées d’ordre n triangulaires supérieurs, Tn+ (K) (resp
inférieurs,Tn− (K) ) est un sous-espaces vectoriel de Mn,p (K) et sa dimension est
n(n + 1)
.
2
Définition 3.6.
Soient A = ai,j 16i6n ∈ Mn,p (K) et A = bj,k 16j6p ∈ Mp,q (K).
16j6p 16k6q
On appelle produit C = A × B de deux matrices A et B la matrice dans Mn,q (K) dont
les coefficients sont donnés par la formule suivante :
p
X
∀(i, k) ∈ [[1, n]] × [[1, q]] ci,k = ai,1 b1,k + ai,2 b2,k + · · · + ai,p bp,k = ai,j bj,k .
j=1
.
Remarques.
(i)
type(n, p) × type(p, q) = type(n, q)
.
(ii) En particulier, si A ∈ M1,p (K) et B ∈ Mp,1 (K), alors AB ∈ M1,1 (K) c’est AB
est un scalaire , c’est le produit scalaire usuel de p-uplet a1,1 , a1,2 , . . . , a1,p (consti-
tué des coefficients de la ligne 1) par le p-uplet b1,1 , b2,1 , . . . , bp,1 (constitué des
coefficients de la colonne 2).
(iii) Plus généralement, pour obtenir le coefficient ligne i, colonne j, de la matrice AB,
on effectue le produit de la ligne i par la colonne j. Nous pouvons alors interpréter
cette règle en disant que le coefficient ci,k du produit AB qui se trouve à l’intersection
de la ligne i et la colonne k est égale au produit matriciel de la ligne i de A et la
colonne k de B.
♣♣ Exemples 3.7.
3 −1 1
1 5 −2
1. Si A = et B = −5 −2 1, la matrice A est de type (2, 3) et la
1 3 2
2 3 2
matrice B est de type (3, 3). Donc, la matrice AB est définie et de type (2, 3). De
plus, son coefficient (AB)21 = −8 ;
3 −1 1
1 5 −2 • • • −26 −17 2
×−5 −2 1 = =
1 3 2 1 × 3 + 3 × (−5) + 2 × 2 • • −8 −1 8
2 3 2
2 1 1 1 5 2 1 4 1 1 2 1
2. AB = × = = × = BA
−1 3 3 0 8 −1 6 3 3 0 −1 3
3. Pour tout (i, j, k, l) ∈ [[1, n]] on a
Ei,j si k = l
Ei,k × El,j = δk,l Ei,j =
0 si k 6= l
.
1 si k = l
où δk,l = est le symbole de Kronecker.
0 si k 6= l
En particulier, Eij
2 =δ E .
i,j ij
0
..
.
0
car, 0 ... 0 1 0 ... 0 × 1 → j = δi,j
↑i
0
..
.
0
Nous savons que Mn (K), +, . est un K-espace vectoriel. De plus, la multiplication est
une loi de composition interne sur Mn (K). Elle est associative, distributive à gauche et
à droite par rapport à l’addition. Elle possède l’élément neutre In . Ainsi, Mn (K)+, ×
est un anneau unitaire (non commutatif dès que n > 2). Finalement, la propriété (v) du
la proposition précédente permette donc d’acquérir une structure d’algèbre unitaire sur
Mn (K).
Corollaire 3.9.
Mn (K) +, ×, . est une K-algèbre unitaire (non commutatif dès que n > 2).
8 0
z Exercice 27. Soit M = .
0 −1
1. Résoudre l’équation X 3 = M d’inconnue X ∈ M2 (R) (en remarquant que la solu-
tion X commute avec M ).
2. Résoudre dans M2 (C) l’équation X 3 = M .
Définition 3.10.
Soit A ∈ Mn (K) une matrice carrée non nul, on définit la puissance positive de A par
A0 = In ∀k ∈ N Ak+1 = Ak × A = A × Ak
q p
l Note. On a donc, Ap+q = Ap × Aq et Apq = Ap = Aq .
∀(A, B) ∈ (Mn (K))2 , ∀p ∈ N, si A et B commutent ( i.e.AB = BA), alors (AB)p = Ap B p .
Proposition 3.11. Soient A, B ∈ Mn (K) deux matrice carrées non nulles qui
commutent entre eux ( i.e.AB = BA), alors
p
X
p
∀p ∈ N A+B = Cpk Ak B p−k (Formule de binôme de Newton)
k=0
p−1
X
∀p ∈ N∗ Ap − B p = A − B Ak B p−1−k
k=0
Définition 3.13.
On dit qu’une matrice carrée A ∈ Mn (K) est nilpotente s’il existe p ∈ N∗ tel que
Ap = 0n . On appelle l’indice de nilpotente de A, le plus petit entier m tel que Am = 0n .
♣♣ Exemples 3.14.
1. Pour tout i 6= j on a, Eij
2 = δi,j Eij = 0 alors, Eij est nilpotente d’indice 2.
0 1 0
2. a) Vérifier que N = 0 0 1 est nilpotente d’indice 2.
0 0 0
2 −1 0
b) Calculer Ap pour tout p ∈ N avec A = 0 2 −1 (Ind. exprimer A en
0 0 2
fonction de N et utiliser la formule de binôme de Newton).
cos(θ) − sin(θ)
3. Calculer M (θ) pour tout p ∈ N et θ ∈ R avec M (θ) =
p . (Ind.
sin(θ) cos(θ)
commencer a évaluer M 2 (θ) ,M 3 (θ),.. conjecturer la formule de M p (θ) ! ).
4. Si D = diag(a1 , . . . , an ) ∈ Mn (K) est une matrice diagonale alors,
Dp = diag ap1,1 , . . . , apn,n ∀p ∈ N.
b Point Méthode. Pour calculer les puissances d’une matrice carrée A ∈ Mn (K)
• Essayer de décomposer A en combinaison lineaire d’une matrice αIn , α ∈ K et
d’une autre matrice simple , souvent une matrice nilpotent et utiliser la formule de
binôme de Newton.
• Dans certains exemples, calculer A2 et A2 ,. . .et ensuite, essayer de conjecturer une
formule de Ak pour tout k ∈ N que l’on montera alors par récurrence sur k.
Définition 3.15.
Une matrice carrée A ∈ Mn (K) est dite inversible s’il existe une matrice B ∈ Mn (K)
telle que :
AB = BA = In .
Notation. GLn (K) est l’ensemble des matrices inversible d’ordre n et à coefficients dans
K.
Remarques.
(i) Une matrice B vérifiant la double égalité ci-dessus est unique, en effet, s’il existe
B 0 Mn (K) vérifiant AB 0 = B 0 A = In on aura, B 0 = B 0 In = B 0 (AB) = (B 0 A)B =
In B = B. −1
(ii) La matrice B est aussi inversible et son inverse est B −1 = A−1 = A.
(iii) Pour tout A, B ∈ GLn (K) alors la matrice produit AB est l’aussi inversible et on a
−1
AB = B −1 A−1 . p
(iv) Si A ∈ GLn (K), on peut définir la puissance négative de A A−p par A−p = A−1
pour tout p ∈ N∗ .
Théorème 3.16.
GLn (K), × est un groupe non commutatif dès que n > 2.
Corollaire 3.17.
(i) ∀A ∈ GLn (K) ∀(B, C) ∈ Mn,p (K)2 AB = AC ⇒ B = C.
(ii) ∀A ∈ GLn (K) ∀(B, C) ∈ Mp,n (K)2 BA = CA ⇒ B = C.
♣♣ Exemples 3.18.
1 2
1. Montrer que A = est inversible et préciser son inverse.
1 3
1 2
2. Montrer que la matrice A = est non inversible.
1 2
−1 −2 0
3. Soit A = 2 3 0, calculer A2 en fonction de A et I3 et puis en déduire que
0 0 1
A est inversible et préciser son inverse ?
a b
1. Cherchons s’il existe une matrice B = telle que AB = I2 c.-à-d.
c d
1 2 a b 1 0
AB = × =
1 3 c d 0 1
Alors,
a =3, c = −1 et b = −2, d = 1 et en plus on a, BA = I2 . D’ou, B = A−1 =
3 −2
.
−1 1
2. De la même façon on se ramène aux deux systèmes incompatibles suivants
a + 2c = 1 b + 2d = 0
a + 2c = 0 b + 2d = 1
Ainsi, A n’admet pas d’inverse.
3. On vérifier aisément qu’on a égalité A2 = 2A − I3 . Ainsi, I3 = A 2 I3 − A =
3 2 0
2 I3 − A A. D’ou, A est inversible et A−1 = 2 I3 − A = −2 −1 0.
0 0 1
z Exercice 28.
(i) Montrer que si N ∈ Mn (K) est une matrice nilpotente d’indice p, alors In − N est
inversible.
1 −1 0
(ii) Application : Montrer que A = 0 1 −1 est inversible et donner A−1 .
0 0 1
Solution.
(i) Soit N ∈ Mn (K) une matrice nilpotente d’indice p > 1 c.-à-d., N p = 0. Alors ,
p−1 p−1
X X
In = In − N p = In − N Nk = Nk In − N
k=0 k=0
p−1
X
−1
Ainsi In − N est inversible et In − N = N k = In + N + N 2 + · · · + N p−1 .
k=0
0 1 0
(ii) On écrit, A = I3 − N où N = 0 0 1 est nilpotente d’indice 3, par suite A est
0 0 0
1 1 1
inversible et son inverse est A−1 = I3 + N + N 2 = 0 1 1.
0 0 1
Remarques.
(i) Une matrice carrée nilpotente ne sera jamais inversible.
(ii) La matrice diagonale D = diag(α1 , . . . , αn ) avec, αi 6= 0 ∀i = 1, . . . , n alors D
est inversible et son inverse B = D−1 = diag α1−1 , . . . , αn−1 (car, il est évident que
celle-ci vérifie l’identité DB = BD = In ).
a b
z Exercice 29. Soit M = ∈ M2 (R) où (a, b, c, d) ∈ R4 .
c d
Montrer que M 2 − (a + d) M + (ad − bc) I2 = 0. En déduire que M est inversible, si et
seulement si ad − bc 6= 0, en donnant l’expression de M −1 .
1 a b
z Exercice 30. Soit A = 0 1 c avec (a, b, c) ∈ R3 .
0 0 1
1. Calculer toutes les puissances positives de A.
2. Montrer que A est inversible et préciser son inverse.
3. En déduire A−k pour k > 1.
1. Montrer que
E est naturellement muni d’une structure d’espace vectoriel dont une
base I, J avec I = M (1, 0) et J = M (1, 1).
2. Montrer que E est stable par multiplication. En déduire que E, +, ×, . est une
R-algèbre unitaire commutative.
3. Prouver que la famille M (a, b), M 2 (a, b), I est liée.
Donner une relation linéaire entre ces matrices.
4. En déduire une condition pour que M (a, b) soit inversible et déterminer son inverse
lorsqu’il existe.
0 1 −1
z Exercice 32. Soit A = −1 2 −1.
1 −1 2
1. Calculer A2 − 3A + 2I3 . En déduire que A est inversible et préciser son inverse.
2. Déterminer le reste de la division euclidienne de X n par le polynôme X 2 − 3X + 2
pour tout n > 2.
3. En déduire l’expression de An pour n ∈ N.
Définition 3.19.
La transposée de la matrice A ∈ Mn,p (K), notée tA est la matrice de type (p, n) dont le
coefficient ligne i, colonne j, (i, j) ∈ [[1, n]] × [[1, p]], est le coefficient de la matrice A situé
ligne j, colonne i (en échangeant lignes et les colonnes) ,c.-à-d.
Si A = ai,j 16i6n ∈ Mn,p (K) on a tA = aj,i 16j6p ∈ Mp,n (K)
16j6p 16i6n
Proposition 3.20.
(i)La transposition permet d’échanger
les rôles des lignes et des colonnes.
(ii)Si, A ∈ Mn,p (K) alors, t tA = A.
(iii)Pour tout A, B ∈ Mn,p (K) et α ∈ K alors, t A + B = tA + tB et t(αA) = α tA.
(iv) La transposition M 7→ tM est un isomorphisme de K-e.v de Mn,p (K) dans
Mp,n (K).
(v) Si, A, B ∈ Mn (K) alors, t AB = tB tA.
−1 t −1
(vi) Si, A ∈ Mn (K) est inversible alors, sa transposée est l’aussi et tA = A .
Définition 3.21. La trace d’une matrice carrée A ∈ Mn (K), notée tr(A), est la somme
de ses coefficients diagonaux c.-à-d.
n
X
tr(A) = ai,i où A = ai,j 16i6n
16j6n
i=1
♣ Exemple 3.22. tr(In ) = n et tr(Ei,j ) = δi,j pour tout (i, j) ∈ [[1, n]]2 .
Proposition 3.23.
(i) La matrice A et sa transposée tA ont même trace.
(ii) L’application tr : Mn (K) 7→ K est une forme linaire sur Mn (K).
(iii) Pour A ∈ Mn (K) et B ∈ Mn (K), on a tr(AB) = tr(BA).
Définition 3.24.
Soit f ∈ L(E, F ) avec dimK E = p, dimK F = n . On appelle la matrice de f relati-
vement aux bases BE et BF , notée M f, BE , BF , est la matrice de type (n, p) dont
la j-ème colonne est constituée des coordonnées du vecteur f (ej )dans la base BF de F .
n
X
Autrement dit, si pour tout j ∈ [[1, p]], f (ej ) = ai,j e0i on a,
i=1
♣♣ Exemples 3.25.
1. Soit
f R2
: 7 → R3
(x, y) → 7 x − 2y, x + y, 2x + 3y
Notons e = u1 = (2, 1), u2 = (−1, 2) base de R2 et e0 la base canonique de R3 .
0 −5
Alors M f, e, e0 = 3 1 ∈ M3,2 (R).
7 4
2. La matrice relativement aux bases canoniques
de K3 [X] et K2 [X] de la dérivation
0 1 0 0
D : K3 [X] 7→ K2 [X] est 0 0 2 0 ∈ M3,4 (K).
0 0 0 3
3. Soit
f : R2 [X] 7−→ R3 [X]
,
P 7−→ XP (X + 1)
la
matrice de f relativement aux bases canoniques de R2 [X] et R3 [X] est
0 0 0
1 1 1
0 1 2 ∈ M4,3 (R).
0 0 1
Remarques.
(i) La matrice M f, BE , BE se remplie et se lit par colonnes (verticalement) et pas
horizontalement, ses coefficients dépendent du choix des bases BE et BF .
(ii) La taille de la matrice M f, BE , BF dépend uniquement de la dimension de E et
celle de F (son nombre de lignes est p = dimK F et celui de colonnes est n =
dimK E).
(iii) La donnée de la matrice de f relativement aux bases BE et BF permet de déterminer
parfaitement l’application f .
(iv) Si E = F , en général on travail par la même base au départ et à l’arrivée, dans ce
cas on écrit
M f, BE , BE = M f, BE ∈ Mn (K),
la matrice de l’endomorphisme f relativement à la base BE . En particulier,
M IdE , BE = In avec dim E = n.
♣ Exemple 3.26.
1 5 −2
L’application linéaire f ∈ associée à la matrice A =
L(R3 , R2 ) par rapport
1 3 2
aux bases canoniques respectives de R3 et R2 est
f (x, y, z) = x + 5y − 2z, x + 3y + 2z
z Exercice 33. Dans le plan R2 muni la base orthonormé ~i, ~j , on considère la rotation
R = R(O, θ) de centre O et d’angle θ ∈ R. Exprimer la matrice de l’endomorphisme R
relativement à la base ~i, ~j et donner l’expression de (x0 , y 0 ) l’image de (x, y) par la
rotation R.
Φ : L(E, F ) →
7 Mn,p (K)
f 7 → M f, BE , BF
Démonstration. L(E, F ), Mn,p (K) sont deux K-espaces vectoriels, montrons que Φ est K-
linéaire ;
En effet, soient f, g ∈ L(E, F ) et α, β ∈ K on a αf + g ∈ L(E, F ). Le coefficient ligne i,
colonne j, (i, j) ∈ [[1, n]] × [[1, p]], de M αf + g, BE , BF est la i-ème coordonnée du vecteur
αf (ej ) + g(ej) de même que le coefficient ligne i, colonne j de la matrice αM f, BE , BF +
M g, BE , BF . Ainsi,
M αf + g, BE , BF = M αf, BE , BF + M g, BE , BF = αM f, BE , BF + M g, BE , BF
Ensuite, soit A = ai,j 16i6n ∈ Mn,p (K), montrons qu’il existe une unique application
16j6p
linéaire f ∈ L(E, F ) vérifiant Φ(f ) = A, on choisitf de sorte que chaque vecteur f (ej )
Corollaire 3.28.
Les deux espaces vectoriels L(E, F ) et Mn,p (K) ont même dimension et
Démonstration.
Notation. Notons BE = (e1 , . . . , ep ) , BF = (e01 , . . . , e0n ) et BG = e001 , . . . , e00q .
f M(f,BE ,BF )
E /F BE / BF
g M(g,BF ,BG )
g◦f M(g◦f,B
E ,BG )=
M g,BF ,BG ×M f,BE ,BF
G BG
Par définition de A = M f, BE , BF = ai,j 16i6n , on a pour tout k ∈ [[1, p]]
16j6p
n
X
f (ek ) = ai,k e0i ,
i=1
Alors,
X
n n
X
g ◦ f (ek ) = g f (ek ) = g ai,k e0i = ai,k g(e0i ).
i=1 i=1
Par définition de B = M g, BF , BG = bi,j 16i6q , pour tout i ∈ [[1, n]] on a,
16j6n
q
X
g(e0i ) = bj,i e00j ,
j=1
Démonstration.
f f −1
E /F F /E
f −1 f
f −1 ◦f =IdE f ◦f −1 =IdF
E F
=⇒ Si f est bijective, alors on peut écrire :
M f, BE , BF M f −1 , BF , BE = M f ◦ f −1 , BF , BF = M IdF , BE , BF
M f −1 , BF , BE M f, BE , BF = M f −1 ◦ f, BE , BE = M IdE , BE , BE = In
−1
ce qui montre que M f, BE , BF est inversible et que M f −1 , BF , BE = M f, BE , BF .
⇐= Réciproquement, supposons M f, BE , BF est inversible et considérons l’application li-
−1
néaire g de F dans E dont M f, BE , BF est la matrice relativement aux bases BF
et BE . Alors,
M f ◦ g, BF , BF = M f, BE , BF M g, BF , BE = In = M IdF , BE , BF ⇒ f ◦ g = IdF
M g ◦ f, BE , BE = M g, BF , BE M f, BE , BF = In = M IdE , BE , BE ⇒ g ◦ f = IdE
Définition 3.31.
Soit A ∈ Mn,p (K). L’application linéaire f ∈ L(Kp , Kn ) dont A la matrice relativement
aux bases canoniques respectives de Kp et Kn est appelée l’application linéaire cano-
niquement associée à A.
Autrement dit, si A = ai,j 16i6n alors l’application linéaire canoniquement associée à A
16j6p
est
a11 x1 + · · · + a1p xp = y1
f : Kp 7 → Kn
− a21 x1 + · · · + a2p xp = y2
avec
x = (x1 , . . . , xp ) −7 → f (x) = y = (y1 , . . . , yn )
. ..........................
an1 x1 + · · · + anp xp = yn
Comme les deux espaces vectoriels Kn et Mn,1 (K) ont même dimension, nous aurons dé-
sormais tendance à identifier toute famille de n éléments de K à une colonne, c.-à-d.à
considérer que Kn = Mn,1 (K) et également, Kp = Mp,1 (K). Ainsi, nous avons l’identifica-
tion suivante :
f (x) = y ⇐⇒ A X = Y.
.
Proposition 3.33.
Soit A ∈ Mn (K). Alors les assertions sont équivalentes :
(i) A est inversible.
(ii) A est inversible à droite ( i.e.il existe B ∈ Mn (K) telle que AB = In ).
(iii) A est inversible à gauche ( i.e.il existe B ∈ Mn (K) telle que BA = In ).
Remarques.
x1
(i) x = (x1 , . . . , xp ) ∈ Ker(A) ⇐⇒ AX = 0 avec X = ... .
xn
(ii) rg A = rg(C1 , . . . , Cp ) avec C1 , . . . , Cp les vecteurs colonnes de A.
Le rg(A) est le nombre maximale des colonnes linéairement indépendantes de A.
(iii) A ∈ Mn (K) est inversible ⇐⇒ rg(A) = n ⇐⇒ KerA = {0}.
1 0 2 1
z Exercice 34. Soit A = 2 3 1 1 .
−1 2 −5 −3
1. Déterminer f l’application linéaire canoniquement associée à la matrice A.
2. En déduire le rang de la matrice A.
Définition 3.35.
• Un système de n équations linéaires à p inconnues (x1 , . . . , xp ) ∈ Kp à coefficients
dans K est de la forme
a11 x1 + · · · + a1p xp = b1
a21 x1 + · · · + a2p xp = b2
(S) ⇐⇒ AX = B.
. ..........................
an1 x1 + · · · + anp xp = bn
x1
où X = ... ∈ Mp,1 (K) est l’inconnue, A = aij i∈[[1,n]] ∈ Mn,p (K) la matrice
j∈[[1,p]]
xp
b1
..
du système (S) et B = . ∈ Mn,1 (K) son second membre.
bn
• Le système homogène (SH ) associe à (S) est le système obtenu en remplaçant B
par 0.
• Résoudre le système linéaire consiste à trouver l’ensemble de tous les p-uplets
(x1 , . . . , xp ) vérifiant (S).
Remarques.
(i) Deux situations peuvent se présenter :
- soit ce système n’a pas de solution, on dit qu’il est incompatible,
- soit il en a, on dit qu’il est compatible ; (le système admet au moins une solution
c.-à-d. soit on a une unique solution, ou bien une infinité de solutions).
(ii) Deux systèmes sont équivalentes s’ils ont les mêmes solutions.
(iii) Le système (S) est compatible ⇐⇒ B ∈ Im A ⇐⇒ (b1 , . . . , bn ) ∈ Im f .
(iv) Le système homogène (SH ) est toujours compatible (admet la solution triviale 0).
L’ensemble des solution de (SH ) est KerA, c’est donc un s.e.v de Kp de dimension
égale
p − rg(A) = le nombre d’inconues - rg(A)
Proposition 3.36.
Si n = p alors, le système (S) admet une unique solution si, et seulement, si la matrice
A est inversible. Dans ce cas, (S) est appelé un système de Cramer .
Démonstration.
♣ Exemple 3.37.
x+y+z = 3
Le système suivant, (S) 2x + y + 3z = 2 est de Cramer.
x + 2y − 6z = 1
x + y + z = 3 x+y+z = 3 x + y + z = 3
En effet, (S) ⇐⇒ −y + z = −4 ⇐⇒ −y + z = −4 ⇐⇒ −y + z = −4
y − 7z = −2 −6z = −6 +z = 1
x = −3
⇐⇒ y=5 ⇐⇒ S = {(−3, 5, 1)}.
z=1
Remarque. Toute la matrice triangulaire à termes diagonaux tous non nuls est in-
versible.
Définition 3.38. On appelle opérations élémentaires sur lignes ” OEL” l’une des
3 opérations suivantes :
(i) Échanger une ligne par une autre ; i.e. Li ↔ Lj .
(ii) Remplacer une ligne Li par λLi , λ ∈ K∗ i.e. Li ← λLi .
(iii) Remplacer une ligne Li par Li + λLj , λ ∈ K i.e. Li ← Li + λLj .
De façon analogue on définit les opérations élémentaires sur colonnes Ci 16i6p
en changeant Li par Ci .
(iv) La méthode du pivot de Gauss est une suite d’opérations élémentaires sur une
matrice.
(v) On appelle la matrice déduite de A par opérations élémentaires (sur lignes ou
colonnes) la matrice A0 ∈ Mn,p (K) obtenu par enchaînement d’opérations élémen-
taires ci-dessus.
Théorème 3.39. On ne change pas l’ensemble des solutions d’un système en effectuant
une suite d’opérations élémentaires.
Reprenons l’exemple 3.37 , on pourra simplifier un peu les calculs en représentant le système
(S) sous la forme (A | B) (appelée la matrice augmentée ) :
1 1 1 3 1 1 1 3
2 1 3 2 L2 ← L2 − 2 L1 0 −1 1 −4
1 2 −6 1 L3 ← L3 − L1 0 1 −7 −2
1 1 1 3 x + y + z = 3 x = −3
0 −1 1 −4 ⇐⇒ −y + z = −4 ⇐⇒ y=5
L3 ← L3 + L2 0 0 −6 −6 −6z = −6 z=1
On peut donc exprimer les trois premiers inconnues en fonction des inconnues 4 et
5.
- La méthode du pivot de Gauss permet à l’aide des opérations OEL de trans-
former un système à un système simple (presque-triangulaire où le nombre de zéros
précédant 1 d’une ligne augmente ligne par ligne jusqu’à ce qu’il ne reste plus que
des zéros quand n > p) dit système échelonnée réduit.
- Cas d’un système de cramer p = n : la méthode de Gauss, transforme le système
de Cramer en un système equivalent triangulaire dont les coefficients diagonaux
(pivots) sont tous non nuls.
- Cas où il y a ”trop d’inconnues” p > n Si, après avoir transformer le système, le
nombre d’inconnues est supérieur au nombre d’équations, on décide alors d’attribuer
aux inconnues supplémentaires le statut de paramètres. On recherche alors les autres
inconnues en fonction de ces paramètres.
♣ Exemple 3.40.
y − z + 2t = 2
Résoudre le système, x+y+z+t = 1
−x + 2y + 2z + t = 5
On a,
0 1 −1 2 2
1 1 1 1 1
−1 2 2 1 5
L1 ↔ L2 1 1 1 1 1 1 1 1 1 1
0 1 −1 2 2 0 1 −1 2 2
−1 2 2 2 5 L3 ← L3 + L1 0 3 3 3 6
1 1 1 1 1 1 1 1 1 1
0 1 −1 2 2 0 1 −1 2 2
1
L3 ← 3 L3 0 1 1 1 2 L3 ← L3 − L2 0 0 2 −1 0
S = { − 1, 2 − 3z, z, 2z | z ∈ R}
4 Applications
4.1 Calcul de l’inverse d’une matrice
1 1 2
♣ Exemple 3.42. Montrer que la matrice A = 3 0 3 est inversible et calculer
−2 3 0
son inverse.
1 1 2 y1 1 1 2 y1
0 1 1 y1 − 1 y2 0 1 1 y1 − 31 y2
3
5
0 5 4 2y1 + y3 L3 ← L3 − 5L2 0 0 −1 −3y1 + 3 y2 + y3
x1 = −3y1 + 2y2 + y3 x1 −3 2 1 y1
4
⇐⇒ x2 = −2y1 + 3 y2 + y3 ⇐⇒ x2 = −2 3 4
1 × y2
5 5
x3 = 3y1 − 3 y2 − y3 x3 3 − 3 −1 y3
| {z } | {z } | {z }
X =A−1 Y
à partir de cette étape on en déduit que la matrice A est inversible puisque les termes
diagonaux de la matrice triangulaire supérieur sont tous non nuls).
1 1 2 1 0 0
0 1 1 L2 ← − 13 L3 1 − 1 0
3
0 0 1 L3 ← −L3 3 − 53 −1
1 1 0 L1 ← L1 − 2L3 −5 10 3 2
0 1 0 L2 ← L2 − L3 −2 4 1
3
5
0 0 1 3 − 3 −1
1 0 0 L1 ← L1 − L2 −3 2 1
0 1 0 −2 4 1
3
5
0 0 1 3 − 3 −1
| {z } | {z }
I3 A− 1
1 1 1
z Exercice 35. Montrer que A = 1 j j 2 est inversible et donner son inverse avec
1 j2 j
2iπ
j=e 3 .
z Exercice 36. Notons Tn (K) avec n ∈ N∗ l’ensemble des matrices carrées d’ordre n
triangulaires supérieures.
1. Montrer que Tn (K) est un K-algèbre et préciser sa dimension.
2. Montre qu’une matrice triangulaire supérieure est inversible, si et seulement si, ses
termes diagonaux sont non nuls et que son inverse est une matrice triangulaire
supérieure.
1 −1 0 0
0 1 −1 0
3. Application : Déterminer l’inverse de A =
0 0
.
1 −1
0 0 0 1
Définition 3.43. Une matrice est en forme échelonnée si, le nombre de zéros précédant
la première valeur non nulle d’une ligne (pivot) augmente ligne par ligne jusqu’à ce qu’il
ne reste plus que des zéros.
♣♣ Exemples 3.44.
2 −1 0 0
0 1 0 −3
0 0 −3 0
(i) La matrice M = est échelonnée.
0 0 0 −1
0 0 0 0
0 0 0 0
0 2 −1 1
(ii) La matrice N = 0 0 1 −1 est non échelonnée.
0 −3 0 3
(iii) Si n∈ N et p ∈ N , pour tout entier, r 6 min(p, n), on note la matrice Jr =
∗ ∗
i.e.
colonne r
↓
1 0 ··· 0 ··· 0
0 1 ... 0 ··· 0
. .. .. ..
.. . . .
Ir 0r,n−r
Jr = ligne r −→
0 0 ... 1 ···
0 = 0 avec J0 = 0n,p .
0 0n−r
0
n−r,r
0 ... 0 ···
.. .. .. ..
. . . .
0 0 ··· 0 ··· 0
Proposition 3.45.
Par opérations élémentaires, toute matrice se transforme en forme réduite échelonnée.
De plus, son rang est exactement le nombre de lignes non nulles dans cette forme réduite
échelonnée.
Démonstration.
Si A = (ai,j ) ∈ Mn,p (K) où n, p > 1, on procède de la façon algorithmique suivante :
• Si, A = 0 c’est trivial et son rang vaut 0.
• Si, A 6= 0, alors au moins un coefficient est non non nul ; quitte à permuter ses
lignes, on peut supposer que a1,1 = 1( en multipliant la première ligne par a−1
1,1 et
en retranchant au n − 1 dernières, puis par des opérations cette fois sur les n − 1
dernières colonnes, on obtient une matrice de type suivant :
1 0 ··· 0
0
.. et rg(A) = 1 + rg(A0 ).
. A 0
0
colonne r
↓
1 0 ··· 0 ··· 0
0 1 ... 0 ··· 0
. .. .. ..
.. . . .
Ir 0r,n−r
ligne r −→
0 0 ... 1 ···
0 = 0 = Jr et rg(A) = r = rg(Jr ).
0 0n−r
0
n−r,r
0 ... 0 ···
.. .. .. ..
. . . .
0 0 ··· 0 ··· 0
D’où, le rang rg(A) = r est le nombre de lignes non nulles dans sa forme échelonnée.
♣ Exemple 3.46.
1 1 0 1
3 4 −1 3
Déterminer le rang de la matrice A =
4
.
3 −2 0
−1 0 2 3
Solution.
1 1 0 1 1 1 0 1
3 L2 ← L2 − 3 L1
4 −1 3 0 1 −1 0
A=
4
L3 ← L3 − 4 L1
3 −2 0 0 −1 −2 −4
L4 ← L4 + L1
−1 0 2 3 0 1 2 4
1 1 0 1 1 1 0 1
L3 ← L3 + L2 0 1 −1 0 0 1 −1 0
L4 ← L4 + L3
L4 ← L4 − L2 0 0 −3 −4 0 0 −3 −4
0 0 3 4 0 0 0 0
D’où, rg(A) = 3.
Solution.
1 2 3 1 1 2 3 1
4 2 −2 2 L2 ← L2 − 4 L1 0 −6 −14 −2
A=
3 m 2
2 L3 ← L3 − 3 L1 0 m − 6 −7 −1
m 0 −5 1 L4 ← L4 − m L1 0 −2m −3m − 5 −m + 1
1 2 3 1
0 −6 −14 −2
7(3−m) 3−m
L3 ← L3 + m−6
6 L2 0 0 3 3
L4 ← L4 − m3 L2 0 0 5(m−3) 3−m
3 3
- Si m = 3 alors,
1 2 3 1
0 −6 −14 −2
⇒ rg(A) = 2
0 0 0 0
0 0 0 0
Ainsi, rg(A) = 2.
- Si m 6= 3 alors,
1 2 3 1 1 2 3 1
0 −6 −14 −2 0 −6 −14 −2
7(3−m) 3−m L ← 3 0 0 1
0 0 3 3 3 7(3−m) L3 1 7
3 1
0 0 5(m−3) 3
3−m
3
L4 ← 5(3−m) L4 0 0 −1 5
1 2 3 1
0 −6 −14 −2
1 ⇒ rg(A) = 4.
0 0 1 7
12
L4 ← L4 + L3 0 0 0 35
Conclusion :
• Si m = 3 ⇒ rg(A) = 2.
• Si m 6= 3 ⇒ rg(A) = 4.
a b c d
Définition 3.47.
Soit E un K-espace de dimension finie non nulle n puis B = (e1 , . . . , en ) et B 0 =
(e01 , . . . , e0n ) deux bases de E. La matrice de passage de la base B à la base B 0 ,
notée PB,B0 , est la matrice dont les colonnes sont formées par les coordonnées des vec-
teurs e01 ,..., e0n dans la base B.
i.e.
e01 e02 e0j e0n
↓ ↓ ↓ ↓
e1 p1,1 p1,2 ··· p1,j ··· p1,n
e2
p2,1 p2,2 ... p2,j ··· p2,n
.. .. .. ..
. . . .
PB,B0 = pi,j 16i6n =
16j6n ei
pi,1 pi,2 ... pi,j ··· pi,n
.. .. .. ..
. . . .
en pn,1 pn,2 ··· pn,j ··· pn,n
n
X
Où e0j = pi,j ei ∀j ∈ [[1, n]].( la matrice de passage PB,B0 contient en colonne les
i=1
coordonnes des vecteurs de la nouvelle base B 0 exprimées dans l’ancienne base B).
Remarques.
(i) L’ordre des bases est primordiale dans la définition de la matrice de passage.
(ii) La matrice de passage PB,B0 est exactement la matrice de l’identité de E par rapport
aux bases B 0 et B c.-à-d.
PB,B0 = M IdE , B 0 , B .
.
(iii) PB,B0 = In ⇐⇒ B = B 0 .
−1
(iv) PB,B0 est inversible et PB,B 0 = PB 0 ,B .
♣ Exemple 3.48. Soit B = e1 , e2 , e3 une base de R3 . Notons B 0 = u1 , u2 , u3 avec
u1 = 2 e1 , u2 = −e1 + e2 et u3 = 3 e1 + e2 − e3 c’est une base de R3 . Alors on a,
1 1
2 −1 3 2 2 2
P = PB,B0 = 0 1 1 et P −1 = PB0 ,B = 0 1 1
0 0 −1 0 0 −1
Théorème 3.49.
Soient PB,B0 la matrice de passage de la base B à la base B 0 et x ∈ E et (x1 , . . . , xn )
(resp. (x01 , . . . , x0n )) les coordonnées du vecteur x dans la base B (resp. la base B 0 ). Alors,
−1
X = PB,B0 X 0 c.-à-d. X 0 = PB,B 0 X.
.
0
x1 x1
.. 0 ..
où, X = v B = . et X0 = x B = . (vecteurs colonnes)
xn x0n
n
X n
X n
X
Démonstration. Soit x = xi ei = x0j e0j , on sait que e0j = pi,j ei . Alors,
i=1 j=1 i=1
n
X n
X X
n
x= x0j e0j = x0j pi,j ei
j=1 j=1 i=1
n X
X n
= pi,j x0j ei
j=1 i=1
Xn X n
= pi,j x0j ei
i=1 j=1
n
X
Vu l’unicité de la décomposition dans la base B, il en résulte que, xi = pi,j x0j pour tout
j=1
i ∈ [[1, n]]. d’ou, l’égalité matricielle X = PB,B0 X 0 .
♣ Exemple 3.50.
Reprenons l’exemple 3.48, trouver les coordonnées de vecteur w ∈ R3 dans la base la
nouvelle base B 0 sachant que ses coordonnées dans l’ancienne base B sont (1, 2, −3) ?
Solution.
0 e02 ne sont pas colinéaires, donc B 0 est une
√ e1 et
1. Il est clair que les deux vecteurs
2 1 1
base de R2 et on a PB,B0 = .
2 −1 1
2. Par la formule de changement de base on obtient ainsi
√
√ 0
2 (x0 + y 0 )
x 2 1 1 x x =
= ⇐⇒ √ 20
y B 2 −1 1 y 0 B0
y = 2 (x − y 0 )
2
3. on a (x, y) ∈ C ⇐⇒ x2 − y 2 = 2 ⇐⇒ x0 y 0 = 1. Ainsi, C est une hyperbole
d’asymptotes (D1 ) : y = x et (D2 ) : y = −x et du centre l’origine O.
Théorème 3.52.
Soient E et F deux K-espaces vectoriels de dimension finies non nulles respectivement n
et p ainsi f ∈ L(E, F ). Si
• B et G sont deux bases de E et P = PB,G .
• B 0 et G 0 sont deux
bases de F et Q = PB0 ,G 0 .
• A = M f, B, B 0 et A0 = M f, G, G 0 .
Alors on a :
A0 = Q−1 A P.
M IdE ,G,B =PB,G =P M IdF ,B0 ,G 0 =PG 0 ,B0 =PB−1
0 ,G 0 =Q
−1
E|G / F|G 0
A0 =M f, G, G 0
QA0 = PB0 ,G 0 M f, G, G 0 = M IdE , G, G 0 M f, B 0 , G 0
= M IdE ◦ f, B 0 , G = M f ◦ IdE , B 0 , G
= M f, B, B 0 M IdE , B, G = M f, B PB,G
= AP.
Puisque Q est inversible, alors on a l’égalité désirée.
z Exercice 41.
f : R3 7 → R3
(x, y, z) → 7 x + y − 2z, x − y, y + z
Dans R3 , notons B = e1 , e2 , e3 la base canonique et B 0 = u1 , u2 , u3 une autre
base
tels que, u1 = e1 + e2 , u2 = e1 + e3 et u3 = e2 + e3 . Donner la matrice M f, B .
0
l Note. Autrement dit, A et B représentent la même application linéaire dans des bases
différentes (théorème précédant).
Proposition 3.55.
Soit A ∈ Mn,p (K).
(i) Si, P ∈ GLn (K) et Q ∈ GLp (K). Alors, rg AP = rg A et rg QA = rg A.
(ii) Deux matrices de Mn,p (K) équivalentes ont le même rang.
Démonstration.
(i) Soient A ∈ Mn,p (K) ,P ∈ GLn (K) et Q ∈ GLp (K), désignons par :
• p l’automorphisme de Kp canoniquement associé à la matrice inversible P .
• q l’automorphisme de Kn canoniquement associé à la matrice inversible Q.
• f l’application linéaire de Kp dans Kn canoniquement associée à la matrice A.
Puisque, p est un isomorphisme alors, Im f ◦ p = Im f , ce qui montre que, rg f ◦ p =
rg f . Ainsi, rg AP = rg A. Pour l’autre égalité, puisque p est un isomorphisme alors,
ker q ◦ f = ker f , d’après le théorème du rang on en déduit que,rg q ◦ f = rg f .
(ii) Soient A ∈ Mn,p (K) et B ∈ Mn,p (K) deux matrices équivalents, c.-à-d.il existe
P ∈ GLn (K) et Q ∈ GLp (K) telles que B = QAP , en vertu de (i), on a donc,
rg A = rg AP = rg Q−1 B = rg B.
Théorème 3.56.
Soit A ∈ Mn,p (K).
La matrice est de rang r si, et seulement, si elle est équivalente à la matrice Jr c.-à-d.
Il existe une matrice Q ∈ GLn (K) et P ∈ GLp (K) telles que Jr = Q A P .
Démonstration.
⇐= Si les deux matrices A et Jr sont équivalentes, d’après (ii)-Proposition 3.55 alors, rg A =
rg Jr = r.
=⇒ Supposons que rg A = r (si r = 0 on A = 0 = Jr ). Soit r 6 1 et désignons par f l’application
linéaire de Kp dans Kn canoniquement associée à A. Donc, dim(ker f ) = p − r.
Soit ur+1 , . . . , up une base de dimK ker f . Complétons cette famille libre en une base
B = u1 , . . . , ur , ur+1 , , . . . , up de Kp à l’aide d’une base d’un supplémentaire L de ker f
et posons vi = f (ui ) pour tout i ∈ [[1, r]].
Comme f induit un isomorphisme de L dans Im f , alors la famille v 1 , . . . , v r est une base
0 n
de Im f . Complétons en une base B = v1 , . . . , vr+1 , . . . , vn de K . Par construction, on
a donc M f, B, B 0 = Jr . En vertu de la formule de changement de bases, si on note P la
matrice de passage de base canonique de Kp à la base B et Q la matrice de passage de base
canonique de Kn à la base B 0 on aura alors, Jr = Q−1 AP c’est équivalent à A = Q M P 0
avec Q ∈ GLn (K) et P = P −1 ∈ GLp (K) et par la suite, les deux matrices A et Jr sont
équivalentes.
Corollaire 3.57. n, p ∈ N∗ .
(i) Deux matrices de Mn,p (K) sont équivalentes si, et seulement, si elles ont le même
rang.
(ii) Le rang d’une matrice est égale à celui de sa transposée.
(iii) Le rang d’une matrice est égale à celui de toute application linéaire qu’elle repré-
sente.
Démonstration.
(i) C’est une conséquence directe de (ii)-Proposition 3.55 et le théorème 3.56.
(ii) Soit rg A = r, alors il existe P, Q inversibles telles que A = Q Jr P , on a donc
tA = tQ tJ tP ainsi, tA et tJ sont équivalentes d’où, rg tA = rg tJ = r.
r r r
(iii) Par la formule de changement de base.
z Exercice 43. Dans R2 muni de sa base canonique e = e1 = (1, 0), e2 = (0, 1) , on
désigne par s la symétrie d’axe la droite
b) Vérifier que f = f1 , f2 est une base de R2 et exprimer la matrice de passage de
la base canonique e à la base f .
c) Déterminer la matrice de s par rapport à la base f .
2. Donner une équation cartésienne dans la base f de la courbe Γ dont l’équation
cartésienne dans la base canonique e est
Définition 3.58.
Les deux matrices A ∈ Mn (K) et B ∈ Mn (K) sont semblables lorsqu’il existe une
matrice P ∈ GLn (K) telle que B = P −1 A P et on écrit, A ∼ B.
Remarques.
(i) La similitude est une relation d’équivalence.
(ii) Si A ∈ Mn (K) et B ∈ Mn (K) sont semblable alors, Ak et B k le sont, pour tout
k ∈ N.
(iii) Deux matrices sont semblables si et seulement si, elles représentent le même en-
domorphisme
de Kn dans deux bases différentes c.-à-d. A = M f, B et B =
M f, B .0
♣♣ Exemples 3.59.
0 1 2 1
(i) A = et B = sont deux matrices semblables.
−1 3 1 1
2 1 1 1
(ii) B = et C = ne sont pas des matrices semblables.
1 1 1 1
x y
Cherchons P = inversible tel que B = P −1 A P ⇐⇒ P B = A P ?
z t
z = 2x + y
z = 2x + y
t=x+y t=x+y z = 2x + y
⇐⇒ ⇐⇒
2z + t = −x + 3z
t − z = −x t=x+y
z + t = −y + 3t z − 2t = −y
0 1
Pour (x, y) = (0, 1) on aura P = ∈ GL2 (R). Ainsi, A et B sont semblables.
1 1
Comme tr(B) = 3 6= tr(C) = 2 alors, B et C ne sont pas semblables.
b Point Méthode. Pour montrer que deux matrices ne sont pas semblables
il suffit de vérifier qu’elles n’ont pas la même trace ou le même rang.
1 −1 4 1 3 4
z Exercice 44. A = 2 −2 8 et B = 0 −2 6 sont-elles des matrices
3 −3 12 0 8 12
semblables ?
f : R3 7 → R3
−
(x, y, z) 7−→ x + y, 2x + y + 2z, y + z
Notons B = e1 , e2 , e3 la base canonique de R3 .
1. Montrer que f est un automorphisme de R3 .
2. Donner A = M f, B ( la matrice de f relativement associée à la base canonique
B).
3. Montrer qu’il existe trois vecteurs non nuls u1 , u2 et u3 de R3 tels que
z Exercice 46. Soient A et B deux matrices dans Mn (R). Résoudre l’équation d’inconnu
X ∈ Mn (R) :
X = T r(X)A + B.
II. Déterminants
1.1 Généralités
Le déterminant est une application de Mn (K) dans K qui a de nombreuses propriétés im-
portantes, mais dont l’existence est un peu délicate. Nous allons donc admettre le théorème
suivant.
Théorème 3.61.
Il existe une unique application de Mn (K) dans K, appelée déterminant, telle que
(v) Le déterminant est linéaire par rapport à chaque vecteur-colonne, les autres étant
fixes.
(vi) Si une matrice A ∈ Mn (K) a deux vecteurs colonnes égaux, alors son déterminant
est nul.
(vii) Le déterminant de la matrice identité In vaut 1.
l Note.
Une application de Mn (K) à valeurs dans K qui vérifiée la propriété (i) du théorème
3.61 est dite une forme multilinéaire c.-à-d.elle est linéaire par rapport à chacune de ses
vecteurs-colonnes.
Remarque. Le déterminant est la seule forme multilinéaire alternée qui vaut 1 sur
les matrices In . Les autres formes multilinéaires alternées sont les multiples scalaires du
déterminant.
1.2 Propriétés
Proposition 3.62.
(i) Soit A une matrice de Mn (K) et A0 la matrice obtenue en échangeant deux co-
lonnes distincts de A, alors on a det A0 = − det A.
(ii) Soit A une matrice de Mn (K) et A0 la matrice obtenue en ajoutant à une colonne
de A une combinaison linéaire des autres colonnes de A, alors on a det A0 = det A.
(iii) Si une colonne de A est combinaison linéaire des autres colonnes alors det A = 0.
Démonstration.
(i) Soit A = (C1 , . . . , Cn ). On va échanger les colonnes i et j, ce qui donne la matrice
A0 = C1 , . . . , Cj , . . . , Ci , . . . , Cn où le vecteur Cj se retrouve en colonne i et le vecteur Ci
en colonne j (on pris ici i < j, sans perte de généralité). Introduisons alors une troisième
matrice
Ab = C1 , . . . , Ci + Cj , . . . , Cj + Ci , . . . , Cn ∈ Mn (K).
Or chacun des déterminants apparaissant sous le signe de sommation est nul, puisqu’il
concerne une matrice dont les colonnes i et j sont égales. D’ou, det A0 = det A.
(iii) Si une colonne de A est combinaison linéaire des autres colonnes, on soustrait à cette
colonne la combinaison linéaire en question, ce qui modifie pas le déterminant. La ma-
trice obtenue a une colonne nulle, et par linéarité par rapport à cette colonne, donc le
déterminant est nul.
Théorème 3.63.
Le déterminant d’une matrice triangulaire est le produit des éléments de sa diagonale
principale. En particulier,
det Diag(a1 , . . . , an ) = a1 a2 . . . an
Démonstration. On va traiter le cas la matrice est une matrice triangulaire supérieure, soit
a11 a12 . . . . . . a1n
0 a22 a23 · · · a2n
.. . . . . . . .
.
A= . . . . .
.. . . . . ..
. . . .
0 ··· ··· 0 ann
1 a12 . . . . . . a1n
0 a22 a23 · · · a2n
.. . . .. .. ..
det A = a11 . . . . .
.. .. .. ..
. . . .
0 ··· ··· 0 ann
1 0 ... ... 0
0 a22 a23 · · · a2n
.. . . .. .. ..
det A = a11 . . . . .
.. .. .. ..
. . . .
0 ··· ··· 0 ann
1 0 ... ... 0
0 1 a23 · · · a2n
.. . . .. .. ..
det A = a11 a22 . . . . .
.. .. .. ..
. . . .
0 ··· ··· 0 ann
1 0 ... ... 0
0 1 0 ··· 0
.. . . .. .. .
det A = a11 a22 . . . ann . . . . ..
.. .. .. .
. . . ..
0 ··· ··· 0 1
Proposition 3.64.
(i) Pour tout A, B ∈ Mn (K) alors det(A × B) = det(A) det(B).
(ii) Pour tout A ∈ Mn (K) et λ ∈ K on a det(λA) = λn det A .
(iii) La matrice A de Mn (K) et sa transposée tA ont le même déterminant c.-à-d.
det tA = det A .
Remarques.
(i) Attention le déterminant d’ordre n > 2 n’est pas linéaire ! det(A+B) 6= det A+det B
et det(λA) 6= λ det A .
(ii) Tout ce que l’on a dit des déterminants à propos des colonnes est donc vrai pour les
lignes. Ainsi, le déterminant est multilinéaire par rapport aux lignes, si une matrice
a deux lignes égales, son déterminant est nul, on ne modifie pas un déterminant en
ajoutant à une ligne une combinaison linéaire des autres lignes, etc.
Définition 3.65.
Si M = [ai,j ] est une matrice carrée d’ordre n > 2, on appelle le cofacteur de ai,j , le
scalaire Ai,j = (−1)i+j det Mi,j ou Mi,j la matrice carrée d’ordre (n − 1) et déduite de M
par la suppression de la ie ligne et de la j e colonne.
n
X
det M = ak,j Ak,j ∀j ∈ [[1, n]].
k=1
Remarques.
a11 a12
1. Dans le cas n = 2 si M = alors
a21 a22
Théorème 3.66.
Si M = [ai,j ] est une matrice carrée d’ordre n > 2 et Ai,j le cofacteur de ai,j , alors, pour
n
X
tout i dans [[1, n]], on a det M = ai,k Ai,k , développement du déterminant suivant la ie
k=1
ligne.
Définition 3.67.
Si M = [ai,j ] est une matrice carrée d’ordre n > 2, on appelle matrice des cofacteurs ou
comatrice de M , et on note Com M , la matrice de terme général Ai,j , le cofacteur relatif
à ai,j .
1. c’est une unité de mesure de la rapidité de calcul d’un système informatique, 1 exaflops équivaut à
mille de milliards (1012 ) d’opérations en virgule flottante par seconde.
Com M = [Ai,j ] = (−1)i+j det Mi,j
Corollaire 3.69.
— Une matrice carrée inversible d’ordre n > 2 est inversible, si et seulement si, son
déterminant est non nul.
— Si M est une matrice carrée inversible d’ordre n > 2, on a
1 t
M ∈ GLn (K) =⇒ M −1 = (Com M )
det M
1 a1 · · · a1n−1
1 a2 · · · a2n−1 Y
V (a1 , . . . , an ) = = (aj − ai )
.................
16i<j6n
1 an · · · ann−1
Solution.
S’il existe i < j avec ai = aj , le déterminant possède deux lignes identiques ; il est donc
nul et la formule est vérifiée. On envisage maintenant le cas où les ai sont distincts deux à
deux et on effectue une démonstration par récurrence sur n.
Pour n = 2, V (a1 , a2 ) = a2 − a1 .
Méthode 1 : En développant P (x) = V (a1 , . . . , an , x) par rapport à la dernière ligne, on
remarque que P est un polynôme de degré n et de coefficient dominant V (a1 , . . . , an ) ; on
remarque aussi que P (ai ) = 0 (si x = ai , le déterminant possède deux lignes identiques) et
P admet n racines distinctes. Ainsi,
n
Y
P (X) = V (a1 , . . . , an ) (X − ak )
k=1
3 Applications
3.1 Déterminant et système de Cramer
Rappelons qu’un système linéaire de n équations à n inconnues
a11 x1 + · · · + a1n xn = b1
a21 x1 + · · · + a2n xn = b2
(S) ⇐⇒ M X = B ,
...........................
an1 x1 + · · · + ann xn = bn
est appelé système de Cramer si, et seulement si sa matrice M = [ai,j ] ∈ Mn (K) est
inversible. auterement dit, det M 6= 0.
Théorème 3.70.
L’unique solution d’un système de Cramer est donnée par
det Mj
∀j ∈ [[1, n]], xj =
det M
où Mj est la matrice déduite de M en remplaçant le vecteur colonne Cj par le second
membre B.
Pn
Démonstration. X = t(x1 , . . . , xn ) est solution de (S) si, et seulement si, j=1 xj Cj = B.
On a donc
rg M 6 inf(n, p)
Définition 3.71.
Si I est une partie non vide de [[1, n]] et J une partie non vide de [[1, p]], on appelle matrice
extraite de M associée à I et J, la matrice R = [ai,j ] où i ∈ I et j ∈ J.
Lemme 3.72. Le rang d’une matrice extraite de M est inférieur ou égal au rang de M .
Théorème 3.73.
Le rang d’une matrice non nulle est l’ordre maximal des matrices carrés inversibles ex-
traites.