Alg Lineaire
Alg Lineaire
Introduction
Dans ce chapitre, on présente quelques notions abstraites d’algèbre linéaire qui sont interprétées ensuite
en se ramenant à du calcul matriciel. L’objectif est de donner suffisamment de recul pour donner du sens
aux calculs.
1 Généralités
On commence par définir les objets principaux de la théorie: espace vectoriel, bases, applications linéaires.
Soit K un corps commutatif, qui le plus souvent sera R ou C, dont les éléments seront appelés
scalaires, et soit E un ensemble, dont les éléments seront appelés vecteurs. On suppose E muni d’une
loi interne d’additition notée +, et d’une loi externe de multiplication des vecteurs par un scalaire :
(λ, v) ∈ K × E 7→ λv ∈ E.
Définition 1.1. — Un ensemble E muni de deux lois comme ci-dessus est un espace vectoriel si les lois
vérifient les axiomes suivants :
1. (E, +) est un groupe abélien. Son élément neutre, noté 0, est appelé vecteur nul.
2. λ(u + v) = λu + λv pour tout λ ∈ K et tous u, v ∈ E.
3. (λ + µ)v = λv + µv pour tous λ, µ ∈ K et tout v ∈ E.
4. (λµ)v = λ(µv) = λµv pour tous λ, µ ∈ K et tout v ∈ E.
5. 1v = v pour tout v ∈ E.
On dit aussi que E est un K-espace vectoriel, ou un espace vectoriel sur K, s’il faut préciser le corps (dit
corps de base).
Il découle des définitions que 0v = 0 : en effet, on a v = (0 + 1).v = 0.v + 1.v = 0.v + v, donc 0.v = 0.
Les exemples sont nombreux et variés : Rn est un R-espace vectoriel, mais aussi un Q-espace vec-
toriel. L’ensemble K[X] des polynômes à coefficients dans K est un K-espace vectoriel, de même que
l’espace des fonctions continues de [0, 1] dans R est un R espace vectoriel. Les espaces de matrices, de
suites à valeurs scalaires ou vectorielles, de fonctions d’onde etc. sont d’autres exemples importants où
la structure d’espace vectoriel intervient de manière centrale. De manière générale, l’ensemble des appli-
cations f : X → E où X est un ensemble quelconque et E un est K-espace vectoriel est aussi un espace
vectoriel sur K, où la loi de composition interne (f + g) est définie par l’application x 7→ f (x) + g(x) et
la loi externe λf est donnée par x 7→ λ · f (x).
Combinaisons linéaires. Soit E un K-espace vectoriel. Une combinaison linéaire est une expression de
la forme
λ1 v1 + · · · + λn vn
où les λi sont des scalaires et les vi des vecteurs. Si F = (vi )i∈I est une famille de vecteurs de E (indexée
par un ensemble quelconque I), on appelle combinaison linéaire d’éléments de F toute somme finie de la
forme
λ1 v1 + · · · + λn vn ,
1
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 2
v = λ1 v1 + · · · + λn vn .
Sous-espaces vectoriels. Comme pour n’importe quelle structure algébrique, nous avons une notion de
sous-espace : une partie F d’un K-espace vectoriel E est un sous-espace vectoriel de E (ou sous-K-espace
vectoriel, s’il faut préciser le corps de base) si F hérite d’une structure d’espace vectoriel de celle de E.
Autrement dit, d’une part F est non vide (on vérifie le plus souvent que 0 ∈ F pour montrer cela), et
d’autre part il est stable par addition et multiplication par des scalaires :
∀x, y ∈ F, x + y ∈ F, ∀λ ∈ K, ∀x ∈ F, λx ∈ F.
De manière plus générale, F est un sous-espace vectoriel de E si toute combinaison linéaire d’éléments de
F est encore dans F.
On montre que F est un sous-espace vectoriel comme suit :
(i) F 6= ∅;
(ii) ∀(λ, x, y) ∈ K × F2 , (x + λy) ∈ F.
Opérations sur les sous-espaces. On vérifie aisément que l’intersection d’une famille de sous-espaces
vectoriels est encore un sous-espace vectoriel. En revanche, la réunion d’espaces vectoriels n’est pas en
général un sous-espace.
Si F, G sont des sous-espaces, on écrit
F + G = {x ∈ E, ∃ (a, b) ∈ F × G, x = a + b} .
On montre qu’une application f : E → F est linéaire comme suit. On considère deux vecteurs quelconques
u, v et un scalaire λ ∈ K et on établit l’égalité f (u + λv) = f (u) + λf (v).
On dit que f est un isomorphisme si f est une application linéaire bijective. On peut montrer alors
que son inverse est aussi linéaire.
On définit le noyau de f par
et l’image de f par
Im f = f (E) .
Ce sont des sous-espaces vectoriels de E et F respectivement. L’application linéaire f est injective si et
seulement si Ker f = {0} et surjective si et seulement si Im f = F.
L’ensemble des applications linéaires entre deux espaces E et F donnés est noté L(E, F); cet espace
a aussi la structure d’un espace vectoriel. On parle d’endomorphisme quand E = F; dans ce cas, on note
plus simplement L(E). Enfin, les automorphismes de E c’est-à-dire les endomorphismes bijectifs de E
sont notés GL(E); cet espace a la structure de groupe pour la composition.
Parmis les exemples, notons les homothéties, de la forme x 7→ λx pour un scalaire λ, ainsi que les
projections: si E = F ⊕ G, alors la projection p : E → E sur F parallèlement à G est définie comme suit.
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 3
On écrit x = xF + xG , alors x 7→ xF est une application linéaire. On peut vérifier que p ◦ p = p, Ker p = G
et Im p = F. Réciprquement, une application linéaire p : E → E telle que p ◦ p = p est la projection de E
sur Im p parallèlement à Ker p. On a en particulier E = Ker p ⊕ Im p.
Enfin, le dual E∗ de E est l’espace des formes linéaires, c’est-à-dire des applications linéaires f :
E → K.
Exercice 1.2. — Soient E et F deux K-espaces vectoriels, et f : E → F une application linéaire. Soit de
plus G (resp. H) un sous-espace vectoriel de E (resp. F). Montrer que f (G) est un sous-espace vectoriel
de F, de même que f −1 (H) est un sous-espace de E.
Familles génératrices, libres, liées. Bases. Une famille de vecteurs F d’un K espace vectoriel E est
dite génératrice si tout vecteur de E est combinaison linéaire d’éléments de F. Autrement dit, pour tout
vecteur v de E, il existe des scalaires λ1 , . . . , λn et des éléments v1 , . . . , vn de F tels que
n
X
v= λi vi .
i=1
La famille F est dite libre si, lorsque qu’une combinaison linéaire d’éléments de F vérifie
λ1 v1 + · · · + λn vn = 0,
où (λi )1≤i≤n ∈ Kn sont des scalaires inconnus. Puis on cherche à montrer que tous les scalaires sont nuls.
Enfin, on dit que F est une base de E si c’est une famille libre et génératrice. Connaître une base
d’un K-espace vectoriel permet de travailler «en coordonnées». Cela signifie que pour tout v ∈ E, il existe
un entier n ≥ 0, des scalaires λ1 , . . . , λn et des vecteurs v1 , . . . , vn de F tels que
n
X
v= λj vj
j=1
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 4
et cette écriture est unique. Le cas de la dimension finie est particulièrement important. On montre
P famille est une base comme suit : soit v ∈ E, on détermine explicitement des scalaires tels que
qu’une
v = 1≤i≤n λi vi et on montre qu’ils sont uniques. Ou alors, on utilise la définition.
Si E = Kn , n ≥ 1, la base canonique Bn est la famille (ei )1≤i≤n dont les coordonnées du vecteur ei
sont toutes nulles, sauf la iième qui vaut 1. On vérife facilement que Bn est libre et génératrice.
Exercice 1.3. — Soient E un K-espace vectoriel, et F = {v1 , . . . , vn } une famille finie de vecteurs.
1. Montrer que l’application
ϕF : Kn → E
Xn
(xj )1≤j≤n 7 → x j vj
j=1
Exercice 1.4. — Soit E l’ensemble des suites de nombres réels : E = {(αn )n∈N , αn ∈ R}. On définit
l’addition de deux suites de manière naturelle par (αn ) + (βn ) = (αn + βn ), et de même la multiplication
par un scalaire par λ(αn ) = (λαn ). Montrer que E est un R-espace vectoriel. Pour tout entier k ≥ 0, on
(k) (k) (k) (k)
définit la suite (αn ) par αn = 0 si n 6= k et αk = 1. Montrer que la famille D = {(αn ), k ∈ N} est
une famille libre mais non génératrice de E. Montrer que Vect(D) est isomorphe à R[X].
Théorème 2.1 (de la base incomplète). — Soient E un espace vectoriel et F = {v1 , . . . , vn } une
famille génératrice. On suppose que pour un certain 1 ≤ k ≤ n, L = {v1 , . . . , vk } est libre. Alors il existe
une base B telle que L ⊂ B ⊂ F. Par conséquent,
(i) toute famille libre peut être complétée afin d’obtenir une base de E;
(ii) de toute famille génératrice, on peut extraire une base.
Lemme 2.2 (et définition). — Toutes les bases d’un même espace vectoriel ont même cardinal. On
note alors dim E = Card{base}. En particulier,
ϕB : Kn → E
n
X
(xj )1≤j≤n 7→ xj e j
j=1
xn
Soient E = (e1 , . . . , en ) une base de E et F = (f1 , . . . , fk ) une base de F. La matrice de u dans les
bases E et F est
u(e1 )u(e2 ) . . . u(en )
a1,1 a1,2 . . . a1,n f1
2,1 a2,2 . . . a2,n
Mat(E,F) (u) = a ..
. . . . . . ai,j . . . .
ak,1 ak,2 . . . ak,n fk
Pk
où (ai,j )1≤i≤k,1≤j≤n sont les scalaires tels que, pour tout j ∈ {1, . . . , n}, u(ej ) = i=1 ai,j fi . On tire
l’expression
Xk Xn
u(x) = ai,j xj fi .
i=1 j=1
Cette écriture définit le produit d’une matrice rectangulaire par une colonne. Réciproquement, toute
matrice A = (ai,j ) de taille k × n s’interprète comme une application linéaire uA : E → F en posant
n X
X k
uA (x) = ai,j xj fi .
j=1 i=1
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 6
2. Si (e1 , e2 , ... , en ) est une base de E, alors (u(e1 ), u(e2 ), ... , u(en )) engendre Im u.
3. On a dim E = dim Ker u + dim Im u. Il suffit de considérer une base (e1 , . . . , ep ) de Ker u et de la
compléter en une base (e1 , . . . , , en ) de E. Dans ce cas, (u(ep+1 ), . . . , u(en )) est une base de Im u.
4. Soit u ∈ L(E, F), où E et F sont de même dimension (finie); les propositions suivantes sont équiva-
lentes:
(i) u bijectif.
(ii) u injectif.
(iii) Ker u = {0}.
(iv) dim Im u = dim E.
(v) u surjectif.
5. Le dual E∗ de E est un espace vectoriel de même dimension que E lorsque E est de dimension finie.
Soit B = (e1 , . . . , en ) une base de E, alors tout vecteur x s’écrit
n
X
x= xj e j .
j=1
On vérifie que e∗j : x ∈ E 7→ xj définit une forme linéaire, appelée fonction coordonnée. La famille
de formes B∗ = (e∗1 , . . . , e∗n ) définit la base duale de B, qui est bien une base de E∗ . Si u : E → F est
une application linéaire, on définit tu : F∗ → E∗ en posant tu(f ) = f ◦ u.
Opérations matricielles. Soient A = (ai,j ) et B = (bi,j ) deux matrices de taille n×k. On les interprète
comme des endomorphismes uA , uB : Kk → Kn muni des bases canoniques Bk et Bn . Prenons un scalaire
λ ∈ K. On pose alors
C = A + λB = Mat(Bk ,Bn ) (uA + λuB ) .
En écrivant C = (ci,j ), on trouve
ci,j = ai,j + λbi,j .
De même, si A est de taille k × n et B de taille n × p, on définit le produit
On dit que A est inversible si uA est un isomorphisme. On note A−1 ∈ Mk,n (K) la matrice de u−1A .
On a AA−1 = In et A−1 A = Ik où In est la matrice de l’identité sur Kn ; autrement dit les seuls termes
non nuls sont sur la diagonale et sont égaux à 1. On a aussi AIk = In A = A.
Si A = (ai,j ) est de taille n × k, alors on définit
t
A = Mat(B∗ ,C∗ ) tuA .
2.2 Déterminants
Une forme n-linéaire est une application f : En → K qui est linéaire par rapport à chaque variable,
c’est-à-dire que pour tout j ∈ {1, . . . , n}, si vi ∈ E est fixé pour chaque i 6= j, l’application
v 7→ f (v1 , . . . , vj−1 , v, vj+1 , . . . , vn )
est linéaire.
On dit que f est alternée si f (v1 , . . . , vn ) = 0 dès que deux vecteurs sont égaux vi = vj , i 6= j. Dans
ce cas, si on échange la position de deux vecteurs vi et vj , i 6= j, alors on change de signe:
f (v1 , . . . , vi , . . . , vj , . . . , vn ) = −f (v1 , . . . , vj , . . . , vi , . . . , vn ) .
De plus, si (v1 , . . . , vn ) est liée, alors f (v1 , . . . , vn ) = 0.
Soit f une forme n-linéaire alternée sur un espace E de dimension n muni d’une base B = (e1 , . . . , en ).
Alors f est complètement déterminée par f (e1 , . . . , en ). En effet, la linéarité de f par rapport à chaque
variable permet de décomposer f en une expression ne faisant intervenir Pn que la décomposition de chaque
vj en fonction de B et f (e1 , . . . , en ). Plus précisément, si vj = i=1 ai,j ei pour chaque j ∈ {1, . . . , n},
alors
n n
!
X X
f (v1 , . . . , vn ) = f ai,1 ei , . . . , ai,n ei
i=1 i=1
n n n
!
X X X
= ai,1 f ei , ai,2 ei , . . . , ai,n ei
i=1 i=1 i=1
= ...
X Yn
= aσ(i),i f (eσ(1) , . . . , eσ(n) )
i=1
σ∈sn
De cette formule compliquée, il faut retenir que l’on fait une combinaison linéaire de termes formés de
produits dont les facteurs sont choisis en en prenant qu’un par ligne et par colonne.
Définition 2.3 (déterminant). — Soit E un espace vectoriel muni d’une base B = (e1 , . . . , en ). Le
determinant detB relatif à B est l’unique forme n-linéaire alternée telle que detB (e1 , . . . , en ) = 1.
Par conséquent, le déterminant d’une famille de vecteurs est nul si et seulement si la famille est liée. Du
coup, une famille F = (v1 , . . . , vn ) est une base si et seulement si son déterminant est non nul.
Si f ∈ L(E), on définit detB (f ) par detB (f (e1 ), . . . , f (en )).
Dans Kn , le déterminant est défini relativement à la base canonique, qui n’est donc pas précisé dans
la notation. L’usage est de condenser les n vecteurs colonnes formant l’argument du déterminant en une
matrice carrée. On a les propriétés suivantes:
1. On a det(AB) = det A × det B, donc si A est inversible alors det(A−1 ) = (det A)−1 .
2. On a det A = det tA.
3. Si λ ∈ K alors det(λA) = λn det A.
4. Si A = (ai,j )1≤i,j≤n
Q est triangulaire supérieure (ai,j = 0 si i < j) ou inférieure (ai,j = 0 si i > j)
alors det A = 1≤i≤n ai,i .
5. Si A est une matrice par blocs triangulaire
B C B 0
ou
0 D C D
avec B, D des matrices carrées, alors det A = det B × det D.
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 8
3 Cas particulier : E = Kn
On considère E = Kn , n ≥ 1, comme K espace vectoriel de dimension n.
La base canonique est la famille (ei )1≤i≤n dont les coordonnées du vecteur ei sont toutes nulles, sauf
la iième qui vaut 1.
Soit F = (v1 , v2 , ... , vp ) uneP
famille de vecteurs de Kn . Pour chaque j ∈ {1, . . . , p}, il existe des
n
scalaires (ai,j )1≤i≤n tels que vj = i=1 ai,j ei . Autrement dit,
a1,j
vj = ...
an,j
4 Changements de bases
Soient B = {e1 , . . . , en } et B0 = {e01 , . . . , e0n } deux bases de E.
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 9
Définition 4.1. — On appelle matrice de passage de la base B à la base B0 la matrice dont les coefficients
sont les coordonnées des vecteurs de B0 dans la base B.
Ainsi, en notant P la matrice de passage de B à B0 , on lit dans les colonnes de P les vecteurs de B0 en
fonction de B : pour tout j, on a e0j = a1j e1 + · · · + anj en ,
On constate alors que P n’est autre que la matrice de l’application identité exprimée dans les bases B0
et B, i.e.:
Regardons comment nous pouvons utiliser cette matrice pour étudier l’effet d’un changement de
bases sur les vecteurs colonnes. Notons X (resp. X0 ) le vecteur colonne des coordonnées d’un vecteur x
dans la base B (resp. la base B0 ) :
0
x1 x1
.. 0 ..
X= . X = . .
xn x0n
X = PX0 .
Toute la construction précédente admet en quelque sorte une réciproque. Soient en effet E un espace
vectoriel de dimension finie, et B = {e1 , . . . en } une base de E. Soit P = (aij ) une matrice carrée d’ordre
n inversible, et f l’endomorphisme qui admet P pour matrice dans la base B, i.e. P = Mat(f, B, B).
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 10
Alors f est en fait un automorphisme (un endomorphisme inversible) et donc le système de vecteurs
B0 = {f (e1 ), . . . , f (en )} forme une base de E. En écrivant
f (e1 ) . . . f (en )
a11 · · · a1n e1
.. .. .. ,
. . .
an1 ··· ann en
on s’aperçoit que P n’est autre que la matrice de passage de B à B0 . Il est d’ailleurs clair que P =
Mat(IdE , B0 , B). On a donc démontré le théorème suivant :
Théorème 4.3. — Soit E un espace vectoriel de dimension finie n muni d’une base B. Alors toute
matrice inversible P d’ordre n est la matrice de passage de la base B à une base BP de E, et toute base
B0 de E s’exprime à l’aide d’une matrice inversible d’ordre n.
On a donc une correspondance bi-univoque entre l’ensemble des bases de E et les matrices inversibles
d’ordre n.
On en déduit immédiatement, comme Q est inversible, que Y0 = Q−1 APX0 , d’où la relation fondamen-
tale :
B = Q−1 AP (4.1)
En explicitant un peu plus cette formule, elle devient encore plus claire :
B = Q−1 AP .
Le théorème suivant fournit un lien important entre applications linéaires et classes d’équivalence
de matrices.
Théorème 4.5. — Soient E et F deux espaces vectoriels de dimension finie n et p respectivement et
f : E → F une application linéaire.
L’ensemble Af de toutes les matrices de f obtenues en faisant varier les bases de E et de F est une
classe d’équivalence des matrices de type p × n.
Théorème 4.3, il existe une base B de E (resp. C de F) telle que P (resp. Q) soit la matrice de passage de
BA vers B (resp. de CA vers C). Soient x un vecteur de E et y = f (x). On note XA ∈ Rn les coordonnées
de x dans la base BA , X ∈ Rn les coordonnées dans la base B, YA ∈ Rp les coordonnées de y dans la
base CA , Y ∈ Rp les coordonnées dans la base C. Par suite, on a XA = PX et YA = QY.
Comme A est la matrice de f , on a YA = AXA . Donc QY = APX et
Y = Q−1 APX = BX .
On en déduit que B est la matrice de f dans les bases B et C. Du coup, B ∈ Af .
Corollaire 4.8. — Deux matrices de Mk,n (K) sont équivalentes si et seulement si elles ont même rang.
Remarque 4.9. — Si A = (ai,j ) ∈ Mp,n (K), on peut associer naturellement une application linéaire
fA : Kn → Kp définie par X 7→ AX. Dans ce cas, la matrice de fA dans les bases canoniques est
exactement A. En revanche, si on se fixe d’autres bases B = (ε1 , . . . , en ) et C = (ε01 , . . . , ε0p ), alors on
définira une autre application linéaire en posant
X X X
f xj εj = ai,j ε0i .
1≤j≤n 1≤j≤n 1≤i≤p
En conclusion, l’application associée à une matrice dépend fortement des bases choisies.
B = P−1 AP (4.2)
Université Paul Sabatier, 2014–2015, cours L2 spécial, Algèbre linéaire 12
Définition 4.10. — On dit que deux matrices carrées d’ordre n A et B sont semblables s’il existe une
matrice carrée inversible P d’ordre n telle que
B = P−1 AP
Déterminant. On remarque que si deux matrices sont semblables, alors elles ont même déterminant:
en effet, si A = PBP−1 alors
Du coup, si u ∈ L(E), alors, quelle que soit la base de E considérée, on obtient le même déterminant.
Trace. Si A = (ai,j )1≤i,j≤n est une matrice carré de taille n, alors on définit
n
X
tr A = ai,i .
i=1
donc
X X
tr(AB) = ai,k bk,i
1≤i≤p 1≤k≤n
X X
tr(BA) = bj,` a`,j
1≤j≤n 1≤`≤p
X X
= a`,j bj,`
1≤`≤p 1≤j≤n
Le problème de classification devient bien plus compliqué dans ce cadre. Mais on a les conditions
nécessaires suivantes:
1. rg A = rg B,
2. det A = det B,
3. tr A = tr B.