Cours 1
Cours 1
. Espaces vectoriels
Définition . . Un ensemble E non vide muni d’une loi de composition interne no-
tée est un espace vectoriel sur À = (“ ou √) si (E , +) est un groupe commutatif
muni d’une action de À distributive.
Les axiomes précis sont les suivants. [(u, v , w ) 2 E 3 [( , µ) 2 À2 :
. Associativité : (u + v ) + w = u + (v + w ).
. Élément neutre : u + 0E = 0E + u = u .
. Existence d’un inverse : \u 0 tel que u + u 0 = u 0 + u = 0E (c’est-à-dire
u 0 = u ).
. Commutativité : u + v = v + u .
. (µ · u) = ( · µ)u et 1 · u = u .
. ( + µ)u = u + µu .
. Distributivité : (u + v ) = u + v .
Exemples . .
. “ est un “ espace vectoriel.
. √ est un √ espace vectoriel et aussi un “ espace vectoriel.
. E = Àn est un À espace vectoriel.
. ÀX = {f : X ! À} est un espace vectoriel sur À pour tout ensemble X .
. M n,p (À) l’ensemble des matrices à n lignes et p colonnes à coefficients dans
À est un espace vectoriel sur À.
. Sous-espaces vectoriels
Proposition . . F + G = Vect(F [ G ).
Caractérisation équivalente :
n
X n
M
Fi = Fi si pour toute combinaison linéaire nulle u 1 + u 2 + ... + u n = 0E avec
i =1 i =1
ui 2 Fi , on a nécessairement u i = 0E pour tout i 2 {1, · · · , n}.
Chapitre . Quelques rappels d’algèbre linéaire
A ! C’est une condition beaucoup plus forte que de demander seulement que
Fi \ F j = {0E } [i , j .
Une combinaison linéaire de vecteurs est par définition toujours une somme finie de
vecteurs.
. Familles libres
. Familles génératrices
. Bases
Définition . . On dit qu’une famille de vecteur d’un À- espace vectoriel, E est une
base de E si tout élément de E s’écrit de manière unique comme une combinaison
linéaire des vecteurs (u i )i 2I :
X
[u 2 E , \! ( i )i 2I 2 ÀI , presque tous nuls tel que u = i ui
i 2I
. Définition
Exemples . .
. dimÀ {0} = 0.
. dimÀ Àn = n .
. dim À[X ] = +1.
Chapitre . Quelques rappels d’algèbre linéaire
. dimÀ Àn [X ] = n + 1.
. dimÀ M n [À] = n 2 .
. dimÀ D n (À) = n .
n2 n n(n + 1)
. dimÀ Tn (À) = +n = .
2 2
Corollaire . .
. Si (v1, ..., vq ) est une famille génératrice alors il existe une sous-famille (vi 1 , vi 2 , ..., vi n )
qui est une base de E .
. Tout sous-espace vectoriel de E admet au moins un supplémentaire (en fait
une infinité).
Applications linéaires
. Définitions.
Chapitre . Quelques rappels d’algèbre linéaire
. Exemples
Exemples . .
. L’application nulle
0: E ! F
x 7! 0F
est un morphisme d’espace vectoriel.
evx : ÀX ! À
f 7! f (x )
. Composée d’applications :
si f : X ! Y , l’application
. f : ÀY ! ÀX
g 7 ! g f
ÀX ! ÀX
g 7! f g
n’est pas linéaire .
Par exemple Soient X = Y = “ et f (x ) = x 2 . Alors
2 2
f ( g + µh) = g + 2 µg hµ 2h 2 , g 2 + µh 2 = f g + µf h.
. Applications :
(a) p i (Àn ! À) (a 1, ..., a n ) 7! a i est une forme linéaire.
(b) L’application suivante est linéaire (application de 3)
ÀŒ ! ÀŒ
u 7! uv = (u n vn )n2Œ
À[X ] ! À[X ]
P 7! P Q
M q,n ! M p,n
A 7! BA
également.
Chapitre . Quelques rappels d’algèbre linéaire
. Les applications
À[X ] ! À[X ] D 1 (I ) ! “I
et sont linéaires.
P 7! P 0 f 7! f 0
. Si f 2 C 0 ([a, b], “) l’application suivante est une forme linéaire.
C 0 ([a, b], “) ! “
Rb
f 7! a f (x )dx
f`F : F ! G
x 7 ! f (x )
Proposition . . f 2 L (E , F ) est :
— injective si et seulement si Kerf = {0E } ;
— surjective si et seulement si Imf = F .
. Projecteurs, projections
Proposition . .
. p est une application linéaire.
8
> x si x 2 F .
. On a p(x ) = <
> 0 si x 2 G .
:
. On a P `F = I d F et P`G = 0 : G ! G .
. p p = p.
. I dE p est la projection sur G parallèlement à F .
Corollaire . .
. Si f 2 L (E , F ) est injective, alors dim(F ) dim(E ).
. Si f 2 L (E , F ) est surjective, alors dim(F ) dim(E ).
. Si f 2 L (E , F ) est bijective, alors dim(E ) = dim(F ).
Proposition . .
L’espace vectoriel L (E , F ) est de dimension finie, égale à dim L (E , F ) = dim E ⇥
dim F
Chapitre . Quelques rappels d’algèbre linéaire
Exemple . .
f : “2 ! “2
(x, y ) ! (y , 0)
Nous avons Kerf = Imf avec Kerf = {(x, 0), x 2 “} et Imf = {(y , 0), y 2 “}
Matrices
. Généralités
Définition . .
Si A 2 M n,p (À), on appelle :
– vecteurs lignes les matrices L 1 (A), L 2 (A), · · · L n (A), avec
Chapitre . Quelques rappels d’algèbre linéaire
Produit de Matrices
Définition . .
Si A 2 M n,p (À) et B 2 M p,m (À), on définit la matrice C = AB 2 M n,m (À) par
p
X
c i ,j = a i ,k b k ,j .
k =1
Proposition . . On a :
t(AB) = tB ⇥ tA et t(tA) = A.
Chapitre . Quelques rappels d’algèbre linéaire
Définition . . Les opérations élémentaires sur les lignes d’une matrice sont :
. La multiplication d’une ligne de A par un scalaire : dans la matrice on rem-
place la i -ème ligne L i (A) par L i (A), les autres lignes restant inchan-
gées. On appelle cette opération dilatation de la i -ème ligne et on la note
DiliL (A, ) avec 2 À.
. L’échange de deux lignes de la matrice A : dans la matrice on échange les i -
ème et j -ème lignes L i (A) et L j (A) de la matrice, les autres lignes restant
inchangées. On appelle cette opération échange des lignes i et j et on la
note EchiL,j (A) .
. L’addition à une ligne de A du produit d’une autre ligne de A par un scalaire
2 À : dans la matrice on remplace la i -ème ligne L i (A) par L i (A) +
L j (A), les autres lignes restant inchangées. On appelle cette opération
ajout à la ligne i et de fois la ligne j et on la note AjoutiL (A, j , ) .
pour i 2 {1, · · · , n} et 2 À.
. On appelle matrice de transposition dans M n (À) une matrice de la forme
n
X
n
⇡ (i , j ) = I n E i(n,n)
,i
E j(n,n)
,j
+E i(n,n)
,j
+E j(n,n)
,i
= E k(n,n)
,k
+E i(n,n)
,j
+E j(n,n)
,i
k =1
k ,i ,k ,j
Ti n,j ( ) = I n + E i(n,n)
,j
Théorème . . Les opérations élémentaires sur les lignes d’une matrice A sont dé-
crites par la multiplication de A à gauche par une matrice élémentaire donnée.
Les opérations élémentaires sur les colonnes d’une matrice A sont décrites par la mul-
tiplication de A à droite par une matrice élémentaire donnée.
Plus précisément, si n désigne le nombre de lignes de A et p son nombre de colonnes
. DiliL (A, ) = D in ( )A.
. EchiL,j (A) = ⇡ n (i , j )A.
Proposition . .
L’application Lin : M n,p (À) ! L (Àp , Àn ) définie par Lin(A)(x ) = t (At x ) est une
application linéaire qui vérifie Lin(AB) = Lin(A) Lin(B). On confond dans cette écri-
ture le vecteur x 2 Àp et le vecteur colonne x 2 M p,1 (À).
Proposition . .
. rg(A) = rg((Lin(A)) ;
. rg(t A) = rg(A) ;
. rg(AB) min(rg(A), rg(B)) ;
. rg(A) + dim( Ker(A)) = p.
Définition . . Une matrice A 2 M n,p (À) est inversible s’il existe une matrice
B 2 M p,n (À) telle que AB = I n et BA = I p .
Loi de composition
B 0
MatB,B (fB ).
0 0
Proposition . . On a MatB,B (fB
B ) = Mat
B,B 0 (IdE ). En particulier MatB,B (fB )
B
Matrices inversibles
. Définition et Propriétés
La dernière partie du théorème signifie que toute matrice inversible peut s’écrire
A = M 1 ⇥ M 2 ⇥ · · · ⇥ M m où les matrices M i sont des matrices élémentaires (de
dilatation, de transposition, de transvection).
La démonstration est exactement la méthode du pivot de Gauss de résolution des
systèmes linéaires.
. Calcul de l’ inverse
Il existe différentes techniques pour calculer l’inverse d’une matrice
On utilise le fait que si A 2 M n (À) est inversible, alors pour X ,Y 2 M n,1 (À), on
a:
AX = Y , X = A 1Y .
Déterminer A 1 revient donc à résoudre le système linéaire de n équations à n in-
connues (avec second membre) AX = Y .
Chapitre . Quelques rappels d’algèbre linéaire
Méthode parallèle
1
B =A = Mp Mp 1 · · · M2M1 = Mp Mp 1 · · · M 2M 1I n .
A ! On peut choisir de faire des opérations sur les colonnes plutôt que sur
les lignes, mais nn ne peut mélanger les opérations sur les lignes et les colonnes pour
obtenir A 1 . par cette méthode
Matrices carrées
. Matrices semblables
Définition . . On dit qu’une matrice carrée A 2 M n (À) est diagonale si tous ses
coefficients en dehors de la diagonale sont nuls, c’est à dire si A 2 Vect(E i ,i )1i n .
On note Diagn (À) ou D n (À) l’ensemble des matrices diagonales et on écrit D =
diag(a 1, a 2, · · · , a n ) pour désigner la matrice diagonale dont les coefficients sont
d i ,j = 0 si i , j et d i ,i = a i .
Exemples . .
. La matrice nulle est diagonale.
Chapitre . Quelques rappels d’algèbre linéaire
Matrices triangulaires
Proposition . . Les ensembles Tn (À) et Tns (À) sont des sous-algèbres de M n (À),
n(n+1) n(n 1)
de dimensions respectives 2 et 2 , et on a Tn (À) = D n (À) Tns (À).
Proposition . . Si N 2 Tns (À), alors N n = 0, c’est à dire que N est une matrice
nilpotente.
Pour montrer cela, on montre par exemple par récurrence que N k a des coeffi-
cients n i ,j (k ) qui vérifient n i ,j (k ) = 0 dès que i + k j.
Chapitre . Quelques rappels d’algèbre linéaire
Proposition . .
. L’application Tr est une forme linéaire sur M n (À).
. Pour toutes matrices A, B 2 M n (À), on a Tr(AB) = Tr(BA).
. Deux matrices semblables ont la même trace.
A ! L’ordre dans l’écriture est essentiel car, en général, A1,1 B 1,1 , B 1,1 A1,1 .
On en déduit en particulier que le produit de matrices diagonales par blocs est encore
diagonal par blocs et que le produit de matrices triangulaires par blocs est encore
triangulaire par blocs.
*. +/ *. +/ *. +/ *. +
1 2 1 5
1 //
u 1 = .. // u 2 = .. // u 3 = .. // .
1 0 1
u4 = .
. /
3 . 3/ . 6/ . 12//
,2- , 1- , 3- , 5-
Chapitre . Quelques rappels d’algèbre linéaire
C2 C2 2C 1
C3 C3 C1
*. + *. +
1 2 1 5 1 0 0 0
1 // 6 //
A = .. ! ..
1 0 1 C4 C4 5C 1 1 2 2
.3 3 6 12// .3 9 9 27//
,2 1 3 5- ,2 5 5 15-
C3 C3 C2
*. +
1 0 0 0
0//
! ..
C4 C4 3C 2 1 2 0
. 3 9 0 0//
,2 5 0 0-
F = *3
+2µ +
9µ : ( , µ) 2 “2
,2 5µ -
8
>
>
x = 8
>
>
x = 8
>
>
x=
>
>
> >
>
> >
>
>
>
< > y +x >
() < () <
y = + 2µ = 2µ y + x = 2µ
>
>
> >
>
> >
>
>
>
>
>
z =3 9µ >
>
>
z 3x = 9µ >
>
>
2z 6x = 9(y + x )
: t =2 5µ : t 2x = 5µ : 2(t 2x ) = 5(y + x )
On obtient donc la représentation suivante de F sous forme de système d’équa-
tions cartésiennes :
(
3x + 9y + 2z = 0
x + 5y + 2t = 0
Chapitre . Quelques rappels d’algèbre linéaire
2(x t ) + (y 2t ) (z t) = 0
() t = (2x + y z )/3
11 7 0 3
A = . 0 1 11 2+/
*
, 1 0 7 1-
Déterminer le rang de f , et donner une base de ker f et une base de Imf . Donner
une représentation de l’ image sous forme de systèmes d’équations cartésiennes.
C2 C 2 + 7/11C 1
11 7 0 3 11 0 0 0
*. 0 1 11 2+/ C 4 C 4 + 3/11C 1 *
!. 0 1 11 2 +/
, 1 0 7 1- , 1 7/11 7 14/11-
C3 C3 11C 2
11 0 0 0
C4 C4 2C 2 *
!. 0 1 0 0+/
, 1 7/11 0 0-
✓ ◆ ✓ 0
◆
11
L’application f est donc de rang 2, et une base de son image est donnée par ( 0 , 1 ).
1 7/11
Pour trouver une équation de l’ image, on élimine les paramètres et µ dans le sys-
tème suivant :
8
>
>
x = 11
>
<y =µ
>
>
>
() x 7y + 11z = 0.
: z = + 7/11µ
Pour trouver une base du noyau, on revient à la matrice M de départ, en ef-
fectuant cette fois des manipulations élémentaires uniquement
✓ ◆ sur les lignes, qui
x
y
correspondent exactement à la résolution du système f z = 0.
t
11 7 0 3 11 7 0 3
*. 0 1 11 2+/ L 3 L 3 + 1/11L 1*
!. 0 1 11 2 +/
, 1 0 7 1- , 0 7/11 7 14/11-
7/11L 2 * 11 7 0 3
1 11 2+/
L3 L3
!. 0
, 0 0 0 0-
Chapitre . Quelques rappels d’algèbre linéaire
On retrouve bien sûr que f est de rang 2. Nous avons maintenant un système linéaire
échelonné qui décrit son noyau :
(
11x + 7y + 3t = 0
y + 11z + 2t = 0