0% ont trouvé ce document utile (0 vote)
20 vues28 pages

Cours 1

Le document présente des rappels sur les espaces vectoriels, y compris leurs définitions, axiomes, sous-espaces, et propriétés telles que la somme et la dimension. Il explique également les concepts de familles libres, génératrices et de bases, ainsi que le théorème de la base incomplète. Enfin, il aborde la dimension des sous-espaces vectoriels et les relations entre la dimension de la somme de sous-espaces.

Transféré par

william.mpsim
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
20 vues28 pages

Cours 1

Le document présente des rappels sur les espaces vectoriels, y compris leurs définitions, axiomes, sous-espaces, et propriétés telles que la somme et la dimension. Il explique également les concepts de familles libres, génératrices et de bases, ainsi que le théorème de la base incomplète. Enfin, il aborde la dimension des sous-espaces vectoriels et les relations entre la dimension de la somme de sous-espaces.

Transféré par

william.mpsim
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre

Quelques rappels d’algèbre linéaire


Espaces vectoriels

. Espaces vectoriels

Définition . . Un ensemble E non vide muni d’une loi de composition interne no-
tée est un espace vectoriel sur À = (“ ou √) si (E , +) est un groupe commutatif
muni d’une action de À distributive.
Les axiomes précis sont les suivants. [(u, v , w ) 2 E 3 [( , µ) 2 À2 :
. Associativité : (u + v ) + w = u + (v + w ).
. Élément neutre : u + 0E = 0E + u = u .
. Existence d’un inverse : \u 0 tel que u + u 0 = u 0 + u = 0E (c’est-à-dire
u 0 = u ).
. Commutativité : u + v = v + u .
. (µ · u) = ( · µ)u et 1 · u = u .
. ( + µ)u = u + µu .
. Distributivité : (u + v ) = u + v .

Exemples . .
. “ est un “ espace vectoriel.
. √ est un √ espace vectoriel et aussi un “ espace vectoriel.
. E = Àn est un À espace vectoriel.
. ÀX = {f : X ! À} est un espace vectoriel sur À pour tout ensemble X .
. M n,p (À) l’ensemble des matrices à n lignes et p colonnes à coefficients dans
À est un espace vectoriel sur À.

. Sous-espaces vectoriels

Définition . . Soit F ⇢ E avec E un À-espace vectoriel. Si, muni des lois de E ,


F est un À espace vectoriel, on dit que c’est un sous-espace vectoriel de E .
Chapitre . Quelques rappels d’algèbre linéaire

Proposition . . Si E est un espace vectoriel et F ⇢ E alors F est un sous-espace


vectoriel de E si et seulement si :
. 0E 2 F .
. [(u, v ) 2 F 2 et [( , µ) 2 À2, u + µv 2 F .
Exemples . .
. {0E } et E sont toujours des sous-espaces vectoriels de E .
. “ et i “ sont des sous-espaces vectoriels du “-espace vectoriel √.
. C (I , À) est un sous-espace vectoriel de ÀI . De même pour C n (I , À), C 1 (I , À).

A ! L’ensemble des bijections de “ dans “ n’est pas un sous-espace


vectoriel de ““ . Il ne contient pas la fonction nulle.

. L’ensemble À[X ] est un sous-espace vectoriel de ÀŒ .


L’ensemble Àn [X ] est un sous-espace vectoriel de À[X ].
. Diagn (À) ⇢ M n (À), l’ensemble des matrices diagonales, est un sous-espace
vectoriel de M n (À). De même, Tn (À) ⇢ M n (À), l’ensemble des matrices tri-
angulaires supérieures, est un sous-espace vectoriel de M n (À).

A ! Si G L n (À) ⇢ M n (À) désigne l’ensemble des matrices inver-


sibles de taille n à coefficients dans À, ce n’est pas un sous-espace vectoriel de
M n (À) car, par exemple, la matrice nulle n’est pas inversible.

. Intersection de sous-espace vectoriels


Proposition . . Si F 1 et F 2 sont deux sous-espaces vectoriels de E , alors F 1 \ F 2 est
encore un sous-espace vectoriel de E .
De même, si (Fi )i 2F est une famille de sous-espace vectoriels de E , l’ensemble \ Fi
i 2I
est encore un sous-espace vectoriel de E .

. Sous-espace vectoriel engendré par une partie de E

Définition . . Soit A ⇢ E une partie d’un espace vectoriel E . Le sous-espace


vectoriel engendré par A est le plus petit sous-espace vectoriel de E qui contient
A. On le notera Vect(A). C’est le sous-espace vectoriel qui est l’intersection de
tous les sous-espaces vectoriels de E qui contiennent A. Vect(A) = \ F
A⇢F
Chapitre . Quelques rappels d’algèbre linéaire

Proposition . . Vect(A) est le sous-espace vectoriel de E formé par les combinaisons


linéaires d’éléments de A.

. Somme de sous-espaces vectoriels


Proposition . . La réunion de deux sous-espace vectoriels F et G d’un espace vec-
toriel E est un sous-espace vectoriel de E si et seulement si F ⇢ G ou G ⇢ F .

Définition . . On appelle somme de F et G , deux sous-espaces vectoriels de E


et on note F + G le sous-espace vectoriel de E : F + G = {u + v , u 2 F , v 2 G }.

Proposition . . F + G = Vect(F [ G ).

. Somme directe de sous-espaces vectoriels

Définition . . Soient F 1 et F 2 deux sous-espaces vectoriels de E . On dit que la


somme de ces sous-espaces vectoriels est directe et on note F 1 F 2 au lieu de
F1 + F2 si [u 2 F1 + F2, \! (u 1, u 2 ) 2 F 1 ⇥ F 2 tel que u = u 1 + u 2 .

Proposition . . F 1 et F 2 sont en somme directe si et seulement si F 1 \ F 2 = {0E }.

La somme directe de n sous-espace vectoriels est définie comme suit.

Définition . . Si F 1, F 2, ...., F n sont n sous-espaces vectoriels de E , on dit que


n
X
la somme Fi est une somme directe si
i =1
n
X
[u 2 F1 + F 2 + ... + Fn , \! (u 1, u 2, ..., u n ) 2 F1 ⇥ ... ⇥ Fn tel que u = ui .
i =1
n
M
On note la somme Fi si les Fi sont en somme directe.
i =1

Caractérisation équivalente :
n
X n
M
Fi = Fi si pour toute combinaison linéaire nulle u 1 + u 2 + ... + u n = 0E avec
i =1 i =1
ui 2 Fi , on a nécessairement u i = 0E pour tout i 2 {1, · · · , n}.
Chapitre . Quelques rappels d’algèbre linéaire

A ! C’est une condition beaucoup plus forte que de demander seulement que
Fi \ F j = {0E } [i , j .

. Supplémentaire d’un sous-espace vectoriel

Définition . . Si F est un sous-espace vectoriel de E , un sous-espace vectoriel


de G de E est un supplémentaire de F dans E si :
– F et G sont en somme directe.
–F G = E.

A ! Ne pas confondre le complémentaire E \ F (qui n’est jamais un sous-


espace vectoriel) et un supplémentaire d’un sous-espace vectoriel.

Familles de vecteurs, bases

Définition . . Soit (u i )i 2I une famille de vecteurs d’un À-espace vectoriel E . On


X
appelle combinaison linéaire des vecteurs u i toute somme de la forme i ui
i 2I
où ( i )i 2I 2 ÀI est une famille de scalaires presque tous nuls (c’est à dire que
seulement un nombre fini de coefficients sont non nuls.

Une combinaison linéaire de vecteurs est par définition toujours une somme finie de
vecteurs.

. Familles libres

Définition . . On dit qu’une famille de vecteurs (u i )i 2I d’un À-espace vectoriel


E est une famille libre si toute combinaison linéaire nulle des vecteurs (u i )i 2I est
X
à coefficients tous nuls : i ui = 0 ) [i 2 I , i = 0.
i 2I

. Familles génératrices

Définition . . On dit qu’une famille (u i )i 2I de vecteurs de E est génératrice de E


si tout élément de E s’écrit comme une combinaison linéaire des vecteurs (u i )i 2I :
X
[u 2 E , \ ( i )i 2I presque tous nuls tels que u = i ui .
i 2I
Chapitre . Quelques rappels d’algèbre linéaire

. Bases

Définition . . On dit qu’une famille de vecteur d’un À- espace vectoriel, E est une
base de E si tout élément de E s’écrit de manière unique comme une combinaison
linéaire des vecteurs (u i )i 2I :
X
[u 2 E , \! ( i )i 2I 2 ÀI , presque tous nuls tel que u = i ui
i 2I

Proposition . . Caractérisations équivalentes :


. (u i )i 2I est libre , Vect((u i )i 2I ) = Vect(u i ).
i 2I
. (u i )i 2I est génératrice de E , Vect((u i )i 2I ) = E .
. (u i )i 2I est une base de E , Vect((u i )i 2I ) = V ect (u i ) = E .
i 2I
8
> (u i )i 2I est libre.
. (u i )i 2I est une base , <
> (u i )i 2I est génératrice de E .
:
Proposition . .
. Toute sous-famille d’une famille libre est libre.
. Toute famille contenant une sous-famille liée est liée.
. Toute famille contenant une sous-famille génératrice de E est encore une fa-
mille génératrice de E .

Dimension d’un espace vectoriel

. Définition

Définition . . Soit E un Àespace vectoriel, on appelle dimension de E la quan-


tité finie ou infinie suivante :
dimÀ E = sup{n 2 Œ, il existe une famille libre de n vecteurs dans E }.

Exemples . .
. dimÀ {0} = 0.
. dimÀ Àn = n .
. dim À[X ] = +1.
Chapitre . Quelques rappels d’algèbre linéaire

. dimÀ Àn [X ] = n + 1.
. dimÀ M n [À] = n 2 .
. dimÀ D n (À) = n .
n2 n n(n + 1)
. dimÀ Tn (À) = +n = .
2 2

. Rang d’un système de vecteurs

Définition . . Soit (u i )i 2I une famille de vecteurs. On appelle rang de la famille


(u i )i 2I et on note rg(u i )i 2I la dimension du sous-espace vectoriel engendré par la
famille (u i )i 2I : rg((u i )i 2I ) = dim(Vect(u i )i 2I ).

Proposition . . Si (u 1, ..., u p ) sont p vecteurs dans E , rg(u 1, u 2, ..., u p ) = `  p .


L’entier ` représente la taille maximale d’une sous-famille libre de la famille (u 1, u 2, ..., u p ).
En particulier :
— Il existe une sous-famille (u i 1 , u i 2 , ..., u i ` ) ⇢ (u 1, u 2, ..., u p ) qui est libre.
— Toute sous-famille à ` + 1 vecteurs de (u 1, ..., u p ) est liée (dans le cas ` < p ).

Corollaire . . Si E est un espace vectoriel de dimension n , toute famille génératrice


a au moins n vecteurs.

Théorème . . Les assertions suivantes sont équivalentes :


. E est un espace vectoriel de dimension n sur À.
. Toute base de E a exactement n vecteurs.
. Tout système générateur de E a au moins n éléments.
. Tout système générateur à n éléments est libre (donc une base).
. Tout système libre a au plus n éléments.
. Tout système libre à n éléments est générateur (donc une base).

. Dimension d’un sous-espace vectoriel, théorème de la base in-


complète
Proposition . . Si E est un espace vectoriel de dimension finie et F ⇢ E est un sous-
espace vectoriel de E , alors la dimension de F est finie et de dimension dim F  dim E .
Si dim(F ) = dim(E ), alors F = E .
Chapitre . Quelques rappels d’algèbre linéaire

Théorème . . Théorème de la base incomplète.


Soit (u 1, u 2, ..., u p ) une famille libre dans E un espace vectoriel de dimension n , alors
si p < n , il existe des vecteurs (u p+1, u p+2, ..., u n ) tels que (u 1, ..., u n ) soit une base de
E . De plus, si (v1, v2, ...., vq ) est une famille génératrice, on peut choisir u p+1, u p+2, ..., u n
parmi les vecteurs de la famille (v1, v2, ..., vq ).

Corollaire . .
. Si (v1, ..., vq ) est une famille génératrice alors il existe une sous-famille (vi 1 , vi 2 , ..., vi n )
qui est une base de E .
. Tout sous-espace vectoriel de E admet au moins un supplémentaire (en fait
une infinité).

. Dimension de la somme de sous-espaces vectoriels


Proposition . . Soient F 1 et F 2 deux sous-espace vectoriels de dimension finie de
E , alors F1 + F2 est de dimension finie et :
dim(F 1 + F 2 ) = dim(F 1 ) + dim(F 2 ) dim(F 1 \ F 2 ).

Corollaire . . Si F 1 et F 2 sont en somme directe alors :

dim(F 1 F 2 ) = dim(F 1 ) + dim(F 2 ).


De plus si (e 1, ..., e n ) est une base de F 1 et (✏1, · · · , ✏m ) est une base de F 2 , alors
(e 1, · · · , e n , ✏1, · · · , ✏m ) est une base de F 1 F 2 .
Cette propriété se généralise à la somme directe de p sous-espace vectoriels de
E.

Proposition . . Si F 1, F 2, · · · , F p sont des sous-espaces vectoriels de E , de dimen-


sions finies n i qui sont en somme directe, et si "1 (i ), · · · , "n i (i ) est une base de Fi ,
alors :

dim(F 1 F2 ··· F p ) = dim(F1 ) + dim(F 2 ) + .... + dim(Fp )


et "1 (i ), ...., "n 1 (i ), "1 (2), · · · , "n 2 (2), · · · ✏1 (p), · · · , ✏n p (p) est une base de F 1
F2 · · · Fp .

Applications linéaires

. Définitions.
Chapitre . Quelques rappels d’algèbre linéaire

Définition . . Soient E et F deux À espaces vectoriels, on appelle application li-


néaire de E dans F une application f : E ! F tel que f ( u+µv ) = f (u)+µf (v )
pour tous (u, v ) 2 E 2 et ( , µ) 2 À2 .
On appelle également morphisme d’espaces vectoriels une telle application li-
néaire.
— Une application linéaire bijective est appelée isomorphisme.
— Une application linéaire d’un espace vectoriel E dans lui-même est appelée
endormorphisme.
— Un endomorphisme bijectif est appelé automorphisme.
— Une application linéaire de E dans À est appelée forme linéaire.
On note L (E , F ) l’ensemble des applications linéaires de E dans F . C’est un
sous-espace vectoriel de F E (l’ensemble de toute les applications de E dans F ).

. Exemples
Exemples . .
. L’application nulle
0: E ! F
x 7! 0F
est un morphisme d’espace vectoriel.

. L’évaluation en x 2 X est, pour tout x 2 X , une forme linéaire sur ÀX :

evx : ÀX ! À
f 7! f (x )

. Produit de deux fonctions. Soit f 2 ÀX : L’application de multiplication (à


gauche) par f est linéaire
m(f , ·) : ÀX ! ÀX
g 7! f .g

De même l’application suivante est linéaire :


m(., g ) : ÀX ! ÀX
f 7! f .g

L’application m est bilinéaire :


m : ÀX ⇥ ÀX ! ÀX
(f , g ) 7! ·g
Chapitre . Quelques rappels d’algèbre linéaire

. Composée d’applications :
si f : X ! Y , l’application

. f : ÀY ! ÀX
g 7 ! g f

est une application linéaire de ÀY dans ÀX : on a ( g +µh) f = g f +µh f .

A ! Si f : X ! Y n’est pas linéaire (en particulier, si X et Y ne sont


pas des espaces vectoriels) alors

ÀX ! ÀX
g 7! f g
n’est pas linéaire .
Par exemple Soient X = Y = “ et f (x ) = x 2 . Alors
2 2
f ( g + µh) = g + 2 µg hµ 2h 2 , g 2 + µh 2 = f g + µf h.

. Applications :
(a) p i (Àn ! À) (a 1, ..., a n ) 7! a i est une forme linéaire.
(b) L’application suivante est linéaire (application de 3)

ÀŒ ! ÀŒ
u 7! uv = (u n vn )n2Œ

(c) Si Q 2 À[X ] est fixé, l’application suivante est linéaire :

À[X ] ! À[X ]
P 7! P Q

. Soit B 2 M p,q (À) alors [n 1, l’application


M n,p (À) ! M n,q (À)
A 7! AB
est linéaire et l’application

M q,n ! M p,n
A 7! BA
également.
Chapitre . Quelques rappels d’algèbre linéaire

. Les applications
À[X ] ! À[X ] D 1 (I ) ! “I
et sont linéaires.
P 7! P 0 f 7! f 0
. Si f 2 C 0 ([a, b], “) l’application suivante est une forme linéaire.

C 0 ([a, b], “) ! “
Rb
f 7! a f (x )dx

. L’application de transposition est un isomorphisme d’espaces vectoriels :

M n,p (À) ! M p,n (À)


A 7! tA

Si n = p, t : M n (À) ! M n (À) est un automorphisme.

. Opérations sur les applications linéaires


Proposition . . Si f et g sont des applications linéaires de E dans F et ( , µ) 2 À2 :
— f + µg est encore une application linéaire.
— Si f est un isomorphisme, sa bijection réciproque f 1 est également linéaire.
— Si f g est bien définie, alors f g est linéaire.
— Si, de plus, h : F ! G est linéaire, alors on a :
— (f + g ) h = f h + g h et f (g + h) = f g + f h ;
— ( f ) h = (f h) et f ( h) = (f h).
— Si f est un endomorphisme, on peut définir f n pour tout n 2 Œ, par f n = f| f {z ..... f.
}
n fois

Restriction d’une application linéaire à un sous-espace vectoriel

Si f : E ! G est une application linéaire et F ⇢ E un sev de E , alors

f`F : F ! G
x 7 ! f (x )

Restriction d’un endomorphisme

Soit f : E ! E un endomorphisme et F ⇢ E un sev alors f`F est une application


linéaire de F dans E .

A ! En général f`F n’est pas un endomorsphime de F . En fait f`F est un en-


domorphisme de F si et seulement si F est stable par f , c’est-à-dire si et seulement
si f (F ) ⇢ F .
Chapitre . Quelques rappels d’algèbre linéaire

. Noyau et image d’une application linéaire

Définition . . Soit f 2 L (E , F ). On pose : Im(f ) = {f (x ), x 2 E } = f (E ) est


un sous-espace vectoriel de F .
Ker(f ) = {x 2 E , f (x ) = 0F } = f 1 ({0F }) est un sous-espace vectoriel de E .

Proposition . . Soit f 2 L (E , F ) , alors


— Im(f ) est un sous-espace vectoriel de F .
— Ker(f ) est un sous-espace vectoriel de E .

Proposition . . f 2 L (E , F ) est :
— injective si et seulement si Kerf = {0E } ;
— surjective si et seulement si Imf = F .

. Projecteurs, projections

Définition . . Soit E un espace vectoriel, F et G des sous-espaces vectoriels


supplémentaires. On appelle projection sur F parallèlement à G l’endomorphisme
de E défini par : p(x ) = x F si x = x F + x G dans la somme directe E = F G.

Proposition . .
. p est une application linéaire.
8
> x si x 2 F .
. On a p(x ) = <
> 0 si x 2 G .
:
. On a P `F = I d F et P`G = 0 : G ! G .

. p p = p.
. I dE p est la projection sur G parallèlement à F .

Définition . . On appelle projecteur tout endomorphisme de E tel que p p = p .

Proposition . . Si p est un projecteur, alors :


) Imp et Kerp sont des sous-espaces vectoriels supplémentaires dans E .
) p est la projection sur Imp parallèlement à Kerp .
Chapitre . Quelques rappels d’algèbre linéaire

Applications linéaires en dimension finie

. Rang d’une application linéaire

Définition . . Soit f : E ! F une application linéaire, on appelle rang de f et


on note rg(f ) la quantité rg(f ) dim( Imf )
Imf = {y 2 F , \x 2 E avec f (x ) = y }.
Si (u i )i 2I est une famille génératrice de E , alors Imf = Vect(f (u i ))i 2I .
Le rang de l’application linéaire est le rang de la famille de vecteurs (f (u i ))i 2I où
(u i )i 2I est une famille génératrice de E .

On suppose dorénavant E et F de dimensions finies.

Théorème . . Théorème du rang.


Soit f 2 L (E , F ), alors dim(E ) = dim( Kerf ) + rg(f )
k
dim( Imf )

Corollaire . .
. Si f 2 L (E , F ) est injective, alors dim(F ) dim(E ).
. Si f 2 L (E , F ) est surjective, alors dim(F )  dim(E ).
. Si f 2 L (E , F ) est bijective, alors dim(E ) = dim(F ).

Théorème . . Si dim(E ) = dim(F ) alors, il existe une application linéaire bijective


de E dans F .

Démonstration. Idée de la démonstration.


Si dim(E ) = n , on montre que le théorème est vrai pour F = Àn . Le cas général
g 1
f
s’obtient en composant E ! Àn ! F
Comment construire une application linéaire bijective de E dans Àn (avec dim(E ) =
n )?
On choisit une base B de E , B = (u 1, u 2, ..., u n ).
On appelle CoeffB : E ! Àn et qui à un vecteur x 2 E associe ses coefficients (ou
coordonnées) dans la base B CoeffB 2 L (E , Àn ) est bijective. ⇤

Proposition . .
L’espace vectoriel L (E , F ) est de dimension finie, égale à dim L (E , F ) = dim E ⇥
dim F
Chapitre . Quelques rappels d’algèbre linéaire

. Détermination d’une application linéaire par l’image d’une base


Proposition . . Pour déterminer une application linéaire f : E ! F , il suffit de
connaître l’image directe d’une base par f .
Autrement dit, si B = (u 1, ...., u n ) est une base de E , alors [ (v1, ..., vn ) 2 F n , il
existe une unique application linéaire f : E ! F tel que [i 2 {1, ..., n}, f (u i ) = vi .

. Cas des endomorphismes


Proposition . . dim(E ) = dim( Kerf ) + rg(f ). En particulier :
f bijective , f est injective , f est surjective , f est de rang maximal.

A ! En général, Kerf et Imf ne sont pas en somme directe.

Exemple . .
f : “2 ! “2
(x, y ) ! (y , 0)

Nous avons Kerf = Imf avec Kerf = {(x, 0), x 2 “} et Imf = {(y , 0), y 2 “}

Application . . Application de changement de base.


B0
Soit E un ev, B = (e 1, ..., e n ) et B 0 = ("1, ..., "n ) deux bases de E . On définit fB
0
par fBB (e ) = " pour tout i 2 {1, ..., n}.
i i
C’est un automorphisme de E que l’on appelle application de changement de base.
0
fBB = CoeffB10 CoeffB .
En effet, CoeffB (e i ) = (0, 0, 0, 1, 0, ..., 0) 2 Àn et Coeff0B1 (0, 0, 1, ..., 0) = "i .

Proposition . . f 2 L (E ) est bijectif si et seulement si l’ image d’une base par f


est une base.

. Rang de l’ image d’une famille de vecteurs


Proposition . . Soit f 2 L (E , F ) et (u 1, u 2, ..., u p ) une famille de vecteurs. Alors
rg(f (u 1 ), f (u 2 ), ..., f (u p ))  rg(u 1, u 2, ..., u p )

Proposition . . f 2 L (E , F ) alors rg(f (u 1 ), ..., f (u p )) = rg(u 1, ..., u p ) pour toute


famille (u 1, ..., u p ) de E si et seulement si f est injective.

. Rang de la composée de deux applications linéaires


Proposition . . Si f 2 L (E , F ) et g 2 L (F , G ), alors rg(g f )  min(rg(f ), rg(g ))
Chapitre . Quelques rappels d’algèbre linéaire

Démonstration. Soit B = (u 1, ..., u n ) une base de E .


rg(g f ) = rg(g f (u 1 ), ..., g f (u n )) donc

rg(g f ) = rg(g (f (u 1 )), ..., g (f (u n )))  rg(f (u 1 ), ..., f (u n )) = rg(f ).

Par ailleurs, on a Im(g f ) ⇢ Im(g ), donc

rg(g f ) = dim( Im(g f ))  dim( Img ) = rg(g ).

Matrices

. Généralités

Définition . . M n,p (À) est l’ensemble des matrices à n lignes et p colonnes à


coefficients dans À :
M n,p (À) = {(a i ,j )11n et 1j p , a i ,j 2 À}
A = (a i ,j )i <1n et 1j p 2 M n,p (À)
a 1,1 a 1,2 .... a 1,p
*. a +
.. 2,1 a 2,2 .... a 2,p ///
.. .... .... .... .... //
. .... .... .... .... /
,a n,1 a n,2 .... a n,p -

Proposition . . M n,p (À) est un espace vectoriel de dimension np . La base cano-


⇣ (n,p) ⌘ (n,p)
nique de M n,p (À) est la famille E i ,j où E i ,j est la matrice à n
1i n et 1j p
lignes et p colonnes qui a tous ses coefficients nuls sauf celui situé à l’ intersection de
la i-ème ligne et de la j-ème colonne qui vaut 1.
Les coefficients de (E i ,j ) sont (E i ,j )k ,l i ,k l ,j où on utilise le symbole de Kronecker
8
> 0 si i , j .
( i ,j ) =<
> 1 si i = j .
:

Vecteurs lignes, vecteurs colonnes

Définition . .
Si A 2 M n,p (À), on appelle :
– vecteurs lignes les matrices L 1 (A), L 2 (A), · · · L n (A), avec
Chapitre . Quelques rappels d’algèbre linéaire

L i (A) = (a i ,1 a i ,2 · · · a i ,p ) 2 M 1,p (À);


– vecteurs colonnes les matrices C 1 (A), C 2 (A), · · · C p (A), avec
a 1,j
*. a +/
.. 2,j //
. a 3,j //
C j (A) = ... . // 2 M n,1 (À).
.. . //
.. . //
, a n,j -

Produit de Matrices

Définition . .
Si A 2 M n,p (À) et B 2 M p,m (À), on définit la matrice C = AB 2 M n,m (À) par

p
X
c i ,j = a i ,k b k ,j .
k =1

Proposition . . L’ensemble M n (À) des matrices à n lignes et à n colonnes (matrices


carées de taille n ) est une algèbre non commutative sur À.

Transposition d’une matrice

Définition . . Définition et proposition.


L’application linéaire de transposition t : M n,p (À) ! M p,n (À) définie par :
(n,p) (p,n)
E i ,j= E j ,i est bijective
On obtient tA par l’une des définitions suivantes :
— C i (tA) = L i (A);.
— L j (tA) = C j (A);.
— (tA)i ,j = a j ,i ;
avec C j (A) la j-ème colonne de la matrice A et L i (A) la i-ème ligne de la
matrice A.

Proposition . . On a :
t(AB) = tB ⇥ tA et t(tA) = A.
Chapitre . Quelques rappels d’algèbre linéaire

. Opérations élémentaires sur les lignes et les colonnes d’une ma-


trice

Définition . . Les opérations élémentaires sur les lignes d’une matrice sont :
. La multiplication d’une ligne de A par un scalaire : dans la matrice on rem-
place la i -ème ligne L i (A) par L i (A), les autres lignes restant inchan-
gées. On appelle cette opération dilatation de la i -ème ligne et on la note
DiliL (A, ) avec 2 À.
. L’échange de deux lignes de la matrice A : dans la matrice on échange les i -
ème et j -ème lignes L i (A) et L j (A) de la matrice, les autres lignes restant
inchangées. On appelle cette opération échange des lignes i et j et on la
note EchiL,j (A) .
. L’addition à une ligne de A du produit d’une autre ligne de A par un scalaire
2 À : dans la matrice on remplace la i -ème ligne L i (A) par L i (A) +
L j (A), les autres lignes restant inchangées. On appelle cette opération
ajout à la ligne i et de fois la ligne j et on la note AjoutiL (A, j , ) .

On définit de manière analogue les opérations élémentaires sur les colonnes :

DiliC (A, ) , EchiC,j (A) , AjoutiC (A, j , ).

Définition . . Matrices élementaires


. On appelle matrice de dilatation dans M n (À) une matrice de la forme
n
X
D in ( ) = I n + ( 1)E i(n,n)
,i
= E k(n,n)
,k
+ E i(n,n)
,i
k =1
k ,i

pour i 2 {1, · · · , n} et 2 À.
. On appelle matrice de transposition dans M n (À) une matrice de la forme
n
X
n
⇡ (i , j ) = I n E i(n,n)
,i
E j(n,n)
,j
+E i(n,n)
,j
+E j(n,n)
,i
= E k(n,n)
,k
+E i(n,n)
,j
+E j(n,n)
,i
k =1
k ,i ,k ,j

avec i , j dans {1, · · · , n}.


. On appelle matrice de transvection dans M n (À) une matrice de la forme

Ti n,j ( ) = I n + E i(n,n)
,j

avec i , j dans {1, · · · , n} et 2 À.


Chapitre . Quelques rappels d’algèbre linéaire

Théorème . . Les opérations élémentaires sur les lignes d’une matrice A sont dé-
crites par la multiplication de A à gauche par une matrice élémentaire donnée.
Les opérations élémentaires sur les colonnes d’une matrice A sont décrites par la mul-
tiplication de A à droite par une matrice élémentaire donnée.
Plus précisément, si n désigne le nombre de lignes de A et p son nombre de colonnes
. DiliL (A, ) = D in ( )A.
. EchiL,j (A) = ⇡ n (i , j )A.

. AjoutiL (A, j , ) = Ti n,j ( )A.


p
. DiliC (A, ) = AD i ( ).
. EchiC,j (A) = A⇡ p (i , j ).
p
. AjoutiC (A, j , ) = ATj ,i ( ).

Matrices et applications linéaires

. Bijection canonique entre l’ensemble des matrices et celui des ap-


plications linéaires
Une matrice A 2 M n,p (À) définit une application linéaire de Àp dans Àn .

Proposition . .
L’application Lin : M n,p (À) ! L (Àp , Àn ) définie par Lin(A)(x ) = t (At x ) est une
application linéaire qui vérifie Lin(AB) = Lin(A) Lin(B). On confond dans cette écri-
ture le vecteur x 2 Àp et le vecteur colonne x 2 M p,1 (À).

Une application linéaire de Àp dans Àn définit une matrice A 2 M n,p (À)


On note (e 1, e 2, · · · e p ) la base canonique de Àp et ("1, "2, · · · , "n ) la base cano-
nique de Àn . Alors si f 2 L (Àp , Àn ), il existe, pour chaque j 2 {1, · · · , p} des
P
coefficients a i ,j tels que f (e j ) = in=1 a i ,j "i (ce sont les coefficients du vecteur f (e j )
dans la base canonique de Àn ). On note Mat(f ) la matrice de M n,p (À) dont les co-
efficients sont les (a i ,j )1i n,1j p .

Proposition . . L’application Mat : L (Àp , Àn ) ! M n,p (À) définie ci-dessus est


une application linéaire qui vérifie Mat(f g ) = Mat(f ) Mat(g ).
Les applications linéaires Lin et Mat sont des isomorphismes qui sont bijections réci-
proques l’une de l’autre, qui explicitent un isomorphisme entre L (Àp , Àn ) et M n,p (À)
et elles sont compatibles avec le produit /la composition.
Chapitre . Quelques rappels d’algèbre linéaire

. Noyau, image, rang d’une matrice

Définition . . Soit A 2 M n,p (À).


— On appelle noyau de la matrice A, et on note Ker(A) l’ensemble :

Ker(A) = {X 2 M p,1 (À), AX = 0}.

— On appelle image de la matrice A, et on note Ker(A) l’ensemble :

Im(A) = {Y 2 M n,1 (À), \X 2 M p,1 (À), AX = Y }.

Proposition . . On a Ker(A) = Ker(Lin(A)) et Im(A) = Im((Lin(A)), à condition


d’identifier un vecteur de Àp et un vecteur colonne dans M p,1 (À).

Définition . . Soit A 2 M n,p (À), on appelle rang de la matrice A et on note rg(A)


le rang du système de vecteurs (C 1 (A), C 2 (A), · · · C p (A)).

D’après ce qui précède, on a

Proposition . .
. rg(A) = rg((Lin(A)) ;
. rg(t A) = rg(A) ;
. rg(AB)  min(rg(A), rg(B)) ;
. rg(A) + dim( Ker(A)) = p.

Définition . . Une matrice A 2 M n,p (À) est inversible s’il existe une matrice
B 2 M p,n (À) telle que AB = I n et BA = I p .

Proposition . . La matrice A est inversible si et seulement si l’application Lin(A) est


un isomorphisme, c’est à dire, si et seulement si p = n et Ker(A) = {0} , p = n et
rg(A) = n .
Chapitre . Quelques rappels d’algèbre linéaire

. Matrice d’une application linéaire entre deux espaces vectoriels,


munis chacun d’une base
Soit E un À espace vectoriel de dimension p , muni d’une base B et F un espace
vectoriel de dimension n , muni d’une base B 0. On a vu que l’application CoeffB
définit un isomorphisme de E dans Àp , qui envoie de manière ordonnée la base B
sur la base canonique de Àp . Ainsi, on a :

f 2 L (E , F ) , Coeff0B f CoeffB1 2 L (Àp , Àn ).

Définition . . Soit f une application linéaire entre deux À espaces vectoriels E


et F de dimensions finies, munis respectivement d’une base B et d’une base B 0.
On appelle matrice de f dans les bases B, B 0, et on note MatB 0,B (f ) la matrice :

MatB 0,B (f ) = Mat( Coeff0B f CoeffB1 ).

Pour construire cette matrice, on exprime les coefficients de f (u j ) dans la base


B0 (où u j désigne le j -ième vecteur de la base B ) et on range les coefficients en
colonne, qui constitue la j -ième colonne de la matrice.

Loi de composition

Proposition . . Si f 2 L(E , F ) et g 2 L(F , G ) et si l’on note B, B 0, B 00 des bases


respectives de E , F et G , on a alors :

MatB 00,B 0 (g ) MatB 0,B 0 (f ) = MatB 00,B (g f ).

Matrice de changement de base Soit E un espace vectoriel de dimension n muni de


deux bases B = (e 1, · · · e n ), B 0 = ("1, · · · "n ). Alors il existe une unique application
linéaire qui envoie, pour tout i 2 {1, · · · , n}, e i sur "i . On note fB B 0 cette application.

Définition . . On appelle matrice de passage de la base B à la base B 0 la matrice

B 0
MatB,B (fB ).

La matrice de passage de B à B 0 est obtenue en écrivant, dans chaque colonne,


les coefficients de chaque vecteur de la "nouvelle" base B 0 dans "l’ancienne base"
B.
Chapitre . Quelques rappels d’algèbre linéaire

0 0
Proposition . . On a MatB,B (fB
B ) = Mat
B,B 0 (IdE ). En particulier MatB,B (fB )
B

est inversible, d’inverse


B
MatB 0,B 0 (fB 0 ) = MatB 0,B (IdE ).

On en déduit la formule de changement de base :

Proposition . . Soient E un À espace vectoriel de dimension finie, muni de deux


bases B1 et B10 , et F un À espace vectoriel de dimension finie, muni de deux bases
B2 et B20 , et enfin f 2 L (E , F ) une application linéaire. Alors, on a

MatB 0 ,B 0 (f ) = MatB 0 ,B2 (IdF ) MatB2 ,B1 (f ) MatB1 ,B 0 (IdE ).


2 1 2 1

Proposition . . Toute matrice inversible est une matrice de passage.

. Matrice d’un endomorphisme dans une base

Définition . . Soit E un À espace vectoriel de dimension finie, muni d’une base


B et f 2 L (E ), un endomorphisme. On appelle matrice de l’endomorphisme f
dans la base B , et on note MatB (f ) la matrice :

MatB (f ) = MatB,B (f ) = Mat( CoeffB f CoeffB1 ).

On a la formule de changement de base suivante pour les endomorphismes :

Proposition . . Soient E un À espace vectoriel de dimension finie, muni de deux


bases B et B 0, et f 2 L (E ) un endomorphisme. On note P = MatB,B (fB B 0 ) la

matrice de passage de la base B à la base B 0 . Alors, on a

MatB 0 (f ) = MatB 0,B (IdE ) MatB (f ) MatB,B 0 (IdE ) = P 1 MatB (f )P .

Matrices inversibles

. Définition et Propriétés

Définition . . Une matrice carrée A 2 M n (À) est inversible s’il existe B 2


M n (À) telle que AB = BA = I n .

Proposition . . Une matrice carrée A 2 M n (À) est inversible si et seulement si l’une


des conditions suivantes est vérifiée.
Chapitre . Quelques rappels d’algèbre linéaire

— L’application linéaire canoniquement associée à A, Lin(A) est un automor-


phisme de Àn .
— Ker(A) = {0}.
— rg(A) = n.
— A est la matrice de passage d’une base à un autre.
— Si A = MatB (f ), alors f est un automorphisme.

Théorème . . Muni de la multiplication, l’ensemble GLn (À) des matrices inversibles


est un groupe non commutatif, engendré par les produits de matrices élémentaires.

La dernière partie du théorème signifie que toute matrice inversible peut s’écrire
A = M 1 ⇥ M 2 ⇥ · · · ⇥ M m où les matrices M i sont des matrices élémentaires (de
dilatation, de transposition, de transvection).
La démonstration est exactement la méthode du pivot de Gauss de résolution des
systèmes linéaires.

A ! GLn (À) n’est pas un sous-espace vectoriel de M n (À).

. Calcul de l’ inverse
Il existe différentes techniques pour calculer l’inverse d’une matrice

Interprétation comme matrice de passage

On interprète A comme la matrice de passage de la base canonique de Àn à une


nouvelle base B 0 dont la matrice A donne, en colonnes, les coordonnées de chaque
vecteur dans la base canonique. Alors il suffit de trouver les coordonnées des vecteurs
de la base canonique exprimés dans la nouvelle base B 0 pour connaitre la matrice
de passage de la base canonique à la nouvelle base B 0, qui est exactement l’inverse
de la matrice A.

Résolution d’un système linéaire

On utilise le fait que si A 2 M n (À) est inversible, alors pour X ,Y 2 M n,1 (À), on
a:
AX = Y , X = A 1Y .
Déterminer A 1 revient donc à résoudre le système linéaire de n équations à n in-
connues (avec second membre) AX = Y .
Chapitre . Quelques rappels d’algèbre linéaire

Méthode parallèle

Principe : on réalise des opérations élémentaires successives simultanément sur


les lignes de la matrice A et sur celles de la matrice identité I n . Lorsque l’on est arrivé
à la matrice identité en partant de A, on a l’expression de A 1 , en prenant la matrice
obtenue en effectuant les mêmes opérations à partir de la matrice I n .
On écrit en fait M p M p 1 · · · M 2 M 1 A = I n , où les M i sont des matrices élémentaires,
B
et on obtient ainsi que

1
B =A = Mp Mp 1 · · · M2M1 = Mp Mp 1 · · · M 2M 1I n .

A ! On peut choisir de faire des opérations sur les colonnes plutôt que sur
les lignes, mais nn ne peut mélanger les opérations sur les lignes et les colonnes pour
obtenir A 1 . par cette méthode

Matrices carrées

. Matrices semblables

Définition . . Deux matrices carrées A, B 2 M n (À) sont dites semblables, s’il


existe une matrice inversible P 2 GLn (À) telle que B = P 1 AP .

Théorème . . Deux matrices sont semblables si et seulement si elles représentent le


même endomorphisme dans des bases différentes.

. Matrices carrées particulières


Matrices diagonales

Définition . . On dit qu’une matrice carrée A 2 M n (À) est diagonale si tous ses
coefficients en dehors de la diagonale sont nuls, c’est à dire si A 2 Vect(E i ,i )1i n .
On note Diagn (À) ou D n (À) l’ensemble des matrices diagonales et on écrit D =
diag(a 1, a 2, · · · , a n ) pour désigner la matrice diagonale dont les coefficients sont
d i ,j = 0 si i , j et d i ,i = a i .

Exemples . .
. La matrice nulle est diagonale.
Chapitre . Quelques rappels d’algèbre linéaire

. La matrice identité I n est diagonale.


. Les matrices d’homothéties I n sont diagonales.
Proposition . . D n (À) est une sous-algèbre commutative unitaire de M n (À), de
dimension n .
Cela signifie que :
— D n (À) est un sous-espace vectoriel de M n (À) de dimension n .
— La matrice identité I n 2 D n (À).
— Si A et B sont diagonales, AB est diagonale.
— Si A et B sont diagonales, AB = BA.
Proposition . .
. Le rang d’une matrice diagonale est donné par le nombre de coefficients non
nuls.
. En particulier, une matrice diagonale D =diag(d 1, d 2, · · · d n ) est inversible si
et seulement si [i 2 {1, · · · , n}, d i , 0. Dans ce cas, l’ inverse de D est la
matrice D 1 =diag(d 1 1, d 2 1, · · · d n 1 )

Définition . . Soit E un À espace vectoriel et 2 À. On appelle homothétie sur


E de rapport l’endomorphisme h défini par : h (x ) = x .

Proposition . . Dans toute base B de E , on a MatB (f ) = I n .


Proposition . . Si A 2 M n (À) est une matrice qui commute à toute autre matrice
B 2 M n (À), alirs A est une matrice d’homothétie.

Matrices triangulaires

Définition . . Soit T 2 M n (À) une matrice. On dit que :


— T est triangulaire supérieure si t i ,j = 0 dès que i > j .
— T est triangulaire supérieure stricte si t i ,j = 0 dès que i j.
On note Tn (À) l’ensemble des matrices triangulaires supérieures et Tns (À) l’en-
semble des matrices triangulaires supérieures strictes.

Proposition . . Les ensembles Tn (À) et Tns (À) sont des sous-algèbres de M n (À),
n(n+1) n(n 1)
de dimensions respectives 2 et 2 , et on a Tn (À) = D n (À) Tns (À).
Proposition . . Si N 2 Tns (À), alors N n = 0, c’est à dire que N est une matrice
nilpotente.
Pour montrer cela, on montre par exemple par récurrence que N k a des coeffi-
cients n i ,j (k ) qui vérifient n i ,j (k ) = 0 dès que i + k j.
Chapitre . Quelques rappels d’algèbre linéaire

. Trace d’une matrice carrée

Définition . . On appelle trace d’une matrice carrée A 2 M n (À) , et on note


n
X
Tr(A) la somme de ses coefficients diagonaux : Tr(A) = a i ,i .
i =1

Proposition . .
. L’application Tr est une forme linéaire sur M n (À).
. Pour toutes matrices A, B 2 M n (À), on a Tr(AB) = Tr(BA).
. Deux matrices semblables ont la même trace.

Corollaire . . Si f 2 L (E ) est un endomorphisme, on peut définir Tr(f ) = Tr(MatB (f )),


où B est une base quelconque de E .

. Produit par blocs


Proposition . . Si A et B sont deux matrices de M n (À) qui s’écrivent
! !
A1,1 A1,2 B 1,1 B 1,2
A= et B = ,
A2,1 A2,2 B 2,1 B 2,2
avec A1,1, B 1,1 2 M r (À), A2,2, B 2,2 2 M n r (À), A1,2, B 1,2 2 M r ,n r (À) et A2,1, B 2,1 2
M n r ,r (À). Alors, le produit des matrices AB s’écrit :
!
A1,1 B 1,1 + A1,2 B 2,1 A1,1 B 1,2 + A1,2 B 2,2
AB = .
A2,1 B 1,1 + A2,2 B 2,1 A2,1 B 1,2 + A2,2 B 2,2

A ! L’ordre dans l’écriture est essentiel car, en général, A1,1 B 1,1 , B 1,1 A1,1 .
On en déduit en particulier que le produit de matrices diagonales par blocs est encore
diagonal par blocs et que le produit de matrices triangulaires par blocs est encore
triangulaire par blocs.

Quelques exemples pratiques


Dimension et base d’un sous-e.v. donné par une famille génératrice. Soit F le sous-
e.v. de “4 engendré par la famille de vecteurs (u 1, u 2, u 3, u 4 ), définis ci-dessous :

*. +/ *. +/ *. +/ *. +
1 2 1 5
1 //
u 1 = .. // u 2 = .. // u 3 = .. // .
1 0 1
u4 = .
. /
3 . 3/ . 6/ . 12//
,2- , 1- , 3- , 5-
Chapitre . Quelques rappels d’algèbre linéaire

Déterminer la dimension de F . En donner une base et représenter F par un sys-


tème d’équations cartésiennes.

Eléments de correction . . La dimension de F est aussi le rang de la matrice A


dont les colonnes sont les 4 vecteurs u 1, . . . , u 4 .
Le rang d’une matrice est invariant lorsqu’on effectue des manipulations élémen-
taires sur les lignes et les colonnes. Ici, puisqu’on cherche aussi à déterminer une base
de F , on va se limiter uniquement à des manipulations élémentaires sur les colonnes
jusqu’à arriver à isoler les pivots. Les vecteurs colonnes non nuls qu’on obtiendra
alors seront des vecteurs d’une base de F .

C2 C2 2C 1
C3 C3 C1
*. + *. +
1 2 1 5 1 0 0 0
1 // 6 //
A = .. ! ..
1 0 1 C4 C4 5C 1 1 2 2
.3 3 6 12// .3 9 9 27//
,2 1 3 5- ,2 5 5 15-
C3 C3 C2
*. +
1 0 0 0
0//
! ..
C4 C4 3C 2 1 2 0
. 3 9 0 0//
,2 5 0 0-

La dimension de F est 2, et une base est donnée par (v1, v2 ), où v1 et v2 sont


les deux premières colonnes de la dernière matrice ci-dessus. Une représentation
paramétrique de F (non demandée dans l’énoncé) est donc :

F = *3
+2µ +
9µ : ( , µ) 2 “2
,2 5µ -

Pour obtenir un système d’équations cartésiennes représentant F , on élimine les


paramètres et µ dans le système suivant :

8
>
>
x = 8
>
>
x = 8
>
>
x=
>
>
> >
>
> >
>
>
>
< > y +x >
() < () <
y = + 2µ = 2µ y + x = 2µ
>
>
> >
>
> >
>
>
>
>
>
z =3 9µ >
>
>
z 3x = 9µ >
>
>
2z 6x = 9(y + x )
: t =2 5µ : t 2x = 5µ : 2(t 2x ) = 5(y + x )
On obtient donc la représentation suivante de F sous forme de système d’équa-
tions cartésiennes :
(
3x + 9y + 2z = 0
x + 5y + 2t = 0
Chapitre . Quelques rappels d’algèbre linéaire

Matrice d’une projection. Dans “3 , soit P le plan d’équation cartésienne 2x + y


z = 0, et soit D le sous-e.v. donné par le système d’équations cartésiennes suivantes :
(
x z =0
D :
2x y =0

Montrer que D est une droite vectorielle et que “3 = P D . Déterminer la matrice


3
dans la base canonique de “ de la projection sur P parallèlement à D .

Eléments de correction . . Dans la représentation de D , on peut prendre x comme


paramètre libre, ce qui montre
✓ ◆ immédiatement que D est la droite vectorielle engen-
1
drée par le vecteur u = 2 .
1
Montrons que la somme P +D est directe. Il suffit de vérifier que P \D = {0}. Ici,
comme les éléments de D sont tous multiplies de u , c’est-à-dire de la forme t u avec
t 2 “, il suffit de vérifier que t u 2 P =) t = 0. En remplaçant dans l’équation
de P , on trouve t (2 + 2 1) = 0, ce qui implique bien que t = 0. Donc la somme
est directe. Donc sa dimension est égale à la somme des dimensions de P et de D ,
c’est-à-dire 3, et comme dim “3 = 3 il s’ensuit que P D = “3 .
Soit p la projection sur P parallèlement à D , et soit A la matrice de p dans la
base canonique. On calcule directement A en déterminant
⇣x ⌘ une expression pour la
projection d’un vecteur. Étant donné un vecteur a = y , on cherche t 2 “ et w 2 P
z
tels que a = t u + w , et on sait que le couple (t , w ) est unique. Il est équivalent de
chercher d’abord t 2 “ tel que a t u 2 P , c’est-à-dire que a t u vérifie l’équation
du plan P :

2(x t ) + (y 2t ) (z t) = 0
() t = (2x + y z )/3

Le vecteur w = p(a) est alors obtenu par w = a t u , soit :

x t 1/3x 1/3y + 1/3z


w = . y 2t / = . 4/3x + 1/3y + 2/3z +/
* + *
, z t - , 2/3x 1/3y + 4/3z -
On lit directement les coefficients
⇣x ⌘ de la matrice A cherchée sur cette dernière expres-
sion puisqu’on a w = A y , soit :
z

1/3 1/3 1/3


A = *. 4/3 1/3 2/3+/
, 2/3 1/3 4/3-
Chapitre . Quelques rappels d’algèbre linéaire

Application linéaire et matrice. On considère l’application linéaire f : “4 ! “3


donnée par la matrice suivante :

11 7 0 3
A = . 0 1 11 2+/
*
, 1 0 7 1-
Déterminer le rang de f , et donner une base de ker f et une base de Imf . Donner
une représentation de l’ image sous forme de systèmes d’équations cartésiennes.

Eléments de correction . . Le rang de f est égal au rang de la matrice A. On va le


déterminer en effectuant des opérations élémentaires uniquement sur les colonnes
de A. Ainsi, les vecteurs correspondants aux pivots non nuls seront des vecteurs de
base de l’image de f .

C2 C 2 + 7/11C 1
11 7 0 3 11 0 0 0
*. 0 1 11 2+/ C 4 C 4 + 3/11C 1 *
!. 0 1 11 2 +/
, 1 0 7 1- , 1 7/11 7 14/11-
C3 C3 11C 2
11 0 0 0
C4 C4 2C 2 *
!. 0 1 0 0+/
, 1 7/11 0 0-
✓ ◆ ✓ 0

11
L’application f est donc de rang 2, et une base de son image est donnée par ( 0 , 1 ).
1 7/11
Pour trouver une équation de l’ image, on élimine les paramètres et µ dans le sys-
tème suivant :

8
>
>
x = 11
>
<y =µ
>
>
>
() x 7y + 11z = 0.
: z = + 7/11µ
Pour trouver une base du noyau, on revient à la matrice M de départ, en ef-
fectuant cette fois des manipulations élémentaires uniquement
✓ ◆ sur les lignes, qui
x
y
correspondent exactement à la résolution du système f z = 0.
t

11 7 0 3 11 7 0 3
*. 0 1 11 2+/ L 3 L 3 + 1/11L 1*
!. 0 1 11 2 +/
, 1 0 7 1- , 0 7/11 7 14/11-
7/11L 2 * 11 7 0 3
1 11 2+/
L3 L3
!. 0
, 0 0 0 0-
Chapitre . Quelques rappels d’algèbre linéaire

On retrouve bien sûr que f est de rang 2. Nous avons maintenant un système linéaire
échelonné qui décrit son noyau :
(
11x + 7y + 3t = 0
y + 11z + 2t = 0

Comme ce système est échelonné, on peut prendre z et t comme paramètres libres


et obtenir une
! base! du noyau en faisant (z , t ) = (1, 0) puis (z , t ) = (0, 1). On obtient
7 1
donc ( 11
1 , 0
2 ) comme base de ker f .
0 1

Vous aimerez peut-être aussi