0% ont trouvé ce document utile (0 vote)
41 vues22 pages

Complément d'Algèbre Linéaire PSI

Transféré par

Malih Nourdine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
41 vues22 pages

Complément d'Algèbre Linéaire PSI

Transféré par

Malih Nourdine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

PSI Complément d’ algèbre linéaire

Plan 2.4 Détermination pratiques de l’équation


d’un hyperplan . . . . . . . . . . . . . . . 15
1 Produit et Somme d’ espaces vectoriels 1 2.5 Exercices . . . . . . . . . . . . . . . . . . . 15
1.1 Produit d’ espaces vectoriels . . . . . . . 1
1.2 Somme d’ espaces vectoriels . . . . . . 2 3 Matrices et endomorphismes 16
1.2.1 Définition . . . . . . . . . . . . . . 2 3.1 Matrices définies par blocs . . . . . . . . 16
1.2.2 Somme directe - sous espaces 3.2 Matrice semblables . . . . . . . . . . . . 17
supplémentaires . . . . . . . . . . 3 3.3 Trace d’une matrice . . . . . . . . . . . . 19
1.2.3 Cas de la dimension finie . . . . 5 3.4 Trace d’un endomorphisme . . . . . . . 20
1.2.4 Applications linéaires et décom- 3.5 Polynômes d’ une matrice ,d’un endomor-
position en somme directe . . . . 8 phisme . . . . . . . . . . . . . . . . . . . . 20

2 Formes linéaires - Hyperplans 11 4 Sous espaces stables 21


2.1 Formes Linéaires . . . . . . . . . . . . . 11 4.1 Définition . . . . . . . . . . . . . . . . . . 21
2.2 Hyperplans . . . . . . . . . . . . . . . . . 12 4.2 Décomposition en somme directe de sous
2.3 Équation d’un hyperplan . . . . . . . . . 14 espace stables . . . . . . . . . . . . . . . . 22

∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗∗

Dans tout ce chapitre K désigne R ou C.

1 Produit et Somme d’ espaces vectoriels


1.1 Produit d’ espaces vectoriels
Soient E 1 , . . . , E n des espace vectoriels sur K . On pose
n
Y
E= E i = {( x1 , ..., xn ) / ∀ i ∈ [[1, n]] x i ∈ E i } .
i =1

pour u = ( x1 , . . . , xn ) ∈ E , v = ( y1 , . . . , yn ) ∈ E et λ ∈ K on définit u + v et λv par :

u + v = ( x1 + y1 , . . . , xn + yn )
λv = (λ y1 , . . . , λ yn )

n
E i est un espace vectoriels sur K
Y
Théorème 1.1. E =
i =1
Si de plus chaque E i est de dimension finie alors E est aussi de dimension finie et on :a
n
X
dim E = dim E i
i =1

Remarque 1.1. Si ( e 1 , . . . , e n ) est une base de E et ( f 1 , . . . , f p ) est une base de F alors ,


¡ ¢
( e 1 , 0), . . . , ( e n , 0), (0, f 1 ), . . . , (0, f p )

est une base E × F


n
E i est noté E n . Si E est de
Y
Remarque 1.2. Lorsque E 1 = ... = E n = E alors l’espace vectoriel
i =1
dimension finie alors dim E n = n dim E

www.laminehoucin.blogspot.com page:1/ 22
PSI Complément d’ algèbre linéaire

1.2 Somme d’ espaces vectoriels


1.2.1 Définition

Définition 1.1. Soient E 1 , E 2 , . . . , E n des sous-espaces vectoriels d’un K -espace vectoriel E .


On appelle somme des sous-espaces vectoriels E 1 , E 2 , . . . , E n le sous espace vectoriel de de E
© ¯ ª
E 1 + E 2 + · · · + E n = x1 + x2 + · · · + xn ¯ ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n
n
X
On le note également E i.
k=1

Proposition 1.1. Soient E 1 , E 2 , . . . , E n des sous-espaces vectoriels d’un K -espace vectoriel E .


Alors
n
X
• E i est un sous-espace vectoriel de E.
k=1
Xn n
[
• E i est le plus petit sous espace vectoriel de E qui contient E i . On ecrit alors
k=1 i =1
à !
n
X n
[
E i = Vect Ei
i =1 i =1

Preuven:
X
• E i est l’image de l’application linéaire
k=1

ϕ : E1 × E2 × · · · × E n −→ E
( x1 , x2 , . . . , x n ) 7−→ x1 + x2 + · · · + x n
n
X
Ce qui montre que E i est bien un sous-espace vectoriel de E .
k=1
n
X
• En prenant x j = 0 pour tout j 6= i on constate que E i contient chacun des E i . Ainsi
i =1

n
X
∀ j ∈ [[1, n]] Ej ⊂ Ei
i =1

• Si un sous espace vectoriel F contient tous les E i , il contient tous les vecteurs de la forme x1 + x2 + · · · + xn où
n
X n
X
x i ∈ E i , donc F contient E i . Ainsi E i est le plus petit sous espace vectoriel de E qui contient tous les
i =1 i =1
E i et on écrit à !
n
X n
[
E i = Vect Ei
i =1 i =1

Attention 1.1. On rappelle que l’union d’espaces vectoriels n’est pas, en générale, un espace vectoriel .

www.laminehoucin.blogspot.com page:2/ 22
PSI Complément d’ algèbre linéaire

Proposition 1.2 (associativité et commutativité). Soient E1, E2, . . . , E n des


sous-espaces vectoriels d’un K -espaces vectoriel E . On a pour 1 ≤ p < n :
n
X p
X n
X
Ei = Ei + Ei (associativité)
i =1 i =1 i = p+1

et
n
X n
X p
X
Ei = Ei + Ei (Commutativité)
i =1 i = p+1 i =1

Exemples 1.1. 1. R3 = Vect( (1, 0, 0) ) + Vect( (0, 1, 0) ) + Vect( (0, 0, 1) )


En effet ∀ ( x, y, z) ∈ R3 , ( x, y, z) = x(1, 0, 0) + y(0, 1, 0) + z(0, 0, 1)
| {z } | {z } | {z }
∈Vect( (1,0,0) ) ∈Vect( (0,1,0) ) ∈Vect( (0,0,1) )
2
2. R = Vect( (1, 0) ) + Vect( (0, 1) ) + Vect( (1, 1) )
En effet ∀ ( x, y) ∈ R2 , ( x, y) = x(1, 0) + y(0, 1) + 0(1, 1)
| {z } | {z } | {z }
∈Vect( (1,0) ) ∈Vect( (0,1) ) ∈Vect( (1,1) )
Remarquons qu’on a aussi la décomposition ( x, y) = − y(1, 0) − x(0, 1) + ( x + y)(1, 1)
| {z } | {z } | {z }
∈Vect( (1,0) ) ∈Vect( (0,1) ) ∈Vect( (1,1) )

3. Dans E = R , le plan P1 d’équation ( x = 0) et le plan P2 d’équation ( y = 0) vérifient R3 = P1 + P2 .


3

En effet ∀ ( x, y, z) ∈ R3 , (0, y, z) + ( x, 0, 0) = ( x, y, z).


| {z } | {z }
∈P1 ∈P2

4. M n (K) = Tn+ + D n + Tn−

1.2.2 Somme directe - sous espaces supplémentaires

Définition 1.2. On dit que les sous-espaces E 1 , E 2 , . . . , E n sont en somme directe, (ou encore que
Xp
la somme E i est directe) si pour tout ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n
i =1

x1 + x2 + . . . + xn = 0 =⇒ x1 = x2 = . . . = xn = 0

la somme est alors notée


n
X n
M
E i = E1 ⊕ E2 ⊕ · · · ⊕ E n = Ei
i =1 i =1

p
X X
Propriétés 1.1. Si la somme E i est directe alors E i est directe pour tout J ⊂ [[1, n]] et
i =1 i∈ J
J 6= ;

www.laminehoucin.blogspot.com page:3/ 22
PSI Complément d’ algèbre linéaire

n
X
Proposition 1.3. La somme E i est directe si et seulement si l’application
i =1

n
X
ϕ : E 1 × E 2 × · · · × E n −→ Ei
i =1
( x1 , x2 , . . . , xn ) 7−→ x1 + x2 + · · · + xn

est un isomorphisme.

p
X
Preuve : Remarquons d’abord que que par définition de la somme E i , l’application ϕ est une application
i =1
linéaire surjective donc :

ϕ isomorphisme ⇔ ϕ injective
⇔ ker ϕ = {0}
⇔ ∀ ( x1 , x2 , . . . , x n ) ∈ E 1 × E 2 × · · · × E n , x1 + x2 + . . . + xn = 0 =⇒ x1 = x2 = . . . = xn = 0
Xp
⇔ E i est directe
i =1

n
X n
X
Proposition 1.4. La somme E i est directe si et seulement si tout vecteur x de E i se dé-
i =1 i =1
n
X
compose de manière unique sous la forme x = x i avec ( x1 , x2 , ..., xn ) ∈ E 1 × E 2 × . . . × E n . En
i =1
d’autre termes :

p
X
∀x ∈ E i , ∃ ! ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n , x = x1 + x2 + . . . + xn
i =1

Preuve : Conséquence directe de l’isomorphisme ϕ dans la proposition précédente.

Exemple 1.1. la somme Vect( (1, 0) ) + Vect( (0, 1) ) + Vect( (1, 1) ) n’est pas directe puisqu’on a pas
unicité de la décomposition
∀ ( x, y) ∈ R2 , ( x, y) = x(1, 0) + y(0, 1) + 0(1, 1) = − y(1, 0) − x(0, 1) + ( x + y)(1, 1)
| {z } | {z } | {z } | {z } | {z } | {z }
∈Vect( (1,0) ) ∈Vect( (0,1) ) ∈Vect( (1,1) ) ∈Vect( (1,0) ) ∈Vect( (0,1) ) ∈Vect( (1,1) )

n
X
Proposition 1.5. la somme E i est directe si et seulement si
i =1

n
X
∀ i ∈ [[1, n]] ; E i ∩ E j = {0}
j =1; j 6= i

www.laminehoucin.blogspot.com page:4/ 22
PSI Complément d’ algèbre linéaire

Preuve : n n
X M
• Supposons que la somme E i est directe. Soit x ∈ E i ∩ E j donc x ∈ E i et x = x1 + ...x i−1 + x i+1 + ... + xn
i =1 j =1; j 6= i
avec x i ∈ E i , en faisant passer x de l’autre cotée de l’égalité on obtient x1 + ...x i−1 + (− x) + x i+1 + ... + xn = 0
|{z}
∈E i
n
X
Or la somme E i est directe donc x et tous les x i sont nuls.
i =1
n
X n
X
• Réciproquement, Supposons que ∀ i ∈ [[1, n]] ; Ei ∩ E j = {0} et montrons que la somme E i est directe :
j =1; j 6= i i =1
n
Y Xn Xn
Soit ( x1 , ..., xn ) ∈ E i tel que x1 + ... + xn = 0 donc pour i ∈ [[1, n]] on a xi = − xj ∈ Ej
i =1 j =1; j 6= i j =1; j 6= i
|{z}
∈E i
n
X
d’où xi ∈ E i ∩ E j = {0} par suite x i = 0 et la somme est directe.
j =1; j 6= i

n
X
Remarque 1.3. Si la somme E i est directe alors pour tout j 6= i E i ∩ E j = {0}. La réci-
i =1
proque est fausse pour n ≥ 3 et vraie pour n = 2

Exemple 1.2. Considérons l’exemple R2 = Vect( (1, 0) ) + Vect( (0, 1) ) + Vect( (1, 1) ). La somme
n’est pas directe mais

Vect( (1, 0) ) ∩ Vect( (0, 1) ) = Vect( (1, 0) ) ∩ Vect( (1, 1) ) = Vect( (0, 1) ) ∩ Vect( (1, 1) ) = {0}

1.2.3 Cas de la dimension finie

n
X
Proposition 1.6. Si les sous-espaces vectoriels E 1 , ..., E n sont de dimensions finies alors Ei
i =1
est de dimension finie et on a à !
n
X n
X
dim Ei ≤ dim E i
i =1 i =1

avec égalité si et seulement si la somme est directe ; c’est à dire :


à !
n
X n
X Xn
dim Ei = dim E i ⇔ la somme E i est directe
i =1 i =1 i =1

n
X
Preuve : Considérons l’application linéaire surjective ϕ : E 1 × E 2 × · · · × E n −→ Ei
i =1
( x1 , x2 , . . . , x n ) 7−→ x1 + x2 + · · · + x n
• La formule du rang appliquée à ϕ donne
à ! à ! à !
n
X n
Y n
Y n
X
dim E i = dim E i − dim ker ϕ ≤ dim Ei = dim E i
i =1 i =1 i =1 i =1

• Si laà somme! est directe alors, daprès la proposition 1.3, ϕ est bijective. D’où dim(E 1 × E 2 × · · · × E n ) =
Xn n
X
dim E i . Mais dim(E 1 × E 2 × · · · × E n ) = dim E i , d’où le résultat.
i =1 i =1

www.laminehoucin.blogspot.com page:5/ 22
PSI Complément d’ algèbre linéaire

X n
• Réciproquement l’application ϕ , par définition de E i , est surjective.
i =1
à ! à !
n
X n
X n
X
Si dim Ei = dim E i , alors dim(E 1 × E 2 × · · · × E n ) = dim E i , par suite ϕ est un isomorphisme et
i =1 i =1 i =1
donc la somme est directe.

à !
n
X n
X
Remarque 1.4. 1. Si la somme n’est pas directe, dim Ei < dim E i .
i =1 i =1
2. On rappelle à ce propos la formule de Grassmann

dim(F + G ) = dim F + dim G − dim F ∩ G

Proposition 1.7. Soient E de dimension finie et E 1 , E 2 , . . . , E n des sous-espaces vectoriels de E .

n n
 
X X
dim E = dim E i dim E = dim E i

 

n 
 

i =1 i =1
M
( i) E= Ei ⇐⇒ ( ii ) n
X ⇐⇒ ( iii ) n
X
i =1 E i est directe  E= Ei

 


 
i =1 i =1

Preuve : Ã !
n
M n
X X n n
X
( i ) ⇒ ( ii ) Si E = E i alors la somme E i est directe et dim E = dim Ei = dim E i .
i =1 Ã i=1 ! i =1 i =1
Xn n
X Xn
( ii ) ⇒ ( iii ) Supposons ( ii ), donc dim Ei = dim E i = dim E et comme E i est un sous-espace vectoriel de
i =1 i =1 i =1
n
X
E , on en déduit E = Ei.
i =1 Ã !
n
X n
X n
X
( iii ) ⇒ ( i ) Supposons ( iii ), donc dim Ei = dim E i ce qui assure que la somme E i est directe et puisqu’
i =1 i =1 i =1
n
X M n
on a E = E i on conclut que E = Ei
i =1 i =1

Pour deux espaces, le théorème devient

Corollaire 1.1.½ Soient E de dimension finie et½ F,G deux sous-espaces vectoriels de E .
F ∩ G = {0} F +G = E
E = F ⊕ G ⇐⇒ ⇐⇒ .
dim E = dim F + dim G dim E = dim F + dim G

Exemples 1.2. 1. K4 [ X ] = Vect(1 + X , X 3 ) ⊕ Vect(1 + X 2 ) ⊕ Vect( X 4 − X , 1).


En effet, la relation

λ1 (1 + X ) + λ2 X 3 + λ3 (1 + X 2 ) + λ4 ( X 4 − X ) + λ5 = 0

entraîne λ1 = λ2 = λ3 = λ4 = λ5 = 0 (en regardant les termes dominants.) La somme est


donc directe.
De plus dim K4 [ X ] = dim Vect(1 + X , X 3 ) + dim Vect(1 + X 2 ) + dim Vect( X 4 − X , 1)

www.laminehoucin.blogspot.com page:6/ 22
PSI Complément d’ algèbre linéaire

2. Dans l’exemple de la page 3, on avait R3 = P1 + P2 mais la somme n’est pas directe car
dim P1 + dim P2 = 4 > dim R3 .
3. F = Vect{(1, 0, 0)} et G = Vect{(0, −1, 1), (0, 1, 1)}.
On a F ∩ G = {0} et dim F + dim G = 3. D’où F ⊕ G = R3 .
4. Dans C[ X ], soit (P i ) i∈[[0,n]] une famille de polynômes tels que ∀ i ∈ [[0, n]] , deg P i = i .
n
Cn [ X ] =
M
Vect P i
i =0

En effet : La somme est directe car pour tout (λ1 , . . . λn ) ∈ Cn+1 la relation λ0 P0 + · · · +
λn P n = 0 donne λn = λn−1 = . . . = λ0 = 0 puisque la famille (P i ) i∈[[0,n]] est échelonnée donc
n
libre. De plus dim Cn [ X ] =
X
dim Vect(P i ).
i =0
5. Le sous-espace vectoriel des matrices symétriques et celui des matrices antisymétriques
sont supplémentaires dans Mn (K).
En effet S n (K ) ∩ An (K ) = {0} (puisque si A ∈ S n (K ) ∩ An (K ), A = t A = − A d’où A = 0).
n( n − 1) n( n + 1)
De plus, dim An (K ) + dim S n (K ) = + = n2 = dim Mn (K)
2 2

Théorème 1.2 (base adaptée a une somme directe). Soit E un espace vectoriel de dimension finie
n
M
tel que E = E i.
i =1
n
Si pour tout i de [[1, n]], β i désigne une base de E i , et β = β i alors β est une base de E . On
[
i =1
n
M
l’appelle base adaptée a la décomposition E = E i.
i =1

Preuve :
Comme la somme est directe on a les β i sont deux à deux disjoints et donc
q
X q
X
dim E = dim E i = Card β i = Card β
i =1 i =1

Il suffit alors de montrer que β est génératrice. Or, pour x ∈ E , il existe ( x1 , x2 , . . . , xn ) ∈ E 1 × E 2 × · · · × E n tel que
x = x1 + x2 + · · · +, xn . De plus ∀ i ∈ [[1, n]] , x i ∈ E i = Vect(β i ) ⊂ Vect(β), d’où par sommation x ∈ Vect(β).

Exemple 1.3. Pour a ∈ K\{0}, la base (1, X − a, . . . , ( X − a)n ) de K n [ X ] est adaptée à la décomposi-
n n
Vect ( X − a)k . Elle ne l’est pas pour la décomposition K n [ X ] = Vect X k
M ¡ ¢ M ¡ ¢
tion K n [ X ] =
k=0 i =0

Réciproquement

Théorème 1.3. Soit E un espace vectoriel de dimension finie et de base B .


Si (B1 , ..., B q ) est une partition de B et E i = Vect(B i ) pour i = 1, ..., q alors
q
M
E= Ei
i =1

B est donc une base adaptée à cette dernière décomposition.

www.laminehoucin.blogspot.com page:7/ 22
PSI Complément d’ algèbre linéaire

q X
ni q
Posons B i = ( e(1i) , ..., e(ni)i ). Tout vecteur x ∈ E s’écrit sous la forme x = x(ki) e(ki) donc x ∈
X X
Preuve : E i par
i =1 k=1 i =1
| {z }
∈E i
q
X
conséquence E = Ei.
i =1
D’autre part
q
X q
X
dim E = Card B = Card B i = dim E i
i =1 i =1

Donc
q
M
E= Ei
i =1

n
M
Exemple 1.4. β = ( e 1 , e 2 , . . . , e n ) est une base de E si et seulement si E = Vect( e i ).
i =1
n ³ ´
Par exemple, Kn [ X ] = Vect X i et R3 = Vect( (1, 0, 0) ) ⊕ Vect( (0, 1, 0) ) ⊕ Vect( (0, 0, 1) ).
M
i =0

Dans le cade des bases adaptée on a la définition suivante :

Définition 1.3 (base adaptée a un sous espace vectoriel). Soit E de dimension finie et F un
sous-espace vectoriel de E . On dit qu’une base de E est adaptée à F si ses premiers éléments
forment une base de F

Exemple 1.5. Dans E = R3 , on considère F l’hyperplan d’équation x + y + z = 0. Une base de E


adaptée à F est
base de E
z¡ }| {¢
(1, −1, 0), (−1, 0, 1), (1, 0, 0)
| {z }
base de F

1.2.4 Applications linéaires et décomposition en somme directe

n
M
Théorème 1.4. On suppose E = E i et on considère pour i ∈ [[1, q]] l’application u i ∈ L(E i , F )
i =1

∃ ! u ∈ L(E, F ) tel que ∀ i ∈ [[1, n]] , u |E i = u i .


u est définie sur E par
n
Y
∀( x1 , x2 , · · · , xn ) ∈ E i, u( x1 + x2 + · · · + xn ) = u 1 ( x1 ) + u 2 ( x2 ) + · · · + u n ( xn ).
i =1

Remarque 1.5. Autrement dit, ce théorème pourrait se résumer à l’assertion :


Pour définir une application linéaire sur E il suffit de la définir sur chaque E i

www.laminehoucin.blogspot.com page:8/ 22
PSI Complément d’ algèbre linéaire

Preuve : Procédons par analyse et synthèse


Analyse : Supposons qu’un tel u existe.
X n
Soit x ∈ E , on a alors x = x i où ( x1 , x2 , . . . , x q ) ∈ E 1 × E 2 × · · · × E q
i =1Ã !
Xn X n n
X
On a par linéarité u( x) = u xi = u( x i ) = u i ( x i ).
i =1 i =1 i =1
q
X
u, s’il existe, est alors déterminé de façon unique sous la forme u( x) = u i ( x i ).
i =1
n
X q
X
Synthèse : Tout élément x de E s’écrit de façon unique x = x i . En posant u( x) = u i ( x i ), on définit alors
i =1 i =1
une application de E dans F qui vérifie :
— u |E = u i pour tout i de [[1, n]]
i
n
X n
X
— u est linéaire : soient deux vecteurs x = x i et y = yi où ( x1 , x2 , . . . , x q ), ( y1 , y2 , . . . , yq ) ∈ E 1 × E 2 × · · · × E n
i =1 i =1
et deux scalaires α et β. On a :
 
à !
n
X n
X X n
u(α x + β y) = u α xi + β yi = u  α x i + β yi 
 
i =1 i =1 i =1 | {z }
∈E i
n
X
= u i (α x i + β yi ) par définition de u
i =1
Xn n
X
= α u i (xi ) + β u i ( yi ). ( u i est linéaire )
i =1 i =1

= α u( x) + β u( y).

Remarque 1.6. Si β = ( e 1 , e 2 , . . . , e n ) est une base de E et en posant E i = Vect( e i ), on retrouve


qu’une application linéaire est entièrement déterminée par l’image d’une base.

n
M
Définition 1.4. On suppose E = E i , pour i ∈ [[1, n]] on définit l’application linéaire
i =1

Pi : E −→ E
Xn
x= xk 7−→ x i
k=1

n
M
La famille (P1 , . . . , P n ) s’appelle la famille des projecteurs associée à la décomposition E = Ei
i =1

www.laminehoucin.blogspot.com page:9/ 22
PSI Complément d’ algèbre linéaire

n
M
Propriétés 1.2. Soit (P1 , . . . , P n ) la famille des projecteurs associée à la décomposition E = E i.
i =1
Alors pour tout i ∈ [[1, n]] on a
1. P i est un projecteur de E
n
M
2. I mP i = E i et ker P i = Ek
k=1, k6= i
n
M
3. P i est la projection sur E i parallèlement à Ek.
k=1, k6= i
n
X
4. Pk = I dE
k=1
n
X
5. Si u ∈ (E, F ) alors u= u ◦ Pk
k=1

Théorème 1.5. Si u ∈ (E, F ) et G est un supplémentaire de ker u dans E alors u induit un


isomorphisme de G sur Im u.
½
G −→ Im u
Preuve : Notons v :
x 7−→ u ( x)
• v est linéaire.
• v est injective, en effet :
Si x ∈ ker v alors x ∈ G et u( x) = 0, donc x ∈ G ∩ ker u.
Or G est ker u sont supplémentaire donc G ∩ ker u = {0} par suite x = 0 et v injective.
• v est surjective, en effet :
soit y ∈ Im u alors il existe x ∈ E tel que y = u( x). Or E = ker u ⊕ G donc il exit (a, b) ∈ ker u × G tel que x = a + b.
Par suite y = u(a) + u( b) = u( b) = v( b). Ainsi
|{z}
=0

∀ y ∈ Im( u), ∃ b ∈ G ; y = v( b )

ce qui assure que v est surjective.


• On conclut alors v est un isomorphisme de G dans Im u.

Corollaire 1.2 (Formule du rang). Si u ∈ L (E, F ) avec E de dimension finie alors u est de rang
fini et
rg u + dim ker u = dim E

Preuve : Soit G un supplémentaire de ker u dans E , le théorème précédent assure que G est isomorphe à
I mu et puisque G est de dimension finie (Car c’est un sous espace d’un espace de dimension finie) on a I mu est de
dimension finie et
dim Im u = dim G
D’autre part on a E = G ⊕ ker u donc

dim E = dim G + dim ker u


= dim Im u + dim ker u
= rg u + dim ker u

www.laminehoucin.blogspot.com page:10/ 22
PSI Complément d’ algèbre linéaire

2 Formes linéaires - Hyperplans


2.1 Formes Linéaires

Définition 2.1. Soit E un K -espace vectoriel .


1. Une formes linéaire sur E est une application linéaire de E dans K
2. On appelle espace dual de E l’espace vectoriel E ∗ = L (E, K ). C’est l’ensemble des formes
linéaires sur E .

Remarque 2.1. On rappelle qu’en dimension finie dim E = dim E ∗

Proposition 2.1. Une forme linéaire non nulle sur E est toujours surjective

Preuve : Soi f une forme linéaire non nulle sur E , puisque Im f est un sous espace vectoriel de K on a

1 ≤ dim Im f ≤ 1

donc dim Im f = 1 = dim K par suite Im f = K et f surjective.

Remarque 2.2. En particulier si ϕ ∈ E ∗ est une forme linéaire non nulle sur E alors

∃ u ∈ E \{0}; ϕ( u) = 1

Théorème 2.1. Soient f et g deux formes linéaire sur un un K-espace vectoriel E telles que :

ker( g) ⊂ ker( f )

Alors il existe α ∈ K tel que : f = α.g

Preuve :
• Si g est nulle alors E = ker( g) ⊂ ker( f ) ⊂ E par suite E = ker( f ) et f nulle.
• Si g est non nulle, on procède par analyse synthèse :

Analyse : Si α existe alors nécessairement α = f ( u) où u ∈ E tel que g( u) = 1 et en remarquant que g( x)


est un scalaire f = α.g deviens pour tout x ∈ E ; f ( x − g( x) u) = 0.
Synthèse : Soit alors u ∈ E tel que g( u) = 1 et posons α = f ( u) ; on a pour tout x ∈ E :

g ( x − g ( x) u ) = g ( x) − g ( x) g ( u ) = g ( x) − g ( x) = 0

Donc x − g( x) u ∈ ker g ⊂ ker f Par suite f ( x − g( x) u) = 0 qui deviens par linéarité f ( x) = f ( u) g( x) = α.g( x)

Toute forme linéaire non nulle sur E est de rang 1, donc surjective.
Si E est de dimension finie, E ∗ l’est aussi et

dim E ∗ = dim E K = dim E

www.laminehoucin.blogspot.com page:11/ 22
PSI Complément d’ algèbre linéaire

Exemples 2.1. 1. Les formes linéaires sur Kn sont du type

ϕ : X = ( x1 , ..., xn ) ∈ Kn 7→ a 1 x1 + · · · + a n xn

En effet : Soit C la base canonique de Kn , la matrice de ϕ dans C est de la forme

A = Mat C ϕ = (a 1 , ..., a n ) avec a i = ϕ( e i )


donc  
x1
 . 
ϕ( X ) = A t X = (a 1 , ..., a n )  ..  = a 1 x1 + · · · + a n xn
xn
2. Soit I un intervalle de R et a, b ∈ I alors
Z b
δa : f 7→ f (a), I : f 7→ f; D a : f 7→ f 0 (a)
a

sont des formes linéaires sur, respectivement, C ( I, R), C ( I, R) et C 1 ( I, R).


n
3. Si E est de dimension finie n, si B = ( e 1 , ..., e n ) une base de E. Pour x =
X
x j e j on pose
j =1

ϕ j ( x) : x j

On définit ainsi n formes linéaires sur E ; on les appelle les formes linéaires coordonnées. De plus
(ϕ1 , ..., ϕn ) est une base de E ∗ appelée base duale de B
En effet : (ϕ1 , ..., ϕn ) est de cardinale n = dim E ∗ donc il suffit de montrer qu’elle est libre, pour
ça, soient λ1 , ..., λn ∈ K tels que λ1 ϕ1 + ... + λn ϕn = 0. En composant avec e j en remarquant que
ϕ i ( e j ) = δ i j on obtient λ j = 0, ceci étant pour tout j ∈ [[1, n]] donc notre famille est bien libre.

2.2 Hyperplans
E un K -espace vectoriel
• On appelle droite de E tout sous espace de dimension 1
• On appelle Plan de E tout sous espace de dimension 2

Définition 2.2. On appelle hyperplan de E , tout sous-espace vectoriel qui est supplémentaire
d’une droite vectorielle. En d’autre termes Il existe un vecteur non nul u de E tel que

E = H ⊕ Vect( u)

Proposition 2.2. Si dim E = n et H sous-espace vectoriel de E alors

H hyperplan de E ⇔ dim H = n − 1

Preuve :
=⇒: Si H est supplémentaire d’une droite D alors dim H = dim E − dim D = n − 1.

www.laminehoucin.blogspot.com page:12/ 22
PSI Complément d’ algèbre linéaire

⇐=: Soit ( e 1 , . . . e n−1 ) une base de H . D’après le théorème de la base incomplète, il existe un vecteur e n tel que
( e 1 , . . . e n ) soit une base de E . D = Vect( e n ) est une droite vectorielle supplémentaire de H .

Exemples 2.2. 1. En dimension 3, les hyperplans sont les plans vectoriels, ce qui justifie la
nomination en dimension quelconque.
2. En dimension 2, les hyperplans sont les droites vectorielles.

Propriétés 2.1. Soit H est un hyperplan de E . Alors


1.
∀ u ∈ E \ H, H ⊕ K.u = E

2. Si F est un sous espace vectoriel contenant H alors ou bien H = F ou bien F = E

Remarque 2.3. La première propriété nous donne le droit de choisir la droite D supplémentaire
à H sous la forme D = Vect( u) avec u ∈ E \ H
La deuxième montre que les hyperplans sont les sous espaces maximaux parmi les sous espaces
strictes de E.

Proposition 2.3. Soit H un sous-espace vectoriel de E . Les propositions sont équivalentes :


1. H est un hyperplan de E .
2. il existe une forme linéaire ϕ non nulle tel que H = ker ϕ

Preuve :
1 =⇒ 2 : Supposons que H est un hyperplan de E, il existe un vecteur non nul u de E tel que E = H ⊕ Vect( u). Soit
l’application
f : E = H ⊕ Vect( u) → K
x = h + λu 7−→ λ
Alors f est une forme linéaire sur E , non nulle (puisque f ( u) = 1) telle que ker( f ) = H
2 =⇒ 1 : Supposons qu’il existe une forme linéaire ϕ non nulle tel que H = ker ϕ. Soit u ∈ E \{0} tel que ϕ( u) = 1 .
Montrons que E = ker ϕ ⊕ K.u

x = λ u /λ ∈ K x = λ u /λ ∈ K
½ ½
• x ∈ ker ϕ ∩ K.u ⇔ ⇔ ⇔ x=0
ϕ( x) = 0 λ=0
donc ker ϕ ∩ K.u = {0}

• Pour x ∈ E posons x1 = x − ϕ( x) u et x2 = ϕ( x) u Alors x = x1 + x2 et x2 ∈ K.u et x1 ∈ ker ϕ car ϕ( x1 ) = ϕ( x) −


ϕ( x)ϕ( u) = 0
Donc E = ker ϕ + K.u

Exemples 2.3. 1. L’ensemble H des polynômes s’annulant en a ∈ K est un hyperplan de K [ X ].


Il suffit de considérer ϕ(P ) = P (a)
2. ( x1 , x2 , . . . , xn ) ∈ K n | a 1 x1 + a 2 x2 + · · · + a n xn = 0 est un hyperplan de K n .
© ª

www.laminehoucin.blogspot.com page:13/ 22
PSI Complément d’ algèbre linéaire

2.3 Équation d’un hyperplan

Théorème 2.2. Équation d’un hyperplan


Si E est de dimension finie n et β = ( e 1 , ..., e n ) une base de E , alors
H est un hyperplan de E si et seulement si il existe (a 1 , a 2 , . . . , a n ) ∈ Kn \{0} tel que pour tout
n
X
x= xi e i
i =1
n
X
x ∈ H ⇐⇒ a i xi = 0
i =1
n
X
a i x i = 0 s’appelle équation de l’hyperplan H relativement à β.
i =1

Preuve : En dimension finie, la matrice d’une forme linéaire ϕ relativement à β pour E et (1) pour K est
(a 1 a 2 . . . a n ). On a alors en notant H = ker ϕ.

x1
 
n
 .  X
x ∈ H ⇐⇒ f ( x) = 0 ⇐⇒ (a 1 a 2 . . . a n ).  ..  = 0 ⇐⇒ a i xi = 0
i =1
xn

n
X
Remarque 2.4. Si H est un hyperplan déquation a i x i = 0 alors H est le noyau de la forme
i =1
lineaire
f: E → K
n
X n
X
x= x i e i 7−→ a i xi
i =1 i =1

Exemples 2.4. 1. On retrouve qu’une droite vectorielle du plan admet une équation du type
ax + b y = 0
2. On retrouve qu’un plan vectoriel de l’espace admet une équation du type ax + b y + cz = 0
3. P ∈ R2 [ X ] | P (a) = 0 ) est un hyperplan de R2 [ X ] d’équation x + a y + a2 z = 0 dans la base
© ª

canonique (1, X , X 2 ).

Proposition 2.4. Deux équations linéaires définissent le même hyperplan


si et seulement si elles sont proportionnelles

Preuve :
Si (a 1 , a 2 . . . , a n ) = λ( b 1 , b 2 . . . , b n ) où λ 6= 0, alors
n
X n
X
a i x i = 0 ⇐⇒ b i xi = 0
i =1 i =1

donc les équation représente bien le même hyperplan (on divise par λ).
n n
b i x i = 0 deux équations de H et f , g ∈ E ∗ \{0} où (a 1 . . . a n ) est une
X X
Réciproquement : Soient a i x i = 0 et
i =1 i =1
matrice de f et ( b 1 . . . b n ) est une matrice de g. alors ker f = ker g = H et d’ après le théorème 2.1 on a f = λ g donc
les équations sont proportionnelles

www.laminehoucin.blogspot.com page:14/ 22
PSI Complément d’ algèbre linéaire

2.4 Détermination pratiques de l’équation d’un hyperplan

Proposition 2.5. Soit H un hyperplan dont une base est ( e 1 , . . . , e n−1 ).

x ∈ H ⇐⇒ detβ ( x, e 1 , e 2 , . . . , e n−1 ) = 0

Preuve : Si x ∈ H alors ( x, e 1 , e 2 , . . . , e n−1 ) est liée d’où det( x, e 1 , e 2 , . . . , e n−1 ) = 0.


β
Réciproquement, si detβ ( x, e 1 , e 2 , . . . , e n−1 ) = 0 alors( x, e 1 , e 2 , . . . , e n−1 ) est liée.
Mais ( e 1 , e 2 , . . . , e n−1 ) est libre, donc Vect( x, e 1 , e 2 , . . . , e n−1 ) = Vect( e 1 , e 2 , . . . , e n−1 ).
Ainsi x ∈ Vect( e 1 , e 2 , . . . , e n−1 ) = H .

Remarque 2.5. On retrouve les équation de droites dans le plan et de plan dans l’espace :
1. Soit A de coordonnées (a, b) dans un repère cartésien R = (Ω, β) et →

u de coordonnées ( u 1 , u 2 )
dans β. Alors une équation cartésienne de la droite affine passant par A et dont un vecteur
directeur est →

u est : ¯ ¯
¯ x − a u1 ¯
¯ y − b u2 ¯ = 0
¯ ¯

2. Soit A de coordonnées (a, b, c) dans un repère cartésien R = (Ω, β) et → −


u ,→
−v , deux vecteurs
libres de coordonnées respective dans β ( u 1 , u 2 , u 3 ) et (v1 , v2 , v3 ).
Alors une équation cartésienne
¡→ de l’unique plan affine passant par A et dont un couple de
− →
− ¢
vecteur directeur est u , v est :
¯ ¯
¯ x − a u 1 v1 ¯
¯ ¯
¯ y − b u 2 v2 ¯ = 0
¯ ¯
¯z− c u v ¯
3 3

2.5 Exercices
Exercice 1. trouver une équation de l’hyperplan H engendré par
(1, 0, 0, 0, 0), (1, 1, 0, 0, 0), (1, 1, 1, 0, 0), (1, 1, 1, 1, 0).

Déterminer une forme linéaire dont il est le noyaux.

Exercice 2. Montrer que deux équations d’un même hyperplan sont proportionnelles
Exercice 3. dim E = n .
1. Soient H, H 0 deux hyperplans distincts de E .
(a) montrer que H + H 0 = E
(b) Déduire que dimH ∩ H 0 = n − 2
2. Réciproquement soit F un sous espace de E de dimension n − 2 . Montrer qu ’il existe H, H 0
deux hyperplans distincts de E tels que F = H ∩ H 0

Exercice 4. 1. Si e est un vecteur non nul de E. Montrer qu’il existe une forme linéaire sur
E qui vaut 1 en e.
ker ϕ = {0E }
\
2. En déduire que
ϕ∈E ∗

www.laminehoucin.blogspot.com page:15/ 22
PSI Complément d’ algèbre linéaire

3 Matrices et endomorphismes
3.1 Matrices définies par blocs
µ ¶
A B
Toute matrice M ∈ M np (K) peut s’écrire comme matrices de blocs sous la forme M =
C D
où A ∈ M q,l (K ), B ∈ M q,p−l (K ), C ∈ Mn− q,l (K ) et D ∈ Mn− q,n−l (K ).

Si B = 0 ou C = 0 on dit que A est triangulaire par blocs.


Si B = 0 et C = 0 on dit que A est diagonale par blocs.

Proposition 3.1. Sous réserve que les opérations soient bien définies, on a
¶ µ 0
A B0 A + A 0 B + B0
µ ¶ µ ¶
A B
+ 0 =
C D C D0 C + C0 D + D0
¶ µ 0
A B0 A A 0 + BC 0 AB0 + BD 0
µ ¶ µ ¶
A B
× 0 =
C D C D0 C A 0 + DC 0 CB0 + DD 0

Corollaire 3.1. Le produit lorsqu’il existe de matrices triangulaires supérieures (respectivement


inférieures) par blocs est encore triangulaire supérieure (respectivement inférieure) par blocs.

Théorème 3.1. Soit A ∈ Mn (K), B ∈ M p (K ) et C ∈ Mn,p (K ) on a


µ ¶ µ ¶
A C A 0n,p
det = det = det A × det B
0 p,n B C B

µ ¶
A 0
Preuve : Soit M =
C D
Posons µ ¶ µ ¶ µ ¶
A 0 Ip 0 Ip 0
A0 = , C0 = et B0 =
0 Iq C Iq 0 B

On vérifie par calcul directe que M = A 0 C 0 B0


D’où det M = det A × det C × det B0 .
0 0

Or C est triangulaire donc son déterminant vaut 1 (produit des éléments diagonaux). De plus, en développant A 0
0

par rapport à sa dernière colonne, il vient µ ¶


0 A 0
det A = det .
0 I q−1

En réitérant, on obtient det A 0 = det A . De même, on a det B0 = det B, d’où le résultat.

¶ µ
A C
Attention 3.1. En générale det 6 det A det D − det B det C
=
B D

www.laminehoucin.blogspot.com page:16/ 22
PSI Complément d’ algèbre linéaire
¯ ¯
¯1 1 5 6 3¯¯
¯ ¯ ¯
¯2 3 4 −2 0¯¯ ¯¯ ¯ ¯ 1 0 0¯
¯ 1 1¯¯ ¯¯
¯ ¯
Exemple 3.1. ¯0 0 1 0 0¯ = ¯¯ × ¯ 8 3 0¯¯ = 6
¯
¯ 2 3 ¯
¯
¯0 0 8 3 0¯ −9 2 2¯
¯
¯ ¯
¯0 0 −9 2 2¯

3.2 Matrice semblables

Définition 3.1. Soient A, B ∈ Mn (K). On dit que A est semblable à B s’il existe P ∈ Gl n (K ) tel que

B = P −1 AP

Proposition 3.2. Soit E un espace vectoriel de dimension finie n


• Si u est un endomorphisme E et si B et B 0 sont deux bases de E , les matrices MatB ( u) et
MatB0 ( u) sont semblables.
• Réciproquement, si A et A 0 sont deux matrices semblables, il existe un endomorphisme u de
E et deux bases B et B 0 de E telles que

A = MatB ( u) et A 0 = MatB0 ( u)

Ainsi :

Deux matrices sont semblables si et seulement si elles représentent un même


endomorphisme dans des bases différentes.

Preuve :
• Notons P la matrice de passage de la base B à la base B 0 .D’après la formule de changement de bases pour un
endomorphisme , on a :
MatB0 ( u) = P −1 MatB ( u)P
• Réciproquement, si A et A 0 sont deux matrices semblables,il existe une matrice inversible P ∈ GL n (K) telle
que A 0 = P −1 AP.
Soit B = ( e 1 , ..., e n ) une base de E. L’isomorphisme

L(E ) −→ M n (K)
f 7−→ MatB ( f )

assure l’existence d’un endomorphisme f de E tel que Mat f = A et l’existence d’un automorphisme φ de E tel que
B
Mat φ = P. (φ est bijective car sa matrice P est inversible).
B
Posons
B0 = φ(B) = (φ( e 1 ), ..., φ( e n )) = ( e01 , ..., e0n )
| {z } | {z }
e01 e0n

Alors, B0 est une base de E (car φ est bijective donc transforme une base en une base )
Dans la suite on va montrer que Mat f = A 0 . Pour cela posons Mat f = (λ i j ) donc
B0 B0

n
f ( e0j ) = λ i j e0i
X
∀ j ∈ [[1, n]] ,
i =1

En composant avec φ−1 et en remarquant que φ( e i ) = e0i on a


n
φ−1 ◦ f ◦ φ( e j ) =
X
∀ j ∈ [[1, n]] , λi j e i
i =1

www.laminehoucin.blogspot.com page:17/ 22
PSI Complément d’ algèbre linéaire

ce qui assure que


Mat φ−1 ◦ f ◦ φ = (λ i j ) = Mat f
B B0

Or
Mat φ−1 ◦ f ◦ φ = Mat φ−1 Mat f Mat φ = P −1 AP = A 0
B B B B
0
donc Mat f = A .
B0

¶ µµ ¶
2 −1 1 0
Exercice 5. Montrer que A = et B = sont semblables.
1 0 1 1

Solution : Soit f canoniquement associé à A dans R2 .


Analyse : On cherche donc une base ( e 1 , e 2 ) de R2 telle que Matβ f = B. Par définition de Matβ f , ils doivent
vérifier :
f (e1) = e1 + e2 et f (e2) = e2
En posant e 1 = (a, b) et e 2 = ( c, d ), on aboutit à deux systèmes
½ ½
a−b−c =0 c−d =0
et
a−b−d =0 c=c

Ce qui équivaut à ½
a−b−c =0
c=d
ou encore (a, b, c, d ) = ( b + d, b, d, d ) = b(1, 1, 0, 0) + d (1, 0, 1, 1)
Synthèse : En considérant par exemple, b = 0 et d = 1, on obtient que e 1 = (1, 0) et e 2 = (1, 1) est bien une base
(donc conviennent puisque les calculs précédents sont des équivalences).

Remarque 3.1. La relation ∼ définie sur M n (K) par

« A ∼ B ⇐⇒ A est semblable à B »

est une relation d’équivalence, c’est à dire


1. La relation est réflexive : ∀ A ∈ Mn (K), A ∼ A, (considérer P = I n ).
2
2. La relation est symétrique : ∀ ( A, B) ∈ Mn (K), A ∼ B ⇐⇒ B ∼ A
−1 −1
¡ −1 ¢−1 ¡ −1 ¢
puisque B = P AP ⇐⇒ A = PBP = P A P
3
3. La relation est transitive : ∀ ( A, B, C ) ∈ Mn (K), A ∼ B et B ∼ C =⇒ A ∼ C
puisque B = P −1 AP et C = Q −1 BQ =⇒ C = Q −1 P −1 APQ = (PQ )−1 A (PQ )
On appelle alors classe de similitude d’une matrice A l’ensemble des matrices semblables
A c’est à dire
M ∈ Mn (K), | ∃ P ∈ GL n (K ), M = P −1 AP
© ª

www.laminehoucin.blogspot.com page:18/ 22
PSI Complément d’ algèbre linéaire

3.3 Trace d’une matrice

Définition 3.2. Soit A = a i, j 1≤ i, j≤n ∈ Mn (K).


¡ ¢

On appelle trace de la matrice A la somme de ses éléments diagonaux c’est à dire


n
X
tr( A ) = a k,k .
k=1

Notation 3.1. On note T r l’application

Tr : M n (K) −→ K
A 7−→ tr( A )

a b c
 

Exemple 3.2. tr d e
 f = a+e+i
g h i
n X
X p p
X Xn
Rappel : a i, j = a i, j
i =1 j =1 j =1 i =1
« la somme de la somme des lignes est égale à la somme de la somme des colonnes »

Proposition 3.3. 1. ∀ A ∈ Mnp (K), tr( t A ) = tr( A ).


2. ∀ A ∈ Mn (K), ∀ B ∈ Mn (K), ∀λ ∈ K tr( A + λB) = tr( A ) + λ tr(B).
3. ∀ A ∈ Mn (K), ∀ B ∈ Mn (K), tr( AB) = tr(BA ).
4. ∀ A ∈ Mn (K), ∀ P ∈ GL n (K ), tr(P −1 AP ) = tr( A ). (Deux matrices semblables ont la même
trace)

Preuve :
¡ ¢ ¡ ¢
A = a i, j i, j , B = b i, j i, j
1. A et t A ont la même diagonale donc ont la même trace.
2. Soit λ, µ ∈ K ,
n
X n
X n
X
tr(λ A + µB) = (λa k,k + µ b k,k ) = λ a k,k + µ b k,k = λ tr( A ) + µ tr(B)
k=1 k=1 k=1

¡ ¢ n
X ¡ ¢ n
X
3. Notons AB = c i, j 1≤ i≤n avec c i, j = a i,k b k, j et BA = d i, j 1≤ i≤n avec d i, j = b i,k a k, j
1≤ j ≤ n k=1 1≤ j ≤ n k=1
n
X
tr( AB) = c ii
i =1
X n X n
= a ik b ki
i =1 k=1
X n X n
= a ki b ik ( i ←→ k)
k=1 i =1
Xn X n
= b ik a ki (permutation de sommes )
i =1 k=1
X n
= d ii
i =1
= tr(BA )

www.laminehoucin.blogspot.com page:19/ 22
PSI Complément d’ algèbre linéaire

4. Soit P ∈ Gl n (K ) et A ∈ Mn (K). On a en utilisant la relation précédente


tr(P −1 AP ) = tr P −1 ( AP ) = tr ( AP )P −1 = tr A (PP −1 ) = tr( AI n ) = tr A
¡ ¢ ¡ ¢ ¡ ¢

Corollaire 3.2. L’application T r : A 7→ tr( A ) est une forme linéaire sur M n (K)

Remarque 3.2. T r est surjective et son noyau est l’ hyperplan de M n (K) donné par
{ A ∈ M n (K) / tr( A ) = 0}

Corollaire 3.3. Soit f ∈ L(E ) et soit A = Matβ f et B = Matβ0 f . On a tr B = tr A

β0
Preuve : B = P −1 AP avec P = Pβ

3.4 Trace d’un endomorphisme

Définition 3.3. Soit f ∈ L(E ).le nombre tr(Mat f ) ne dépend pas de la base B choisie sur E On
B
l’appelle trace de f et on le note tr( f ).
Ainsi La trace d’un endomorphisme et la trace de sa matrice relativement à une
base quelconque de E .

Proposition 3.4. Soit f un projecteur de rang r alors

tr( f ) = r

Preuve : puisque f un projecteur de rang r alors E = ker f ⊕ Im f et dim Im f = r . Soit ( e 1 , . . . , e r ) une base de
Im f et ( e r+1 , . . . , e n ) une base de ker f alors la famille B = ( e 1 , . . . , e n ) est une base de E dans laquelle
µ ¶
Ir 0
Mat f =
B 0 0
Par suite tr f = Mat f = tr I r = r.
B

3.5 Polynômes d’ une matrice ,d’un endomorphisme


E un K−espace vectoriel

m
Définition 3.4. Soient A ∈ M N (K) une matrice carrée d’ordre n , f ∈ L(E ) une endomorphisme de E et P = ak X k
X
k=0
un polynôme.

• On définit P ( A ) et P ( f ) par :
m
ak Ak
X
P ( A) =
k=0
m
ak f k
X
P( f ) =
k=0

• On dit que P est un polynôme annulateur de A (Resp de f ) si P ( A ) = 0 (Resp : P ( f ) = 0 )

www.laminehoucin.blogspot.com page:20/ 22
PSI Complément d’ algèbre linéaire

Proposition 3.5. Soient A ∈ M N (K) et f ∈ L(E ). Alors pour tous P,Q ∈ K[ X ] et λ ∈ K ona

(P + λQ )( A ) = P ( A ) + λQ ( A ); (P + λQ )( f ) = P ( f ) + λQ ( f )

(PQ )( A ) = P ( A )Q ( A ) (PQ )( f ) = P ( f )Q ( f )
 
2 −2 1
Exercice 6. On pose A= 2 −3 2
−1 2 0
1. Montrer que P = ( X − 1)( X + 3) est un polynôme annulateur de A
2. Montrer que A est inversibles et déterminer A −1 en fonction de A
3. Déterminer A n pour n ∈ N

Solution : 1. On vérifie que ( A − I 3 )( A + 3 I 3 ) = 0 (∗)


1 1
2. De (∗) ona A 2 + 2 A − 3 I 3 = 0 donc ( A + 2 I 3 ) A = I 3 donc A inversible et A −1 = ( A + 2 I 3 )
3 3
3. En effectuant la division euclidienne de X n sur le polynôme annulateur P on a

X n = QP + ax + b

en remplaçant par les racines 1 et -3 de P on obtient


½
a+b =1
−3a + b = (−3)n

1 − (−3)n 3 + (−3)n
qui donne a = et b = 1 − b = et en remplaçant par A on obtient A n = aA + bI 3
4 4

4 Sous espaces stables


4.1 Définition

Définition 4.1. Soit f ∈ L(E ) et F un sous-espace vectoriel de E .


On dit que F est stable par f si f (F ) ⊂ F .

Exemples 4.1. 1. E et {0} sont stables pour tout endomorphisme de E .


2. Une homothétie stabilise tous les sous-espaces vectoriels de E . La réciproque est d’ailleurs vraie (et constitue
un exercice classique.)
3. ker f et Im f sont stables par f .
Exercice 7. Soit f : R[ X ] → R[ X ]; f (P ) = X P 0 + ( X 2 + 1)P 00 . Montrer que Rn [ X ] est stable par f
Exercice 8. 1. Montrer que l’intersection de sous espaces stables est un sous espace stable
2. Montrer que la somme de sous espaces stables est un sous espace stable
Exercice 9. Soient f , g deux endomorphismes qui commutent . montrer que ker f et Im f sont stable par g

Proposition 4.1. Soient f , g deux endomorphismes qui commutent . Alors ker P ( f ) et ImP ( f ) sont stable par Q ( g)
pour tout P,Q ∈ K[ X ]

Définition 4.2. Si F est stable par f alors f F définie de F dans F par ∀ x ∈ F, f F ( x) = f ( x) est un endomorphisme de
F appelé endomorphisme induit par f sur F .

Attention 4.1. la restriction d’un endomorphisme à un sous-espace vectoriel F n’induit pas forcément un endo-
morphisme de F . Il faut absolument que f (F ) ⊂ F .

www.laminehoucin.blogspot.com page:21/ 22
PSI Complément d’ algèbre linéaire

Définition 4.3. Soit F un sous espace stricte d’un espace vectoriel de dimension finie E . On appelle base de E
adaptée à F toute base de E de la forme ( e 1 , ..., e p , ..., e n ) où ( e 1 , ..., e p ) est une base de F

Proposition 4.2. On suppose E de dimension finie. Soit F un sous-espace vectoriel stricte de E et soit β une base
adaptée à F . µ ¶
A B
F est stable par f si et seulement si Matβ f est triangulaire supérieure par blocs du type Matβ f = où
0n− p,p C
p = dim F .

Preuve : Soit β = ( e 1 , e 2 , . . . e n ) une base adaptée à F avec ( e 1 , e 2 , . . . e p ) base de F .


F est stable par F si et seulement si ∀ i ∈ [[1, p]] , f ( e i ) ∈ F = Vect( e 1 , e 2 , . . . e p ), ce qui équivaut à dire que sa
matrice est µ ¶
A B
Matβ f =
0n− p,p C

Remarque 4.1. — A représente alors la matrice de f |F dans ( e 1 , . . . , e p ).


— Comme A et C sont des matrices carrées, il vient alors det f = det µ A det C . ¶
A 0 p,n− p
— En remplaçant l’ordre de la base, on obtient la matrice Matβ f =
B C

4.2 Décomposition en somme directe de sous espace stables


µ ¶
A O
Si F et G sont stables par f et E = F ⊕ G , on a dans une base adaptée Matβ f = Plus généralement,
O B
q
M
suppose que l’on a la décomposition E = E i et soit β une base adaptée à cette décomposition. On pose pour
i =1
i ∈ [[1, p]] , dim E i = n i .

q
M
Théorème 4.1. Soit β une base adaptée à une DESD E = Ei.
i =1
Les E i sont stables par f si et seulement si Matβ f est diagonale par blocs.
Plus précisément, on aura
M1
 

 M2 

M =


 
Mq
où chaque M i ∈ Mn i (K ) représente la matrice de l’endomorphisme induit par E i .

q
Y
Remarque 4.2. Sous les notations du théorème précédent, on a alors det M = det M i .
i =1

www.laminehoucin.blogspot.com page:22/ 22

Vous aimerez peut-être aussi