0% ont trouvé ce document utile (0 vote)
268 vues42 pages

Cours D'algebre 1

Ce document décrit les structures algébriques de base comme les lois de composition interne, les magmas, monoïdes et groupes. Il définit ces concepts et leurs propriétés comme la commutativité, l'associativité et les éléments particuliers. Le document contient également des définitions sur les sous-groupes et les morphismes de groupes.

Transféré par

abekharaya3
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
268 vues42 pages

Cours D'algebre 1

Ce document décrit les structures algébriques de base comme les lois de composition interne, les magmas, monoïdes et groupes. Il définit ces concepts et leurs propriétés comme la commutativité, l'associativité et les éléments particuliers. Le document contient également des définitions sur les sous-groupes et les morphismes de groupes.

Transféré par

abekharaya3
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Structures algèbriques

1 Loi de composition interne :


E désigne un ensemble.

1.1 Définition :
Définition1 :
On appelle loi de composition interne (l.c.i) ou opération sur E toute application de E × E vers E.
Lorsque cette loi de composition interne est noté ⋆, on note x ⋆ y l’image du couple (x, y) par application
précédente.
L’élément x ⋆ y est appelé composé de x par y via ⋆.
Les (l.c.i)sont généralement notées ⋆, ⊤, ⊥, +, ◦, ...
Exemples :
– L’addition est une l.c.i dans N, Z, Q, R.
– La multiplication est une l.c.i dans N, Z, Q, R.

– est une l.c.i dans l’ensemnle des parties de E.
– o est une l.c.i sur l’ensemnle des applications de E vers E.
Définition2 :
On appelle magma tout couple (E, ⋆) formé d’un ensemble E et d’une loi de composition interne ⋆ sur E.

1.2 Partie stable :


Définition1 :
On appelle partie stable d’un magma (E, ⋆) toute partie A de E telle que : ∀x, y ∈ A, x ⋆ y ∈ A.

Définition2 :
Soit A une partie stable d’un magma (E, ⋆).
{A×A−→A
L’application restreinte définit une loi de composition interne sur A appelée loi de composition
(x,y)7−→x ⋆ y
interne induite ⋆.
On note ⋆|A ou plus couramment ⋆ et on peut ainsi donnée un sens au magma (A, ⋆).

1.3 Propriétés d’une loi de composition interne :


1.3.1 Commutativité :

Définition1 :
Soit ⋆ une loi de composition interne sur E. On dit que deux éléments a et b de E commutent pour la loi ⋆ ssi
a ⋆ b = b ⋆ a.
Exemples :
∩ ∪
– Les lois suivantes l’addition, la multiplication, , sont commutatives.
– o n’est pas commutative car si f (x) = x2 + 1 et g(x) = x − 1 on a (f og)(x) ̸= (gof )(x).
Définition2 :
Une loi de composition interne ⋆ sur E est dite commutative ssi tous les éléments de E commutent deux à
deux. Le magma (E, ⋆) est alors dit commutatif.

1
1.3.2 Associativité :

Définition1 :
Une loi de composition interne ⋆ sur E est dite associative ssi :

a, b, c ∈ E, (a ⋆ b) ⋆ c = a ⋆(b ⋆ c)

Le magma (E, ⋆) est alors dit associatif.


Exemples :
∩ ∪
– Les lois suivantes l’addition, la multiplication, , , o sont associatives.
– la soustraction n’est pas associative car (7 − 5) − 1 ̸= 7 − (5 − 1).

1.4 Eléments particuliers :


Soit (E, ⋆) un magma.

1.4.1 Elément régulier

Définition1 :
On appelle élément régulier de (E, ⋆) tout élément x de E tel que ∀a, b ∈ E, x ⋆ a = x ⋆ b =⇒ a = b (régulier
à gauche) et a ⋆ x = b ⋆ x =⇒ a = b (régulier à droite).

1.4.2 Elément neutre

Définition2 :
On appelle élément neutre de (E, ⋆) tout élément e de E tel que ∀x ∈ E x ⋆ e = x (neutre à gauche) et
e ⋆ x = x (neutre à droite).

Exemples :
– 0 est l’élément neutre pour l’addition.
– 1 est l’élément neutre pour la multiplication.
– IdE est l’élément neutre pour o sur l’ensemble des applications.

– E est l’élément neutre pour sur l’ensemble de parties de E.

– ∅ est l’élément neutre pour sur l’ensemble de parties de E.
– La soustraction et la division n’ont pas d’éléments neutres.
Proposition1 :
Si (E, ⋆) possède un élément neutre celui-ci est unique.

Exercice :
On considére les lois suivantes
– La loi ⊕ sur R2 définie par : (x1 , y1 ) ⊕ (x2 , y2 ) = (x1 + x2 , y1 + y2 ).
– La loi ⊗ sur R2 définie par : (x1 , y1 ) ⊗ (x2 , y2 ) = (x1 x2 − y1 + y2 , x1 y2 + x2 y1 ).
Montrer que les lois ⊕ et ⊗ sur R2 admettent chacun un élément neutre.
Définition3 :
On appelle monoïde tout magma (E, ⋆) associatif et possédant un élément neutre. Si de plus ⋆ est commutative,
le monoïde (E, ⋆) est commutatif.

2
1.4.3 Elément symétrisable

Soit (E, ⋆) un monoïde d’élément neutre e.


Définition1 :
On appelle élément symétrisable de (E, ⋆) tout élément x de E tel qu’il existe y ∈ E pour lequel x ⋆ y = e
(symétrisabilité à gauche) et y ⋆ x = e (symétrisabilité à droite).
Proposition1 :
Si x est symétrisable alors ∃!y tel que x ⋆ y = y ⋆ x = e.
Définition2 :
Si x est symétrisable, l’unique élément y de E tel que x ⋆ y = y ⋆ x = e est appelé symétrique de x et on le
note y= sym(x ).
Exemples :
– Le symetrique de x pour l’addition est −x.
– Le symetrique de x non nul pour la multiplication est 1/x.
– Le symetrique de f bijective pour la loi o est f −1 .
Proposition2 :
Si x est symétrisable alors sym(x) l’est aussi et sym(sym(x)) = x.
Proposition3 :
Si x et y sont symétrisables alors x ⋆ y l’est aussi et sym( x ⋆ y)= sym(x )⋆ sym( y).
Proposition4 :
Si x est un élément symétrisable de (E, ⋆) alors x est régulier.

1.5 Itéré d’un élément


Soit (E, ⋆) un monoïde de neutre e.
Soit x ∈ E. Pour n ∈ N∗ , On note x⋆ n = x ⋆ x ⋆ ... ⋆ x (n termes).
Ainsi x⋆ 1 = x, x⋆ 2 = x ⋆ x. De plus on pose x⋆ 0 = e.
Ainsi on donne un sens à x⋆ n pour n ∈ N.
Définition1 :
x⋆ n est appelé itéré d’ordre n de l’élément x.
Proposition1 :
∀p, q ∈ N, x⋆ p ⋆ x⋆ q = x⋆(p+q) et (x⋆ p )⋆ q = x⋆(pq) .
Supposons que x soit symétrisable.
Pour n ∈ N∗ , on note x⋆(−n) =sym(x)⋆ sym(x)...⋆ sym(x) (n termes).
Ainsi x⋆(−1) =sym(x), x⋆(−2) =sym(x)⋆ sym(x),.....
On donne ainsi un sens à x⋆ n avec n ∈ Z lorsque x est symétrisable.
Proposition2 :
Soit x un élément symétrisable de E.
∀n ∈ Z, x⋆ n est symétrisable et sym(xn )=(x⋆(−n) ).
∀p, q ∈ Z, x⋆ p ⋆ x⋆ q = x⋆(p+q) et (x⋆ p )⋆ q = x⋆(pq) .

1.6 Structures produits :


1.6.1 Structure sur E n

Soit (E, ⋆) un magma et X un ensemble non vide.

3
Définition1 :
On définit une loi de composition interne, encore notée ⋆, sur E n par
∀(x1 , x2 , ..., xn ), (y1 , ..., yn ) ∈ E n on pose (x1 , x2 , ..., xn ) ⋆(y1 , ..., yn ) = (x1 ⋆ y1 , ...., xn ⋆ yn ).
Proposition1 :
Si (E, ⋆) est un monoïde (resp. commutatif) d’élément neutre e alors (E n , ⋆) est un monoïde (resp. commutatif)
d’élément neutre f = (e, ..., e).
De plus un élément x = (x1 , ...., xn ) est symétrisable ssi ∀i ∈ {1, ..., n}, xi l’est, et si tel est le cas,
sym(x)=(sym(x1 ),...,sym(xn )).

1.6.2 Structures sur F(X, E)

Soit (E, ⋆) un magma et X un ensemble non vide.


Définition1 :
On définit une loi de composition interne, encore notée ⋆, sur F(X, E) par :

∀f, g ∈ F(X, E) on pose ∀x ∈ X, (f ⋆ g)(x) = f (x) ⋆ g(x).

Proposition1 :
Si (E, ⋆) est un monoïde (resp. commutatif) d’élément neutre e alors (F(X, E), ⋆) est un monoïde (resp.
commutatif) d’élément neutre g : x 7−→ e.
De plus un élément f ∈ F (X, E) est symétrisable ssi ∀x ∈ X, f (x) l’est, et si tel est le cas,
(symf )(x)=sym(f (x)).

1.7 Notation additive et multiplicative


Définition1 :
un monoïde est dit noté additivement (resp.multiplicativement) ssi la loi de composition interne est noté +
(resp. ×).

2 Groupes
2.1 Définition :
Définition1 :
On appelle groupe tout magma (G, ⋆) tel que :
1. ⋆ est associative,
2. (G, ⋆) possède un élément neutre e,
3. Tout élément de (G, ⋆) est symétrisable.
Si de plus ⋆ est commutative, le groupe (G, ⋆) est dit commutatif ou plus couramment abélien.
Exemples :
– (R, +) et (R∗ , .) sont des groupes.
√ √ √
– Z[ 2]{k + l 2/k, l ∈ Z}, (Z[ 2], +) est un groupe.
Proposition1 :
Si (G, ⋆) est un groupe alors (Gn , ⋆) l’est aussi.
Proposition2 :
Si (G, ⋆) est un groupe alors (F(X, G), ⋆) l’est aussi.

4
2.2 Sous-groupe
2.2.1 Définition :

Soit (G, ⋆) est un groupe d’élément neutre e.


Définition1 :
On appelle sous-groupes de (G, ⋆) toute partie H de G telle que :

1. e ∈ H.
2. ∀ ∈ H, sym(x)∈ H (stabilité par passage au symétrique),
3. ∀x, y ∈ H x ⋆ y ∈ H (stabilité).

Théorème :
Si H est un sous-groupe de (G, ⋆) alors (H, ⋆) est un groupe.
Si de plus (G, ⋆) est abélien alors (H, ⋆) l’est aussi.
Proposition1 : (Caractérisation rapide des sous- groupes)
Soit H une partie G. On a équivalence entre :
1. H est un sous-groupe de (G, ⋆),
{H̸=∅
2.
∀x,y∈H, x⋆sym(x)∈H
Exemples :
– L’ensemble des applications continues muni de la loi o est un sous groupe de l’ensemle des application
muni de la loi o.
– L’ensemble des nombres pairs est un sous groupe de (Z, +).
Proposition2 :
Soit H1 , H2 deux sous-groupes de (G, ⋆).
H1 ∩ H2 est un sous-groupe de (G, ⋆).

2.2.2 groupe de racine neme de l’unité

Soit n ∈ N∗ et Un = {z ∈ C/z n = 1}.

Proposition1 :
(Un , ×) est un groupe abélien.

2.3 Morphisme de groupes


′ ′′ ′ ′′
Soient (G, ⋆), (G , ⊤), (G , ⊥) trois groupes d’éléments neutres e, e , e .

2.3.1 Définition :

Définition1

On appelle morphisme du groupe (G, ⋆) vers (G , ⊤) toute application

φ : G 7−→ G telle que :
∀x, y ∈ G, f (x ⋆ y) = f (x)⊤f (y).

(image de la composée est la composée des images).


Si f est bijective, on dit que f est isomorphisme.

Si (G , ⊤)=(G, ⋆), on dit que f est endomorphisme.

5

Si (G , ⊤)=(G, ⋆) et f est bijective on dit que f est automorphisme.

Exemples :
– L’application x −→ 2x realise un automorphisme de (R, +).
– L’application x −→ 3lnx realise un isomorphisme de (R∗+ , .) sur (R, +).
– L’application x −→ ex realise un isomorphisme de (R, +) sur (R∗+ , .).
Proposition1 :
{Z−→G
Soit a ∈ G. φ : est un morphisme de groupes.
n7−→a
n

2.3.2 Propriètès

Proposition1 :
Soit f : G −→ G un morphisme de groupes.

f (e) = e , ∀x ∈ G, f (sym(x))=sym(f (x)), ∀x ∈ G, ∀p ∈ N, f (x⋆ p ) = (f (x))⊤p et ∀x1 , ..., xn ∈ G,
n n
f ( ⋆ xi ) = ⊤ f (xi )
i=1 i=1
Proposition2 :
′ ′ ′′ ′′
Si f : G −→ G et g : G −→ G sont deux morphismes de groupes alors g ◦ f : G −→ G est aussi un
morphisme de groupes.
Proposition3 :

Soit f : G −→ G .

Si f est un isomorphisme alors f −1 : G −→ G l’est aussi.

2.3.3 Noyau et image :

Proposition1 :
Soit f : G −→ G un morphisme de groupes.

Si H est un sous-groupe de(G, ⋆) alors f (H) est un sous-groupe de (G , ⊤).
′ ′
Si H est un sous-groupe de (G , ⊤) alors f −1 (H) est un sous-groupe de (G, ⋆).

Définition1 :

Soit f : G −→ G un morphisme de groupes.

On appelle image de f, l’ensemble Imf = f (G). C’est un sous-groupe de (G , ⊤).
′ ′
On appelle noyau de f, l’ensemble Kerf = f −1 ({e }). C’est un sous-groupe de (G , ⊤).

Théorème :

Soit f : G −→ G un morphisme de groupes.

f est surjective ssi Imf = G .
f est injective ssi Kerf = {e}.

Exercice :
Soit H = {(x, y, z) ∈ R3 /x + 2y − z = 0}.
– Montrer que H est un sous groupe de (R3 , +).
– Soit f : H −→ H définie par ∀(x, y, z) ∈ H, f (x, y, z) = (x − 2z, z − y, x − 2y).
Montrer que f est un morphisme de groupes déterminer son noyau et son image.

6
3 Etude du groupe symétrique
3.1 Permutation de Nn = {1, 2, ..., n}
Définition1 :
Pour n ∈ N∗ , On note Gn l’ensemble des permutations de Nn .
(Gn , ◦) est un groupe d’élément neutre IdNn = Id appelé groupe symétrique d’ordre n.

Définition2 : ( )
1 2 ... n
Pour σ ∈ Gn , On note pour visualiser l’action de σ.
σ(1) σ(2) ... σ(n)

Proposition1 :
Pour n ≥ 3 le groupe (Gn , ◦) n’est pas commutatif.

3.2 Cycles :
Soit p ∈ N tel que 2 ≤ p ≤ n.
Soit a1 , ..., ap une liste de p éléments deux à deux distincts de Nn .
Soit c : Nn −→ Nn définie par :
c(a1 ) = a2 , c(a2 ) = a3 , ..., c(ap−1 ) = ap , c(ap ) = a1 et ∀x ∈ Nn \ {a1 , ..., an }, c(x) = x.
c est une permutation de Nn .

Définition1 :
c est appelée cycle
( de longueur p )(ou p cycle).
On le note c = a1 a2 ... an .
L’ensemble S = {a1 , ..., an } est appelée support du cycle c.

Définition2 :
Les cycles de longueur (2 est appelés
) transpositions.
Une transposition τ = i j a pour effet d’échanger i et j.

Proposition1 :
Si c est un cycle de longueur p alors cp = Id.

3.3 Décomposition d’une permutation en produit de transpositions


Proposition1 :
Tout cycle de longueur p peut se décomposer en un produit de p − 1 transpositions.

Théorème
Toute permutation de Nn peut se décomposer en un produit d’au plus n − 1 transpositions.

Proposition2 : ( )
Toute permutation de Nn peut se décomposer en un produit de transposition de la forme 1 k avec 2 ≤ k ≤
n.

7
3.4 Signuature d’une permutation
Définition1 :
Soit σ ∈ Gn et un couple (i, j) avec 1 ≤ i < j ≤ n.
On dit σ réalise une inversion sur le couple (i, j) ssi σ(i) > σ(j).
On note I(σ) le nombre des couples (i, j) (avec 1 ≤ i < j ≤ n) sur lesquels σ réalise une inversion.

Définition2 :
On appelle signature d’une permutation σ de Gn le réel ε(σ) = (−1)I(σ) .

Proposition1 :
La signature d’une transposition est -1.

Théorème
L’application ε : Gn −→ {−1, 1} est un morphisme du groupe (Gn , ◦) sur ({−1, 1}, ×).

Corollaire :
Ainsi ε(σ1 ◦ ... ◦ σp ) = ε(σ1 ) × ... × ε(σp ).
∀p ∈ Z, ε(σ p ) = ε(σ)p et en particulier ε(σ −1 ) = ε(σ).

Proposition2 :
La signature d’un p cycle est (−1)p−1 .

Définition3 :
Une permutation de signature 1 est dite paire.
Une permutation de signature -1 est dite impaire.
On note An l’ensemble des permutations paires de Gn .

Proposition3 :
An est un sous-groupe de (Gn , ◦) appelé groupe alterné d’ordre n .

Proposition4 :
Pour n ≥ 2, CardAn = n!/2.

4 Anneaux
4.1 Définition :
Définition1 :
Soient ⊤ et ⋆ deux lois de composition internes sur un ensemble E.
On dit que ⋆ est distributive sur ⊤ ssi ∀a, b, c : a ⋆(b⊤c) = (a ⋆ b)⊤(a ⋆ c) (distributivité à gauche)
et (b⊤c) ⋆ a = (b ⋆ a)⊤(c ⋆ a) (distributivité à droite).

Définition2 :
On appelle anneau tout triplet (A, ⊤, ⋆) formé d’un ensemble A et deux lois de composition internes ⊤ et ⋆ tels
que :

8
1. (A, ⊤) est un groupe abélien,
2. (A, ⋆) est un monoïde,
3. ⋆ est distributive sur ⊤.
Si de plus ⋆ est commutative, l’anneau (A, ⊤, ⋆) est dit commutatif.

Exemples :
– (Z, +, .) et (R, +, .) sont des anneaux.

– (Z[ 2], +, .) est un anneau.
Proposition1 :
Si (A, +, ×) est un anneau et n ∈ N∗ alors (An , +, ×) est un anneau.

Proposition2 :
Si (A, +, ×) est un anneau et X un ensemble alors (F(X, A), +, ×) est un anneau.

4.2 Sous-anneau
Définition1 :
on appelle sous-anneau d’un anneau (A, ⊤, ⋆) toute partie B incluse dans A telle que :
1. eA ∈ B,
2. ∀x, y ∈ B, xT sym(y) ∈ B,
3. ∀x, y ∈ B, x ⋆ y ∈ B.
Exemples :
– (Z, +, .) est un sous-anneau de (Q, +, .) lui aussi est un sous-anneau de (R, +, .).

– (Z[ 2], +, .) est un sous-anneau de (R, +, .).
Théorème :
Si B est un sous-anneau de (A, +, ×) alors (B, +, ×) est un anneau.
Si de plus (A, +, ×) est commutatif alors (B, +, ×) est l’aussi.

4.3 Régles de calculs dans un anneau


Soit (A, +, ×) un anneau de neutres 0 et 1.

Proposition1 :
∀a ∈ A, 0 × a = a × 0 = 0.

Proposition2 :
∀a, b ∈ A, (−a)b = −(ab) = a(−b)

.
Proposition3 :
∀a, b ∈ A, ∀p ∈ Z, (p.a)b = p.(ab) = a(p.b).

Proposition4 :
∀a, b ∈ A, (a + b)2 = a2 + ab + ba + b2 , (a + b)3 = ....

9
Théorème :(Formule du binôme de Newton)
Soit ∀a, b ∈ A tels que a et b commutent.
( )
∑n
n n−k k
∀n ∈ N, n
(a + b) = a b
k=0
k
.
Théorème :
Soit ∀a, b ∈ A, tels que a et b commutent.


n−1
∀n ∈ N, a − b = (a − b)
n n
an−1−k bk = (a − b)(an−1 + an−1 b + ... + abn−2 + bn−1 )
k=0

4.4 Eléments inversibles :


Définition1 :
Un élément a ∈ A est dit inversible ssi il est symétrisable pour × i.e. ssi il existe b ∈ A tel que ab = ba = 1A .
Cet élément b est alors unique, on appelle inverse de a, on le note a−1 .

Proposition1 :
Si x est inversible alors x−1 est inversible et (x−1 )−1 = x.

Proposition2 :
Si x et y sont inversibles alors xy est inversible et (xy)−1 =y −1 x−1 .

4.5 Diviseurs de zéro


Soit (A, +, ×) un anneau.

4.5.1 Définition :

Définition1 :
Soit a ∈ A tel que a ̸= 0A . On dit que a est diviseur de zéro ssi ∃b ∈ A\{0A } tel que ab = 0A ou ba = 0A .

Proposition1 :
Un diviseur de zéro est non régulier pour ×.

Proposition2 :
Les éléments inversibles de A ne sont pas diviseurs de zéro.

4.5.2 anneau sans diviseurs de zéro

Proposition1 :
Si (A, +, ×) ne possède pas de diviseurs de zéro alors :
∀a, b ∈ A, ab = 0A =⇒ a = 0A ou b = 0A (implication d’intégrité)

10
Proposition2 :
Dans un anneau (A, +, ×) sans diviseurs de zéro tout élément non nul est régulier.

4.5.3 idempotent et nilpotent

Définition1 :
Un élément a ∈ A est dit idempotent ssi a2 = a.

Définition2 :
Un élément a ∈ A est dit nilpotent ssi ∃n ∈ N∗ , an = 0A .

5 Corps
5.1 Définition :
Définition1 :
On appelle corps tout anneau commutatif (K, +, ×) non réduit à {0K } dont tous les éléments, sauf 0K , sont
inversibles.

Proposition1 :
Un corps n’a pas de diviseurs de zéro.

5.2 Sous-corps
Soit (K, +, ×) un corps.
Définition :
On appelle un sous-corps d’un (K, +, ×) toute partie L de K telle que :
1. L est un sous-anneau de (K, +, ×),
2. ∀x ∈ L\{0K }, x−1 ∈ L.

Théorème :
Si L est un sous-corps de (K, +, ×) alors (L, +, ×) est un corps.

11
Espaces vectoriels
K désigne le corps R ou C.

6 Structure d’espace vectoriel


6.1 Loi de composition externe
Déf : On appelle loi de composition externe (ou produit extérieur) opérant de K sur un ensemble E toute
{
K×E →E
application : .
(λ, ⃗x) 7→ λ.⃗x
Une loi de composition externe est usuellement notée.
Les éléments de K sont appelés scalaires.
Les éléments de E sont appelés vecteurs et sont souvent notés surmontés d’une flèche.

Déf : Soit E un ensemble muni dŠun produit extérieur (.) de K sur E.


Une partie A de E est dite stable pour ce produit extérieur lorsque :
∀λ ∈ K, ∀⃗x ∈ A, λ.⃗x ∈ A. {
K×A→A
On peut alors considérer l’application restreinte qui définit un produit extérieur de K sur A
(λ, ⃗x) 7→ λ.⃗x
appelé produit extérieur induit.

6.2 Définition d’un espace vectoriel


Déf : Soit E un ensemble, + une loi de composition interne sur E et . une loi de composition externe opérant
de K sur E.
On dit que (E, +, .), ou plus brièvement E, est un K-espace vectoriel ssi :
(1) (E, +) est un groupe abélien,
(2) ∀λ, µ ∈ K, ∀⃗u, ⃗v ∈ E on a :
(a) (λ + µ).⃗u = λ.⃗u + µ.⃗u,
(b) λ.(⃗u + ⃗v ) = λ.⃗u + λ.⃗v ,
(c) λ.(µ.⃗u) = (λµ).⃗u,
(d) 1.⃗u = ⃗u.
L’élément neutre de (E, +) est alors appelé vecteur nul, on le note ⃗0.

6.3 Visualisation géométrique d’un espace vectoriel

6.4 Exemples d’espaces vectoriels


6.4.1 structure sur Kn

Soit n ∈ N∗ et E = Kn .
Pour λ ∈ K et ⃗x = (x1 , ..., xn ) ∈ Kn et on pose :
λ.⃗x = (λx1 , ..., λxn ) et ⃗x + ⃗y = (x1 + y1 , ..., x1 + yn ).
On définit ainsi un produit extérieur de K sur Kn et une loi de composition interne additive sur Kn .

Proposition : (Kn , +, .) est un K-espace vectoriel de vecteur nul ⃗0 = (0, ..., 0).

12
6.4.2 structure sur E1 × ... × En

Soit n ∈ N∗ , E1 , ..., En des K-espace vectoriels et E = E1 × ... × En .


Pour λ ∈ K, ⃗x = (⃗x1 , ..., ⃗xn ) ∈ Kn et ⃗y = (⃗y1 , ..., ⃗yn ) ∈ Kn on pose :
λ.⃗x = (λ⃗x1 , ..., λ⃗xn ) et ⃗x + ⃗y = (⃗x1 + ⃗y1 , ..., ⃗xn + ⃗yn ).

Proposition : (E1 × ... × En , +, .) est un K-espace vectoriel de vecteur nul ⃗0 = (⃗0E1 , ..., ⃗0En ).

6.4.3 structure sur F(X, K)

Soit X un ensemble et E = F(X, K).


Pour λ ∈ K et f, g : X → K, on définit λ.f : X → K et f + g : X → K par :
∀x ∈ X, (λ.f )(x) = λf (x) et (f + g)(x) = f (x) + g(x).
On définit ainsi un produit extérieur de K sur F(X, K) et une loi de composition interne additive sur F(X, K).

Proposition : Soit X un ensemble (F(X, K), +, .) est un K-espace vectoriel dont le vecteur nul est la fonction
nulle.
En particulier :
Pour X = D ⊂ R, l’ensemble F(D, R) (resp. F(D, C)) est un R-espace vectoriel (resp. C-espace vectoriel).
Pour X = N, l’ensemble RN (resp. CN ) est un R-espace vectoriel (resp. C-espace vectoriel).

6.4.4 structure sur F(X, F )

Soit X un ensemble et F un K-espace vectoriel.


Pour λ ∈ K et f, g ∈ F (X, F ) on définit λ.f : X → F et f + g : X → F par :
∀x ∈ X, (λ.f )(x) = λf (x) et (f + g)(x) = f (x) + g(x).

Proposition : (F(X, F ), +, .) est un K-espace vectoriel de vecteur nul égal à la fonction constante égale à ⃗0F .

6.4.5 les espaces complexes sont aussi réels

Soit E un C-espace vectoriel. La loi de composition externe de opérant de C sur E définit aussi par restric-
tion une loi de composition externe opérant de R sur E. Les propriétés calculatoires étant conservées, on peut
affirmer que E est alors aussi un R-espace vectoriel.

6.5 Calculs dans un K-espace vectoriel


Soit (E, +, .) un K-espace vectoriel.
( ) (n ) (n ) (n )

n ∑ ∑ ∑
Proposition : λi .⃗u = λi .⃗u et λ.⃗ui = λ ⃗ui .
i=1 i=1 i=1 i=1

Proposition : ∀λ ∈ K, ∀⃗u ∈ E on a :
0.⃗u = ⃗0 et λ.⃗0 = ⃗0,
λ.⃗u = ⃗0 ⇒ λ = 0 ou ⃗u = ⃗0.
Proposition : ∀⃗u ∈ E, (−1).⃗u = −⃗u et ∀n ∈ N, ⃗u + ... + ⃗u = n.⃗u.

13
6.6 Combinaison linéaire
Déf : Soit ⃗e1 , ..., ⃗en des vecteurs de E.
On appelle combinaison linéaire (CL) des vecteurs ⃗e1 , ..., ⃗en tout vecteur ⃗x de E pouvant s’écrire sous la forme

n
⃗x = λ1⃗e1 + ... + λn⃗en = λi⃗ei avec λ1 , ..., λn ∈ K.
i=1

7 Sous espace vectoriel


(E, +, .) désigne un K-espace vectoriel.

7.1 Définition
Déf : On appelle sous-espace vectoriel de E toute partie F de E telle que :
1) F ̸= ∅,
2) ∀⃗x, ⃗y ∈ F, ⃗x + ⃗y ∈ F (F est stable pour +),
3) ∀⃗x ∈ F, λ ∈ K, λ.⃗x ∈ F (F est stable pour .).
Théorème : Si F est un sous-espace vectoriel de (E, +, .) alors (F, +, .) est un K-espace vectoriel.

Proposition : (Caractérisation usuelle)


Soit F ⊂ E. F est un sous-espace vectoriel ssi :
1) ⃗0 ∈ F ,
2) ∀⃗x, ⃗y ∈ F, ∀λ, µ ∈ K, λ⃗x + µ⃗y ∈ F (F stable par combinaison linéaire).
Exemples :

– Soit E un espace vectoriel, {0E } est un sous espace vectoriel de E.


– E1 = {(x, y, z) ∈ R3 /x + y + z = 0}. E1 est un sous espace vectoriel de R3 .
– E2 = {(x, y, z) ∈ R3 /x + y + z = 1}. E2 n’est pas un sous espace vectoriel de R3 car (0, 0, 0) ∈
/ E2 .
– E3 = {(x, y) ∈ R2 /x.y = 0}. E3 n’est pas un sous espace vectoriel de R2 car (1, 0), (0, 1) ∈ E3 mais
(1, 0) + (0, 1) ∈
/ E3 .

7.2 Opérations sur les sous-espaces vectoriels


7.2.1 Intersection

Proposition : Si F et G sont des sous-espaces vectoriels de E alors F ∩ G est un sous-espace vectoriel de E.


Proposition : Si (Fi )i∈I est une famille de sous-espaces vectoriels de E alors Fi est un sous-espace vectoriel
i∈I
de E.

7.2.2 Somme de sous-espaces vectoriels

Déf : Soit F et G deux sous-espaces vectoriels de E. On appelle somme de F et G


l’ensemble F + G = {⃗u + ⃗v /⃗u ∈ F, ⃗v ∈ G}.

Proposition : Si F et G sont deux sous-espaces vectoriels de E alors F + G est un sous-espace vectoriel de


E. De plus F + G contient F et G et est inclus dans tout sous-espace vectoriel contenant F et G.

14
7.3 Sous-espaces vectoriels supplémentaires
Déf : Soit F et G deux sous-espaces vectoriels de E.
On dit que F et G sont supplémentaires ssi F ∩ G = {⃗0} et F + G = E.

Théorème : Soit F et G deux sous-espaces vectoriels supplémentaires de E.


∀⃗x ∈ E, ∃!(⃗u + ⃗v ) ∈ F × G, ⃗x = ⃗u + ⃗v .

7.4 Sous-espace vectoriel engendré par une partie


Proposition : Soit A une partie de E.
Il existe un unique sous-espace vectoriel de E, noté V ect(A), tel que :
1) A ⊂ V ect(A),
2) V ect(A) est inclus dans tout sous-espace vectoriel contenant A. V ect(A) se comprend comme étant le
plus petit sous-espace vectoriel contenant A , on l’appelle sous-espace vectoriel engendré par A.
Proposition : Soit A et B deux parties de E.
Si A est un sous-espace vectoriel de E alors V ect(A) = A,
V ect(V ect(A)) = V ect(A),
A ⊂ B ⇒ V ect(A) ⊂ V ect(B),
V ect(A ∪ B) = V ect(A) + V ect(B).
En particulier :
Soit F et G deux sous-espaces vectoriels de E. V ect(F ∪ G) = F + G. Ainsi F + G apparaît comme étant le
plus petit sous-espace vectoriel contenant F et G.

8 Applications linéaires
E, F et G désignent des K-espaces vectoriels.

8.1 Définition
Déf : Soit f : E → F . On dit que f est une application (K-linéaire) (ou morphisme de K-espace vectoriel)
ssi :
1) ∀⃗x, ⃗y ∈ E, f (⃗x + ⃗y ) = f (⃗x) + f (⃗y ),
2) ∀λ ∈ K, ∀⃗x ∈ E, f (λ.⃗x) = λ.f (⃗x).
On note LK (E, F ) (ou L(E, F )) l’ensemble de ces applications.
Proposition : (caractérisation usuelle)
Soit f : E → F . On a équivalence entre :
(i) f est une application linéaire,
(ii) ∀λ, µ ∈ K, ∀⃗x, ⃗y ∈ E, f (λ.⃗x + µ.⃗y ) = λ.f (⃗x) + µ.f (⃗y ).
Exemples :

– f : R3 −→ R définie par : f (x, y, z) = x + y + 2z est une application linéaire.


– f : R2 −→ R définie par : f (x, y) = x + y + 1 n’est pas une application linéaire.
– f : R2 −→ R définie par : f (x, y) = xy n’est pas une application linéaire.

15
Proposition : Soit f ∈ L(E, F ). On a : f (⃗0E ) = ⃗0F .

Proposition : Si ⃗e1 , ..., ⃗en est une famille de vecteurs de E et f ∈ L(E, F ) alors
∀λ1 , ..., λn ∈ K, f (λ1⃗e1 + ... + λn⃗en ) = λ1 f (⃗e1 ) + ... + λn f (⃗en )
(l’image d’un combinaison linéaire est la combinaison linéaire des images).

Proposition : Soit f ∈ L(E, F ) et f ∈ L(F, G). On a g ◦ f ∈ L(E, G).

8.2 Application linéaires particulières


8.2.1 formes linéaires

Déf : On appelle forme linéaire sur un K-espace vectoriel E, toute application linéaire de E vers K.
On note E ∗ . au lieu de L(E, K), l’ensemble des formes linéaires sur E.
E ∗ est appelé dual de E.
Exemple :
∫1
Soit J : C([0, 1], R) −→ R définie par J(f ) = 0 f (t)dt. J est une forme linéaire.

8.2.2 endomorphisme

On appelle endomorphisme de E, toute application linéaire de E dans lui-même. On note L(E) au lieu de
L(E, E) l’ensemble de ces applications.

Proposition : Si f, g ∈ L(E) alors g ◦ f ∈ L(E).

8.2.3 isomorphisme

Déf : On appelle isomorphisme de K-espace vectoriel toute application linéaire bijective.

Déf : Si f : E → F et g : F → G sont des isomorphismes alors g ◦ f : E → F est un isomorphisme.

Déf : Si f : E → F est un isomorphisme alors f −1 : F → E est un isomorphisme.

Déf : Deux K-espace vectoriels sont dits isomorphes ssi il existe un isomorphisme entre ceux-ci.

8.2.4 automorphisme

Déf : On appelle automorphisme de E, tout endomorphisme de E bijectif. On note GL(E) l’ensemble des
automorphismes de E.

Proposition : ∀f, g ∈ GL(E), f ◦ g ∈ GL(E), f −1 ∈ GL(E).

Déf : (GL(E), ◦) est appelé groupe linéaire de E.

8.3 Noyau et image d’une application linéaire


Théorème : Soit f ∈ L(E, F ).
Si V est une sous-espace vectoriel de E alors f (V ) est un sous-espace vectoriel de F .

16
Si W est un sous-espace vectoriel de F alors f −1 (W ) est un sous-espace vectoriel de E.

Déf : Soit f ∈ L(E, F ).


On appelle image de f l’ensemble Imf = f (E).
On appelle noyau de f l’ensemble kerf = f −1 ({⃗0F }).

Déf : Imf est un sous-espace vectoriel de F .


kerf est un sous-espace vectoriel de E.

Théorème : Soit f ∈ L(E, F ). On a :


– f est surjective ⇔ Imf = F ,
– f est injective ⇔ kerf = {⃗0E }.

8.4 L’espace vectoriel L(E, F )


Théorème : (L(E, F ), +, .) est un K-espace vectoriel.
En particulier :
(L(E), +, .) et (E ∗ , +, .) sont des K-espaces vectoriels.
Proposition : (linéarité du produit de composition) ∀λ, µ ∈ K, ∀f, g ∈ L(E, F ) et ∀h ∈ L(F, G), h ◦ (λ.f +
µ.g) = λ.(h ◦ f ) + µ.(h ◦ g).
∀λ, µ ∈ K, ∀h ∈ L(E, F ) et ∀f, g ∈ L(F, G), (λ.f + µ.g) ◦ h = λ.(f ◦ h) + µ.(g ◦ h).

8.5 L’anneau des endomorphismes


Théorème : (L(E), +, ◦) est un anneau, généralement non commutatif, d’élément nul l’endomorphisme nul
(noté 0 ou 0̃) et d’élément unité l’endomorphisme identité (noté I ou Id).

Déf : Pour f ∈ L(E), on note :


f 0 = I, f 1 = f , f 2 = f ◦ f , f n = f ◦ f ◦ ... ◦ f (n termes).

Proposition : Soit f, g ∈ L(E) et n ∈ N.


Si f et g commutent (i.e. f ◦ g = g ◦ f ) alors (f ◦ g)n = f n ◦ g n ,
n ( )
∑ ∑ k n−k−1
n−1
n k
k f ◦g
(f + g)n = n−k et f n − g n = (f − g) f g .
k=0 k=0
En particulier :
Puisque f et I commutent :
n ( )
∑ ∑ k
n−1
n k
(I + f )n = k f et f − I = (f − I)
n f .
k=0 k=0

Proposition : f ◦ g = 0 ⇔ Img ⊂ kerf .

Déf : Un endomorphisme f ∈ L(E) est dit idempotent ssi f 2 = f .


Un endomorphisme f ∈ L(E) est dit nilpotent ssi ∃n ∈ N, f n = 0.

17
9 Transformations vectorielles
E désigne un K-espace vectoriel.

9.1 Homothétie vectorielle


Soit λ ∈ K. {
E→E
Déf : On appelle homothétie (vectorielle) de rapport λ l’application hλ : .
⃗x 7→ λ.⃗x
En particulier :
Si λ = 1 alors h = I, si λ = 0 alors h = 0.

Proposition : hλ ∈ L(E) et hλ commute avec tout endomorphisme de E.

Proposition : ∀λ, µ ∈ K, hλ ◦ hµ = hλµ et ∀λ ∈ K∗ , hλ ∈ GL(E) et (hλ )−1 = h 1 .


λ

9.2 Projection vectorielle


Soit F et G deux sous-espaces vectoriels supplémentaires de E.
∀⃗x ∈ E, ∃!(⃗u, ⃗v ) ∈ F × G, ⃗x = ⃗u + ⃗v .
Posons p(⃗x) = ⃗u. On définit ainsi p : E → E.

Déf : p est appelée projection (vectorielle) sur F parallélement à G.


En particulier :
F = E et G = {⃗0} donnent p = I.
F = {⃗0} et G = E donnent p = 0.
Proposition : p est un endomorphisme de E tel que p2 = p.
De plus Imp = ker(p − I) = F et kerp = G.

Déf : La projection vectorielle θ sur G et parallélement à F est appelée projection complémentaire de p.

Proposition : q = Id − p.

Déf : On appelle projecteur de E, tout endomorphisme p de E tel que p2 = p.

Théorème : Si p est un projecteur de E alors :


1) Imp et kerp sont supplémentaires,
2) p est la projection vectorielle sur F = Imp, parallélement à G = kerp.

9.3 Symétrie vectorielle


Soit F et G deux sous-espaces vectoriels supplémentaires de E.
∀⃗x ∈ E, ∃!(⃗u, ⃗v ) ∈ F × G, ⃗x = ⃗u + ⃗v .
Posons s(⃗x) = ⃗u − ⃗v . On définit ainsi s : E → E.

Déf : s est appelée symétrie (vectorielle) par rapport à F parallèlement à G.


En particulier :

18
F = E et G = {⃗0} donnent s = I.
F = {⃗0} et G = E donnent s = −I.

Proposition : s est un endomorphisme de E tel que s2 = I.


De plus F = ker(s − I) et G = ker(s + I).


Déf : La symétrie s par rapport à G et parallélement à F est appelée symétrie complémentaire de s.


Proposition : s = s.

Théorème : Si s est un endomorphisme de E tel que s2 = I alors :


1) ker(s − I) et ker(s + I) sont supplémentaires dans E,
2) s est la symétrie vectorielle par rapport à F = ker(s − I), parallélement à
G = ker(s + I).

9.4 Affinités vectorielles


Soit, F, G deux sous-espaces vectoriels supplémentaires et α ∈ K.
∀⃗x ∈ E, ∃!(⃗u, ⃗v ) ∈ F × G, ⃗x = ⃗u + ⃗v .
Posons f (⃗x) = ⃗u + α.⃗v . On définit ainsi f : E → E.
Déf : f est appelée affinité (vectorielle) par rapport F parallèlement à G et de rapport α.
En particulier :
Si α = 1 alors f = I.
Si α = 0 alors f = p.
Si α = −1 alors f = −s.

Proposition : f est un endomorphisme de E.


Exercice :
Soit f est une application linéaire dans E telle que f 2 − 4f + 3IdE = 0

– Montrer que ker(f − IdE ) ker(f − 3IdE ) = E.
– Quelle transformation vectorielle réalise f ?

10 Notions affines
E désigne un K-espace vectoriel.

10.1 Translation
Déf : Soit ⃗u ∈ E. On appelle translation de vecteur ⃗u l’application t⃗u : E → E définie par ⃗x 7→ ⃗x + ⃗u.

Proposition : Soit ⃗u, ⃗v ∈ E. t⃗u ◦ t⃗v = t⃗u+⃗v = t⃗v ◦ t⃗u , t⃗u est une permutation de E et t⃗−1
u = t−⃗
u.
Exercice :
A quelle con dition une translation et une application linéaire d’un espace vectoriel E commutent-elles ?

19
10.2 Sous-espace affine
Déf : Soit ⃗a ∈ E et F un sous-espace vectoriel de E. On appelle sous-espace affine passant par ⃗a et dirigé par
F l’ensemble :
⃗a + F = {⃗a + ⃗u/⃗u ∈ F } = {⃗x ∈ E/⃗x − ⃗a ∈ F }.

Proposition : Soit V = ⃗a + F un sous-espace affine. Pour tout ⃗b ∈ V on a V = ⃗b + F .

Proposition : Si V = ⃗a + F alors F = {⃗x − ⃗y /⃗x, ⃗y ∈ V } Par suite il y a unicité du sous-espace vectoriel F .

Déf : Le sous-espace vectoriel F est appelé direction sur du sous-espace affine V .


Exercice :
A quelle condition le sous-espace affine ⃗a + F est sous-espace vectoriel ?

10.3 Incidence de sous-espaces affines


Proposition : Si V et W sont deux sous-espaces affines de directions F et G alors V ∩ W est soit vide soit
égal à un sous-espace affine de direction F ∩ G.

Déf : Si V et W sont deux sous-espaces affines de directions F et G. On dit que V est parallèle à W ssi F ⊂ G.

Proposition : Si V et W sont deux sous-espaces affines de directions F et G. Si V est parallèle à W alors


V ∩ W = ∅ ou V ⊂ W .

10.4 Equations linéaires


Déf : On appelle équation linéaire toute équation de la forme f (⃗x) = ⃗y d’inconnue ⃗x ∈ E ̸= où ⃗y ∈ F et
f ∈ L(E, F ).
On appelle équation homogène associée l’équation f (⃗x) = ⃗0.

Théorème : L’ensemble solution de l’équation linéaire f (⃗x) = ⃗y est soit vide, soit égal à un sous-espace affine
de direction kerf .

10.5 Barycentre
Soit n ∈ N∗ , ⃗u1 , ..., ⃗un ∈ E et λ1 , ..., λn ∈ K tel que λ1 + ... + λn ̸= 0.
Déf : On appelle barycentre des vecteurs ⃗u1 , ..., ⃗un affectés respectivement des masses λ1 , ..., λn le vecteur :
⃗v = λ1 ⃗uλ11+...+λ n⃗
un
+...+λn .

1
Déf : Lorsque les λ1 , ..., λn sont égaux non nuls, alors ⃗u = n (⃗
u1 + ... + ⃗un ) est appelé isobarycentre des
vecteurs ⃗u1 , ..., ⃗un .
Quand n = 2, on parle de milieu de ⃗u1 et ⃗u2 .

Proposition : Si tous les ⃗ui appartiennent à un même sous-espace affine V = ⃗a + F alors le barycentre ⃗v des
vecteurs ⃗u1 , ..., ⃗un affectés des masse λ1 , ..., λn appartient à V .

20
10.6 Convexité
Ici K = R.
Déf : Soit ⃗a, ⃗b ∈ E. On appelle segment d’extrémités ⃗a et ⃗b l’ensemble :
{ }
[⃗a, ⃗b] = (1 − λ)⃗a + λ⃗b/λ ∈ [0, 1] .

Déf : Soit C une partie de E. On dit que C est convexe ssi ∀⃗a, ⃗b ∈ C, [⃗a, ⃗b] ⊂ C.


Proposition : Soit (Ci )i∈I une famille de parties convexes de ε. C = Ci est un convexe.
i∈I

21
Dimension d’un espace vectoriel
11 Famille de vecteurs :
Soit E un K-espace vectoriel et n ∈ N. F = (→ −
e1 , −

e2 , ..., −

en ) = ( −

ei )1≤i≤n désigne une famille de vecteurs
de E.
Dans le cas n = 0, on dit que c’est la famille vide.

11.1 sous-espace vectoriel engendrée par une famille finie de vecteurs


Définition1 :

On appelle combinaison linéaire des vecteurs de F = (−



ei )1≤i≤n tout vecteur −

x de E pouvant s’écrire

→ ∑
n


x = λi ei avec λ1 , λ2 , ..., λn bien choisis.
i=1

Définition1 :

Soit F = (− →
e1 , −

e2 , ..., −

en ) une famille de vecteurs de E. On appelle sous-espace vectoriel engendrée par la
famille F le sous-espace vectoriel engendrée par {− →e1 , −

e2 , ..., −

en }. On le note Vect(F), Vect(−

e1 , −

e2 , ..., −

en ) ou


Vect( ei )1≤i≤n .

Théorème :

Si (−

e1 , −

e2 , ..., −

en ) est une famille de vecteurs de E alors Vect(−

e1 , −

e2 , ..., →

en ) est l’ensemble des combi-

→ −
→ −

naisons linéaires des e1 , e2 , ..., en i.e. :

{ ∑
n
}
V ect(−

e1 , −

e2 , ..., →

en ) = λi →

ei /λ1 , ..., λn ∈ K
i=1
.

11.2 Famille génératrice


Définition1 :

On dit qu’une famille F = →



e1 , →

e2 , ..., −

en ) = ( −

ei )1≤i≤n de vecteur de E est dit génératrice ssi vect(F) = E.

Proposition :

Une famille finie (− →


e1 , −

e2 , ..., −

en ) est génératrice de E ssi tout vecteur de E est combinaison linéaire des

→ →
− −

vecteurs ( e1 , e2 , ..., en ) i.e :

n
∀−
→x ∈ E, ∃(λ1 , ..., λn ) ∈ Kn tel que − →
x = λ1 −→e1 + ... + λn −

en = λi −

ei .
i=1

Proposition : (Principe de réduction de famille génératrice)

Si (−→e1 , −

e2 , ..., →

en , −−→) est une famille génératrice et −
en+1 −→ ∈ Vect(−
en+1 →
e1 , →

e2 , ..., −

en ) alors la sous famille

− −
→ −

( e1 , e2 , ..., en )est génératrice.

22
11.3 Famille libre, famille liée
Définition

Un vecteur →
−u est dit colinéaire à vecteur −

v ssi il existe α ∈ K tel que −

u = α− →
v.

→ −

Deux vecteurs u et v sont dits colinéaires ssi l’un des deux est colinéaire à l’autre.

Définition

On dit qu’une famille (−



e1 , −

e2 , ..., →

en ) = ( →

ei )1≤i≤n de vecteurs de E est libre ssi :


∀λ1 , λ2 , ..., λn ∈ K, e1 + ... + λn −
λ1 −
→ →
en = 0 ⇒ λ1 = λ2 = ... = λn = 0.

On dit que les vecteurs →−


e1 , →

e2 , ..., −

en sont linéairements indépendants.
On dit que la famille ( e1 , e2 , ..., en ) = (−

− −
→ −
→ →
ei )1≤i≤n est liée ssi elle n’est pas libre i.e. :


∃λ1 , λ2 , ..., λn ∈ K, λ1 −

e1 + ... + λn −

en = 0 et (λ1 , λ2 , ..., λn ) ̸= (0, 0, ..., 0).

Cettte égalité vectorielles est alors appelée relation linéaire sur les vecteurs −

e1 , −

e2 , ..., →

en .

Proposition :

Soit n ≥ 2 et (−

e1 , −

e2 , ..., −

en ) une famille de vecteurs de E.
On a équivalence entre :

1. (−

e1 , →

e2 , ..., −

en ) est liée,
2. l’un des vecteurs − 1

e ,→
2

e , ..., −
n

e est combinaison linéaire des autres.

Proposition : (Principe d’extension d’une famille libre)

Si (→

e1 , −

e2 , ..., −

en ) est une famille libre et −−→ ∈Vect(→
en+1 −
e1 , −

e2 , ..., −

en ) alors (→

e1 , −

e2 , ..., −

en , −−→) est libre.
en+1

11.4 Base d’un espace vectoriel


Définition

Soit B = (→
−ei )1≤i≤n = (−→
e1 , −

e2 , ..., −

en ) une famille de vecteurs de E.
On dit que B est une base ssi B est libre et génératrice.
Exemple
on pose −→
e1 = (1, 1, 1), −

e2 = (1, 1, 0), − →
e3 = (0, 1, 1) alors (−

e1 , −

e2 , −

e3 ) est une base.

11.5 Composantes dans une base


Théorème

Soit E un K−espace vectoriel et possédant une base B = (−



ei )1≤i≤n . On a :


n
∀−

x ∈ E, ∃!(λ1 , λ2 , ..., λn ) ∈ Kn tel que →

x = λi −

ei .
i=1

23
Définition

Avec les notations ci-dessus on dit que les scalaires λ1 , λ2 , ..., λn sont appelés composantes de →

x dans B.

Définition

Munir un K−espace vectoriel d’une base B, c’est signifier que les composantes des vecteurs sont désormais
lues dans B.

Définition

λ1
.

→ →
− →

Si E est muni d’une base B = ( ei )1≤i≤n , on note parfois x (λ1 , λ2 , ..., λn ) ou x . pour signifier que
.
λn


x est le vecteur de composantes λ1 , λ2 , ..., λn .

Proposition :

On suppose E muni d’une base B = (−



ei )1≤i≤n .

x1 y1 x1 + y1 αx1
. . . .
Si −

x . et −

y . alors (−→
x + −

y ) . et ∀α ∈ K, (α−

x)= .
. . . .
xn yn x n + yn αxn

11.6 Théorème de complétion de la base


Théorème :(de la base incomplète)

Soit E un K−espace vectoriel de dimension finie, L une famille libre G une famille génératrice. On peut
former une base de E en complétant la famille libre L par des vecteurs bien choisis dans la famille G.

12 Dimension d’ un esace vectoriel


12.1 Espace vectoriel de dimension finie
Définition :

Un K−espace vectoriel E est dit de dimension finie ssi il possède une famille génératrice finie. Sinon, il
est dit de dimension infinie.

24
Théorème :

Tout K−espace vectoriel de dimension finie possède au moins une base.

Proposition

Dans un K−espace vectoriel de dimension finie :


– toute famille libre peut être complétée en une base,
– de toute famille génératrice on peut extraire une base.

12.2 Dimension
Théorème :

SoitE un K-espace vectoriel de dimension finie.


Une famille libre de vecteurs de E ne peut avoir plus (au sens strict) de vecteurs qu’une famille génératrice.
Corollaire

Les bases d’un K-espace vectoriel E de dimension finie sont toute constituées de même nombre de vecteurs.

Définition :

Soit E un K-espace vectoriel de dimension finie.


On appelle dimension de E le nombre des vecteurs costituant les bases de E. On le note dimE ou dimK E.

Convention :

Si E n’est pas de dimension finie, on pose dimE = +∞.

Proposition :

Soit E et F deux K-espaces vectoriels de dimensions finies.


E × F est de dimension finie et dimE × F = dimE + dimF .

Proposition :

Soit E un K-espace vectoriel de dimension finie.


En est un K-espace vectoriel de dimension finie et dimE n = n × dimE.

12.3 Construction de bases en dimension connue


Proposition :

Soit E un K-espace vectoriel de dimension n ∈ N.


1. Toute famille libre a au plus n éléments.

25
2. Toute famille génératrice a au moins n éléments.
3. Toute base a exactement n éléments.
Théorème :

Soit E un K-espace vectoriel de dimension n ∈ N et B = (−



ei )1≤i≤n = (−

e1 , →

e2 , ..., −

en ) une famille formée
de n = dimE vecteurs de E.
On a l’équivalence entre :
1. B est une base,
2. B est une famille libre,
3. B est une famille génératrice.

13 Sous-espace vectoriel de dimension finie


13.1 Dimension d’un sous espace vectoriel d’un espace de dimension finie
Théorème :

Soit E un K-espace vectoriel de dimension finie.


Tout sous espace vectoriel F de E est de dimension fine et dimF ≤ dimE.
De plus si dimF = dimE alors F = E.
En particulier :


– Si dimF = 0 alors F = { 0 }.
– Si dimF = 1 alors on dit que F est une droite vectorielle.
– Pour tout − →
u ∈ F tel que −
→u ̸= 0, on a F =Vect(−

u ).


– On dit que u est un vecteur directeur de F .
– Si dimF = 2 alors on dit que F est un plan vectoriel.
– Pour tout − →
u,−→
v ∈ F non colinéaires, on a F =Vect(− →
u,−→
v ).

→ −

– On dit que u , v sont des vecteurs directeurs de F .
– Si dimF = dimE − 1 alors on dit que F est un hyperplan vectoriel de E.

13.2 Sous-espace vectoriel supplémentaires en dimension finie


Théorème :

Soit F et G deux sous-espaces vectoriels supplémentaires d’un K-espace vectoriel de dimension finie E.
On a dimE = dimF + dimG.

Définition :

Toute base de E obtenue en concaténant une base de F et une base de G est dite adaptée à la supplémentarité
de F et G .

26
Théorème :

Soit E un K-espace vectoriel de dimension finie.


Tout sous-espace vectoriel F de E possède au moins un supplémentaire.

Définition :
Une telle base est dite adaptée à F .

13.3 Théorème des quatres dimensions


Théorème :

Si F et G sont deux sous-espaces vectoriels de dimension finie d’un K-espace vectoriel E alors F + G et
F ∩ G sont de dimensions finies et dim(E + G) = dimF + dimG − dim(F ∩ G).

13.4 Exploitation de la dimension


Théorème :

Soit F et G deux sous-espaces vectoriels de dimensions finies d’un K-espace vectoriel E.


Si F ⊂ G et dimF = dimG alors F = G.

Théorème :

Soit F et G deux sous-espaces vectoriels d’un K-espace vectoriel E de dimension finie. On suppose que
dimF + dimG = dimE.
On a équivalence entre :
– F et G sont supplémentaires dans E ,
– F + G = E,


– F ∩ G = { 0 }.

13.5 Obtention d’une base d’un sous-espace vectoriel


a) Sous-espace vectoriel engendré par une famille de vecteurs
Soit F = (− →
ei )1≤i≤n une famille de vecteurs d’un K-espace vectoriel E.
On désire déterminer une base de F = Vect(→ −
e1 , −

e2 , ..., −

en ).
F une famille génératrice de F , on peut donc en extraire une base de la manière suivante :
Si F est libre alors F est une base.
Sinon, l’un des vecteurs de F est combinaison linéaire des autres, on peut alors retirer celui-ci de la famille
sans perdre le caractère générateur.
Si besoin, on reprend ce processus jusqu’à obtention d’une famille libre donc d’une base de F .
b) Sous-espace vectoriel défini par équations
On détermine une base d’un tel sous-espace vectoriel en résolvant les équations de sorte d’exprimer une
famille génératrice.

27
c) détermination d’un supplémentaire d’un sous-espace vectoriel
Si F est un sous-espace vectoriel non trivial d’un K -espace vectoriel E de dimension finie, on peut déter-
miner un supplémentaire de F en complétant une base de F en une base de E car on sait que les vecteurs
complétant génèrent un supplémentaire de F dans E.

13.6 Rang d’une famille de vecteurs


Soit F = (−

ei )1≤i≤n une famille de vecteurs d’un K-espace vectoriel E.

Définition :

On appelle rang de la famille F la dimension du sous-espace vectoriel engendré par F. On le note rg(F)
ou rg(−
→e1 , −

e2 , ..., →

ep ).
Ainsi rg(F) = rg(→ −e1 , −

e2 , ..., −

ep ) = dimV ect(−
→e1 , −

e2 , ..., −

ep ).
Exemple
on pose →−
e1 = (1, 1, 0, 1), − →
e2 = (1, −1, 1, 0), −
→e3 = (2, 0, 1, 1), − →
e4 = (0, 2, −1, 1) on a −

e3 = −

e1 + −

e2 , −

e4 =

→ →
− →
− −
→ −
→ −
→ →
− →
− −
→ −
→ →
− −

e1 − e2 donc V ect( e1 , e2 , e3 , e4 ) = V ect( e1 , e2 ) alors rg( e1 , e2 , e3 , e4 ) = 4.

Proposition

On a rg(−

e1 , −

e2 , ..., →

ep ) ≤ p, dimE.

Théorème :

– F est libre ⇔ rg(F) = p,


– F est génératrice ⇔ rg(F) = dimE,
– F est une base ⇔ rg(F) = dimE = p.

14 Applications linéaires en dimension finie


E , F et G désignent des K -espaces vectoriels de dimensions finies.

14.1 Image d’une famille de vecteurs


Soit f ∈ L(E, F ) et B = (→

ei )1≤i≤n une famille de vecteurs de E.

Définition :

On appelle image de la famille B par f , la famille f (B) = f (−



ei ))1≤i≤n .
Proposition

f (V ect(B)) = V ect(f (B)) i.e. : f (V ect(→



e1 , −

e2 , ..., −

en )) = V ect(f (−

e1 ), f (→

e2 ), ..., f (−

en )).
Théorème :

– Si B est libre et f injective alors f (B) est libre.


– Si B est génératrice et f est surjective alors f (B) est génératrice.

28
– Si B est une base et f est isomorphisme alors f (B) est une base.
Corollaire

Si V est un sous-espace vectoriel de E alors dimf (V ) ≤ dimV avec égalité lorsque f est injective.

Corollaire

Si E et F sont deux K-espaces vectoriels de dimension finie ou non alors :


– Si f est injective alors dimE ≤ dimF .
– Si f est surjective alors dimF ≤ dimE.
– Si f est un isomorphisme alors dimE = dimF .

14.2 Rang d’une application linéaire


Définition :

On appelle rang de f ∈ L(E, F ) la dimension de l’image de f .


On note rg(f ) = dimImf .

Exemples :
Soit f : R3 −→ R3 définie par : f (x,y, z) = (y − z, z − x, x − y) . Soit (y1 , y2 , y3 ) ∈ Imf alors ∃(x, y, z)R3

 y1 = y − z
telque f (x, y, z) = (y1 , y2 , y3 ) =⇒ y2 = z − x =⇒ y2 = −y1 − y3


y3 = x − y
=⇒ Imf = {(y1 , −y1 − y3 , y3 )/y1 , y3 ∈ R} =⇒ rg(f ) = dimImf = 2.
Proposition

Soit f ∈ L(E, F ). On note rg(f ) ≤ min(n, p).

Théorème :

Soit f ∈ L(E, F ) et Soit g ∈ L(F, G). On note rg(g ◦ f ) ≤ min(rg(f ), rg(g)).


De plus :
– Si g est injective alors rg(g ◦ f ) = rg(f ).
– Si f est surjective alors rg(g ◦ f ) = rg(g).

14.3 Théorème du rang


Théorème :

Soit f ∈ L(E, F ).
1. f réalise un isomorphisme de tout supplémentaire de kerf dans E vers Imf .
2. rg(f ) + dimKer(f ) = dimE.

29
14.4 Théorème d’isomorphisme
Proposition

Soit f ∈ L(E, F ).
⋆ f est injective ⇔ rg(f ) = dimE,
⋆ f est surjective ⇔ rg(f ) = dimF ,
⋆ f est isomorphisme ⇔ rg(f ) = dimE = dimF.

Théorème : (d’isomorphisme)

Soient E et F deux K-espaces vectoriels de dimensions finies tels que : dimE = dimF = n.
Soit f ∈ L(E, F ). On a équivalence entre :
1. f est un isomorphisme,
2. f est injective,
3. f est surjective,
4. rg(f ) = n,
5. ∃g ∈ L(F, E), g ◦ f = IdE ,
6. ∃h ∈ L(F, E), f ◦ h = IdF .
De plus si tel est le cas : g = h = f −1 .

14.5 Bases et applications linéaires


Théorème :

Soit E un K-espace vectoriel muni d’une base B = (−



e1 , →

e2 , ..., −

ep ).

Soit F un K-espace vectoriel et F = (− →


y1 , −

y2 , ..., −

yp ) une famille de vecteurs de F .
Il existe une unique application linéaire f ∈ L(E, F ) telle que f (B) = F i.e. ∀1 ≤ i ≤ p, f (→

ei ) = −

yi .
Théorème :

Soit E un K-espace vectoriel muni d’une base B = (−



e1 , →

e2 , ..., −

ep ).

Soit F un K-espace vectoriel de dimension finie et f ∈ L(E, F ).

On a rg(f ) = rg(f (B)) = rg(f (−



e1 ), f (→

e2 ), ..., f (−

ep )).

Corollaire
⋆ f est injective ⇔ rg(f ) = dimE ⇔ f (B) est libre.

⋆ f est surjective ⇔ rg(f ) = dimF ⇔ f (B) est génératrice.

⋆ f est bijective ⇔ f (B) est une base de F .

30
Corollaire

Soient E et F deux K-espaces vectoriels de dimensions finies sont isomorphes ssi ils ont même dimension.

14.6 Equation d’un hyperplan


Supposons que n = dimE ∈ N∗

Proposition

Le noyau d’une forme linéaire non nulle est un hyperplan.

Proposition

Tout hyperplan peut se voir comme noyau d’une forme linéaire non nulle.
On suppose que E muni d’une base B = (→ −
e1 , −

e2 , ..., −

ep ).


Pour tout x ∈ E, notons x1 , ..., xn ses composantes dans B.

Théorème :

Les hyperplans de E sont les ensembles H constitués des − →


x ∈ E vérifiant une relation du type
a1 x1 + ... + an xn = 0 avec (a1 , ...., an ) ∈ K \{(0, ...., 0)}.
n

Définition

L’équation a1 x1 + ... + an xn = 0 est alors appelée équation de l’hyperplan H relative à la base B.

31
Calcul matriciel
K désigne R ou{C, m, n, p, q, r sont des entiers naturels.
0 si i ̸= j
On note δi,j = (symbole de Kronecker).
1 si i = j

15 Opérations sur les matrices


15.1 Matrices
Déf : On appelle matrice de type (n, p) (pour n lignes et p colonnes) à coefficients dans K tout famille
A = (ai,j )1≤i≤n,1≤j≤p d’éléments de K.
Une telle matrice est généralement
 représentée sous laforme d’un tableau à n lignes et p colonnes :
a1,1 a1,2 · · · a1,p
 
 a2,1 a2,2 · · · a2,p 

A = (ai,j )1≤i≤n,1≤j≤p =  . .. 
.. .
 .. . . 
an,1 an,2 · · · an,p

ai,j est appelé coefficient d’indice (i, j) de la matrice A, il est positionné à la i ème ligne et j ème colonne
de A. On note Mn,p (K) l’ensemble des matrices de type (n, p) à coefficients dans K.

Convention :
Le 1er indice est l’indice de ligne (souvent noté i).
Le 2nd indice est l’indice de colonne (souvent noté j).

Cas particuliers :
Pour n = p = 1 : les matrices de M1,1 (K) sont appelées matrices (uni-)coefficient. Elles sont de la forme (x).
Il est usuel d’identifier ces matrices avec l’élément x de K qui leur correspond.
Pour n quelconque et p = 1 :
Les matrices de Mn,1 (K)  sont 
appelées matrices (uni-)colonnes.
a1
 . 
Elles sont de la forme :  . 
 . .
an
Il est usuel d’identifier cette matrice colonne avec le n uplet (a1 , . . . , an ).
Pour n = 1 et p quelconque : les matrices de M1,p (K) sont appelées matrices (uni-)lignes.
Elles sont de la forme : ( a1 · · · ap ).

Déf : Soit A = (ai,j ) ∈ Mn,p (K) (présentation de l’abus de notation correspondant).


 
a1,1 a1,2 · · · a1,p
 
 a2,1 a2,2 · · · a2,p 
A= . .. 
. .. .
 . . . 
an,1 an,2 · · · an,p
 
a1,j
 . 
Pour 1 ≤ j ≤ p, la matrice Cj =  . 
 .  est appelée j
ème colonne de A.

an,j

32
Pour 1 ≤ i ≤ n, la matrice Li = ( ai,1 · · · ai,p ) est appelée i ème ligne de A.

15.2 Matrice carrée


Déf : Les matrices de type (n, n) sont appelées matrices carrées d’ordre n.
On note Mn (K), au lieu de Mn,n (K), l’ensemble de ces matrices.

Déf : Soit A = (ai,j ) ∈ Mn (K). Les coefficients d’indice (i, i) de A sont appelées coefficients diagonaux de
A. La famille (a1,1 , a2,2 , . . . , an,n ) = (ai,i )1≤i≤n est appelée diagonale de la matrice A.

Déf : Une matrice A ∈ Mn (K) est dite diagonale ssi tous ses coefficients hors de la diagonale sont nuls.
On note Dn (K) l’ensemble de ces matrices.
 
λ1 0
 
Déf : On note diag(λ1 , . . . , λn ) la matrice diagonale dont la diagonale est (λ1 , . . . , λn ) i.e. 

..
. .

0 λn

Déf : Une matrice A ∈ Mn (K) est dite triangulaire supérieure (resp. inférieure) ssi tous les coefficients en
dessous (resp. au dessus) de la diagonale sont nuls.
On note Tn+ (K) (resp. Tn− (K)) l’ensemble de ces matrices.

Proposition : Dn (K) = Tn+ (K) ∩ Tn− (K).

15.3 Espace vectoriel (Mn,p (K), +, .).


Déf : Soit A = (ai,j ) ∈ Mn,p (K) et B = (bi,j ) ∈ Mn,p (K).
On définit la matrice A + B ∈ Mn,p (K) par A + B = (ai,j + bi,j )1≤i≤n,1≤j≤p .
     
a1,1 · · · a1,p b1,1 · · · b1,p a1,1 + b1,1 · · · a1,p + b1,p
 . ..   . ..   
Ainsi  .   . .   .
. .. ..
 . + . = . . 
an,1 · · · an,p bn,1 · · · bn,p an,1 + bn,1 · · · an,p + bn,p

Déf : Soit A = (ai,j ) ∈ Mn,p (K) et λ ∈ K.


On définit la matrice λ.A ∈ Mn,p (K) par λ.A = (λai,j )1≤i≤n,1≤j≤p .
   
a1,1 · · · a1,p λa1,1 · · · λa1,p
 . ..   . .. 
Ainsi λ. 
 .
. .   .
= . . .
an,1 · · · an,p λan,1 · · · λan,p

Théorème : (Mn,p (K), +, .) est un K-espace vectoriel d’élément nul O = On,p .

Déf : Soit 1 ≤ k ≤ n et 1 ≤ l ≤ p. On appelle matrice élémentaire d’indice (k, l) de Mn,p (K) la matrice Ek,l
dont tous les coefficients sont nuls sauf celui d’indice (k, l) qui est égal à 1. Ainsi
 
0 0
 
Ek,l =  1  ∈ Mn,p (K).
0 0

33
Théorème :
La famille B = (Ek,l )1≤k≤n,1≤l≤p forme une base de Mn,p (K) appelée base canonique.

Corollaire : dimMn,p (K) = np et en particulier


dimMn (K) = n2 , dimMn,1 (K) = n et dimM1,p (K) = p.

Proposition : Dn (K) est un sous-espace vectoriel de Mn (K) de dimension n.

Proposition : Tn+ (K) et Tn− (K) sont des sous-espaces vectoriels de Mn (K) de dimension n(n+1)
2 .

15.4 Produit matriciel


Définition : Soit A = (ai,j ) ∈ Mn,p (K) et B = (bj,k ) ∈ Mp,q (K). On définit la matrice C = A × B =
(ci,k ) ∈ Mn,q (K)

p
par : ∀1 ≤ i ≤ n, ∀1 ≤ k ≤ q, ci,k = ai,j bj,k .
j=1

15.5 Propriétés du produit matriciel


Proposition : Soit A ∈ Mn,p (K), B ∈ Mp,q (K), C ∈ Mq,r (K).
On a (AB)C = A(BC).

Proposition : ∀A ∈ Mn,p (K), AIp = A et In A = A.

Proposition : ∀A, B ∈ Mn,p (K), ∀C ∈ Mp,q (K) (A + B)C = AC + BC.


∀A ∈ Mn,p (K), ∀B, C ∈ Mp,q (K) A(B + C) = AB + AC.

Proposition : ∀A ∈ Mn,p (K), ∀B ∈ Mp,q (K), ∀λ ∈ K, (λ.A)B = λ.AB = A(λ.B).

15.6 L’anneau (Mn (K), +, ×).


15.6.1 présentation

Théorème :
(Mn (K), +, ×) est un anneau, généralement non commutatif, d’élément nul O = On et d’élément unité I = In .
De plus, ∀λ ∈ K, ∀A, B ∈ Mn (K) : (λ.A)B = λ.(AB) = A(λ.B).

Définition : On dit que deux matrices A et B de Mn (K) commutent ssi AB = BA.

Définition : Soit A ∈ Mn (K). On note A0 = In , A1 = A, A2 = A × A, . . . , Am = A × A × . . . × A (m


termes)
Exemple :
( ) ( ) ( )
1 1 a b 1 2 n−1
Soit A = et B = il est facile de montrer par recurence que An = et
0 2 0 a 0 2n
( )
an nan−1 b
Bn =
0 an
Théorème :

34
Si A et B commutent alors pour tout m ∈ N :
m ( )
∑ ∑ k m−1−k
m−1
m k m−k et Am − B m = (A − B)
(AB)m = Am B m , (A + B)m = k A B A B .
k=0 k=0

Exemple :
 
1 1 1
 
Soit A =  0 1 1  et on pose B = A − I3 , calculer B n et en déduire An .
0 0 1
   
0 1 1 0 0 1
   
B =  0 0 1 , B 2 =  0 0 0 , B n = O3 ∀n ≥ 3.
0 0 0 0 0 0
An = (I3 + B)n = I3 + nB + n(n−1) 2 B2.
Définition : Soit A ∈ Mn (K).
On dit que A est idempotente ssi A2 = A.
On dit que A est une matrice nilpotente ssi ∃m ∈ N, Am = 0.

15.6.2 matrices inversibles

Définition : Une matrice A ∈ Mn (K) est dite inversible ssi ∃B ∈ Mn (K), AB = BA = In . On note alors
B = A−1 .
Exemple :
   
1 0 1 0 1 1
   
Soit A =  2 −1 1 , A−1 =  1 0 1 
−1 1 −1 1 −1 −1
Proposition : Soit A, B ∈ Mn (K)
Si A et B sont inversibles alors AB l’est aussi et (AB)−1 = B −1 A−1 .
Si A est inversible alors A−1 l’est aussi et (A−1 )−1 = A.

Définition : On note GLn (K) l’ensemble des matrices inversibles de Mn (K).

Proposition : (GLn (K), ×) est un groupe appelé groupe linéaire d’ordre n.

Théorème d’inversibilité :
Soit A ∈ Mn (K). On a équivalence entre
(i) A est inversible
(ii) A est inversible à droite i.e. ∃B ∈ Mn (K), AB = In
(iii) A est inversible à gauche i.e. ∃C ∈ Mn (K), CA = In .
De plus si tel est le cas A−1 = B = C.

15.6.3 matrices diagonales

Proposition : Dn (K) est un sous-anneau commutatif de Mn (K).


 
a1
 
Proposition : Soit A = 

..
.  ∈ Dn (K). On a équivalence entre :

an

35
(i) A est inversible.
(ii) ∀1 ≤ i ≤ n, ai ̸= 0.  
1
 a1

De plus si tel est le cas : A−1 = 

..
. .

1
an

15.6.4 matrices triangulaires

Proposition : Tn+ (K) est un sous-anneau de Mn (K).

Proposition : Soit A ∈ Tn+ (K). On a équivalence entre :


(i) A est inversible
(ii) Les coefficients diagonaux de A sont tous non nuls.
De plus, si tel est le cas, A−1 ∈ Tn+ (K)

15.7 Transposition
15.7.1 définition

Définition : Soit A = (ai,j ) ∈ Mn,p (K). On appelle matrice transposée de A la matrice t A = (aj,i ) ∈ Mp,n (K)

définie par ∀1 ≤ i ≤ n, 1 ≤ j ≤ p, aj,i = ai,j .
Ainsi le coefficient d’indice (j, i) de t A est égal au coefficient d’indice (i, j) de A.
   
a11 · · · a1p a11 · · · an1
 . ..   . .. 
Concrètement : Pour A = 
 .
. . 
t  .
, A =  . . 
.
an1 · · · anp a1p · · · anp

Proposition : ∀A ∈ Mn,p (K), t (t A) = A.


∀A, B ∈ Mn,p (K), ∀λ, µ ∈ K, t (λA + µB) = λt A + µt B.

Proposition : ∀A ∈ Mn,p (K), ∀B ∈ Mp,q (K), t (AB) =t B t A.

Proposition : Soit A ∈ Mn (K).


Si A est inversible alors t A l’est aussi et t (A−1 ) = (t A)−1 .

15.7.2 matrices symétriques et antisymétriques

Définition : On dit que A ∈ Mn (K) est symétrique (resp. antisymétrique) ssi


tA = A (resp. t A = −A).
On note Sn (K) (resp. An (K)) l’ensemble de ces matrices.
 
( ) −1 0 5
1 2  
Exemples : Soit A = ,B = 0 2 −1  A et B sont symétriques.
2 4
5 −1 0
 
( ) 0 4 2
0 1  
Soit C = , D =  −4 0 −5  C et D sont antisymétriques.
−1 0
−2 5 0

36
 
a11 a12 ··· a1n
 .. 
 a .. 
 12 a22 . . 
Proposition : Les matrices de Sn (K) sont de la forme : A =  . .
 .. .. .. 
 . an−1,n . 
a1n · · · an−1,n an,n
n(n+1)
Par suite Sn (K) est un sous-espace vectoriel de dimension 2 de Mn (K).
 
0 a12 ··· a1n
 .. 
 −a .. 
 12 0 . . 
Proposition : Les matrices de An (K) sont de la forme : A =  . .
 .. . .. .. 
 . an−1,n 
−a1n · · · −an−1,n 0

Théorème :
Sn (K) et An (K) sont deux sous-espaces vectoriels supplémentaires de Mn (K).

Proposition : Soit A ∈ Mn (K) inversible.


Si A ∈ Sn (K) alors A−1 ∈ Sn (K).
Si A ∈ An (K) alors A−1 ∈ An (K).

16 Représentation matricielle d’une application linéaire


16.1 Matrice d’une famille de vecteurs
Soit E un K-espace vectoriel muni d’une base B = (e1 , . . . , en ).
Pour tout x ∈ E, ∃!(α1 , . . . , αn ) ∈ Kn , x = α1 e1 + · · · + αn en .

Définition : On appelle matrice des composantes de x dans B


 
α1
 . 
la matrice colonne M atB (x) =  . 
 .  ∈ Mn,1 (K).
αn
x
 
.
Ainsi M atB (x) =  ..  composantes dans B.

Proposition : L’application x 7→ M atB (x) est un isomorphisme entre les K-espaces vectoriels E et Mn,1 (K).
Soit F = (x1 , x2 , . . . , xn ) une famille de vecteurs de E. Pour tout 1 ≤ j ≤ p, posons Cj = M atB (xj ).

Définition : On appelle matrice représentative de la famille F dans B la matrice A dont les colonnes sont les
C1 , C 2 , . . . , Cp .
On note A = M atB (F) = M atB (x1 , x2 , . . . , xp ) ∈ Mn,p (K).

x1 xp
 
 . .. 
Ainsi M atB (F) =  .. .  composantes dans B.

37
16.2 Matrice d’une application linéaire
Définition : Soit E et F des K-espaces vectoriels de dimension p et n et munis de bases B = (e1 , . . . , ep ) et
C = (f1 , . . . , fn ). Soit u ∈ L(E, F ), on appelle matrice représentative de u relativement aux bases B et C la
matrice :
M atB,C (u) = M atC (u(B)) = M atC (u(e1 ), . . . , u(ep )) ∈ Mn,p (K).

u(e1 ) u(ep )
 
 .. .. 
M atB,C (u) =  . .  composantes dans C.

Définition : Soit E un K-espace vectoriel de dimension n muni d’une base B = (e1 , . . . , en ).


Soit f ∈ L(E), en général on représente matriciellement f en choisissant la même base au départ et à l’arrivée.
La matrice carrée d’ordre n ainsi obtenue est notée M atB (f ) au lieu de M atB,B (f ).

16.3 Propriétés de la représentation matricielle


16.3.1 Isomorphisme

Théorème :
Soit E et F des K-espaces vectoriels munis de bases B = (e1 , . . . , ep ) et C = (f1 , . . . , fn ).
L’application M : L(E, F ) → Mn,p (K) définie par M (u) = M atB,C (u) est un isomorphisme de K-espace
vectoriel.

Corollaire : Soit E et F deux K-espaces vectoriels de dimensions finies.


L(E, F ) est un K-espace vectoriel de dimension finie et dimL(E, F ) = dimE × dimF .
En particulier : dimL(E) = dimE 2 et dim(E ∗ ) = dimE.

Corollaire : Lorsque deux K-espaces vectoriels E et F sont munis de bases B et C, il est équivalent de se
donner u ∈ L(E, F ) ou de se donner A = M atB,C (u) ∈ Mn,p (K).

Définition : Pour E = Kp et B base canonique de Kp .


Pour F = Kn et C base canonique de Kn .
L’application M : L(Kp , Kn ) → Mn,p (K) est appelée isomorphisme canonique entre L(Kp , Kn ) et Mn,p (K).
Pour u ∈ L(Kp , Kn ), A = M (u) ∈ Mn,p (K) est appelée matrice canoniquement associée à u.
Pour A ∈ Mn,p (K), u = M −1 (A) ∈ L(Kp , Kn ) est appelée application linéaire canoniquement associée à A.

16.3.2 Image d’un vecteur

Théorème :
Soit E et F des K-espaces vectoriels munis de bases B = (e1 , . . . , ep ) et C = (f1 , . . . , fn ).
Soit u ∈ L(E, F ), x ∈ E et y ∈ F .
Notons A = M atB,C (u), X = M atB (x) et Y = M atC (y).
On a : y = u(x) ⇔ Y = AX.
Ainsi : M atC (u(x)) = M atB,C (u) × M atB (x).
En Particulier : Les formes linéaires.

38
Si F = K muni de sa base canonique (1) et f ∈ E ∗ alors la matrice de f est une matrice ligne L est y =
f (x) ⇔ y = LX.

16.3.3 Composition d’applications linéaires

Théorème :
Soit E, F , G trois K-espaces vectoriels munis de bases B = (e1 , . . . , ep ), C = (f1 , . . . , fn ), D = (g1 , . . . , gm ).
Pour u ∈ L(E, F ) et v ∈ L(F, G) on a :
M atB,D (v ◦ u) = M atC,D (v) × M atB,C (u).

Corollaire : Soit E un K-espace vectoriel muni d’une base B = (e1 , . . . , en ).


Soit f, g ∈ L(E) et A = M atB (f ), B = M atB (g) ∈ Mn (K).
On a M atB (f ◦ g) = AB et ∀m ∈ N, M atB (f m ) = Am .

16.3.4 Représentation d’un isomorphisme

Théorème :
Soit E et F deux K-espaces vectoriels de même dimension n munis de bases B = (e1 , . . . , en ) et C =
(e1 , . . . , en ). Soit u ∈ L(E, F ) et A = M atB,C (u)
On a équivalence entre :
(i) u est un isomorphisme
(ii) A est inversible.
De plus si tel est le cas M atC,B (u−1 ) = A−1 .
En Particulier : (Les automorphismes)
Soit E un K-espace vectoriel muni d’une base B = (e1 , . . . , en ). Soit f ∈ L(E) et A = M atB (f ).
f ∈ GL(E) ⇔ A ∈ GLn (K)
De plus, si tel est le cas : M atB (f −1 ) = A−1 .

16.4 Représentation d’un endomorphisme dans une base adaptée


Soit E un K-espace vectoriel de dimension n.

Proposition : Soit λ ∈ K et hλ : E → E l’homothétie vectorielle de rapport λ.


 
λ 0
 
Dans toute base B = (e1 , . . . , en ) : M atB (hλ ) = 

..
. .

0 λ

Proposition : Soit F et G deux sous-espaces vectoriels supplémentaires de dimensions respectives r et n − r.


Notons p la projection vectorielle sur F parallèlement à G et s la symétrie vectorielle par rapport à F et paral-
lèlement à G. Dans toute base B adaptée à la supplémentarité de F et G :
( ) ( )
Ir 0 Ir 0
M atB (p) = et M atB (s) = .
0 0n−r 0 −In−r

39
16.5 Formules de changement de bases.
16.5.1 Matrice de passage

Soit E un K-espace vectoriel de dimension n muni de deux bases B = (e1 , . . . , en ) et B = (ε1 , . . . , εn ).


Définition : On appelle matrice de passage de B à B la matrice

P = M atB (B ) = M atB (ε1 , . . . , εn ).


Proposition : Soit P la matrice de passage de B à B . On a P = M atB′ ,B (IdE ).


Proposition : Soit P la matrice de passage de B à B .

P est inversible et P −1 est la matrice de passage de B à B.

16.5.2 Nouvelles composantes d’un vecteur



Proposition : Soit B et B deux bases d’un K-espace vectoriel E de dimension n.
′ ′
Soit x ∈ E, notons X et X ses matrices composantes dans B et B .
′ ′ ′
En notant P la matrice de passage de B à B , on a : X = P X et X = P −1 X,

i.e. : M atB (x) = M atB B M atB′ (x) et M atB′ (x) = M atB′ BM atB (x).

16.5.3 Nouvelle représentation d’une application linéaire



Proposition : Soit B et B deux bases d’un K-espace vectoriel E.

Soit C et C deux bases d’un K-espace vectoriel F .

Soit u ∈ L(E, F ). Posons A = M atB,C (u) et A = M atB′ ,C ′ (u).
′ ′
En notant P la matrice de passage de B à B et Q a matrice de passage de C à C on a :
′ ′ ′
A = Q−1 AP . Ainsi A = M atB′ ,C ′ (u) = M atC ′ C.M atB,C (u).M atB B .

16.5.4 Nouvelle représentation d’un endomorphisme

Théorème :

Soit B et B deux bases d’un K-espace vectoriel E.

Soit f ∈ L(E). Posons A = M atB (f ) et A = M atB′ (f ).
′ ′
En notant P = M atB B . On a : A = P −1 AP .
′ ′
Ainsi A = M atB′ (f ) = M atB′ B.M atB (f ).M atB B .

16.6 Traces
16.6.1 Trace d’une matrice carrée

Définition : Soit A = (ai,j ) ∈ Mn (K).



n
On appelle trace de la matrice A le scalaire tr(A) = ai,i .
i=1

Proposition : tr : Mn (K) → K est une forme linéaire.

Proposition : ∀A, B ∈ Mn (K), tr(AB) = tr(BA).

40
16.6.2 Trace d’un endomorphisme

Soit E un K-espace vectoriel de dimension n et f ∈ L(E).


′ ′ ′
Soit B et B deux bases de E. Notons P = M atB B , A = M atB (f ), A = M atB′ (f ).

La relation de passage permet d’écrire : A = P A P −1 . On a :
′ ′
tr(A) = tr(P −1 P A ) = tr(A ).
Par suite la trace de la matrice représentative de f est indépendante de la base choisie.

Définition : Cette quantité est appelée trace de l’endomorphisme f et est notée tr(f ).

Proposition : L’application tr : L(E) → K est une forme linéaire sur E.

Proposition : ∀f, g ∈ L(E), tr(f ◦ g) = tr(g ◦ f ).

17 Rang d’une matrice


17.1 Définition
Soit A = (ai,j ) ∈ Mn,p (K). Notons C1 , C2 , . . . , Cp les colonnes de A. Les Cj sont des vecteurs du K-
espace vectoriel Mn,1 (K), on peut donc considérer le rang de la famille de vecteurs (C1 , C2 , . . . , Cp ).

Définition : On appelle rang de la matrice A, noté rg(A), le rang de la famille des colonnes de A, ainsi
rg(A) = rg(C1 , C2 , . . . , Cp ).

Proposition : Soit F = (x1 , x2 , . . . , xp ) une famille de vecteurs de d’un K-espace vectoriel E muni d’une
base B.
En notant A = M atB (x1 , x2 , . . . , xp ), on a rg(x1 , x2 , . . . , xp ) = rg(A).

Proposition : Soit E, F deux K-espaces vectoriels munis de bases B et C et u ∈ L(E, F ).


En notant A = M atB,C (u), on a rg(u) = rg(A).

17.2 Propriétés du rang d’une matrice


Proposition : ∀A ∈ Mn,p (K), rg(A) ≤ min(n, p).

Proposition : ∀A ∈ Mn,p (K), ∀A ∈ Mp,q (K), rg(AB) ≤ min(rg(A), rg(B)).


De plus :
Si A est une matrice carrée inversible alors rg(AB) = rg(B)
Si B est une matrice carrée inversible alors rg(AB) = rg(A).

Théorème :
Soit A ∈ Mn (K). On a équivalence entre :
(i) A est inversible
(ii) rg(A) = n.

41
17.3 Caractérisation théorique du rang
Soit 0 ≤ r ≤ min(n, p).
 
1 0
 .. 
 . 0 

On note Jr la matrice de Mn,p (K) définie par Jr =  .

 0 1 
0 0

Proposition : rg(Jr ) = r.

Théorème :
Soit A ∈ Mn,p (K) et r ∈ N tel que 0 ≤ r ≤ min(n, p).
On a équivalence entre :
(i) rg(A) = r
(ii) ∃P ∈ GLp (K), ∃Q ∈ GLn (K) telles que A = QJr P .
Corollaire : ∀A ∈ Mn,p (K), rg(t A) = rgA.

42

Vous aimerez peut-être aussi