Résumé d’Algèbre II
Chapitres 2, 3 et 4
Basé sur les notes de M. Hamzah Bakhti
Mai 2025
Table des matières
1 Applications Linéaires (Chapitre 2) 2
1.1 Image de familles de vecteurs : Lien avec surjectivité, injectivité et bijectivité . . 2
1.2 Construction d’application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Rang d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.4 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.5 Cas des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.6 Endomorphismes particuliers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.6.1 Identité et homothéties . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.6.2 Endomorphisme nilpotent . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.6.3 Projection sur un sous-espace vectoriel . . . . . . . . . . . . . . . . . . . . 3
1.6.4 Symétrie par rapport à un sous-espace vectoriel . . . . . . . . . . . . . . . 4
1.7 Applications linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Matrices et Déterminants (Chapitre 3) 5
2.1 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1 Matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2.1 Addition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2.2 Multiplication par un scalaire (multiplication externe) . . . . . . . . . . . 5
2.2.3 Multiplication des matrices (multiplication interne) . . . . . . . . . . . . . 6
2.2.4 Puissance d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Matrice inversible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3.1 Calcul pratique de l’inverse . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Rang d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.5 Changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.6 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.6.1 Calcul pratique d’un déterminant . . . . . . . . . . . . . . . . . . . . . . . 8
2.6.2 Inverse d’une matrice via la comatrice . . . . . . . . . . . . . . . . . . . . 9
3 Systèmes Linéaires (Chapitre 4) 10
3.1 Définitions et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2 Systèmes de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3.2.1 Système de 2 équations à 2 inconnues . . . . . . . . . . . . . . . . . . . . 11
3.2.2 Système de n équations à n inconnues (Règle de Cramer) . . . . . . . . . 11
3.3 Méthode de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1
1 Applications Linéaires (Chapitre 2)
1.1 Image de familles de vecteurs : Lien avec surjectivité, injectivité et bi-
jectivité
Théorème 1.1. Soit K un corps, E, F deux K-espaces vectoriels et f : E → F une application
linéaire. Alors on a les équivalences suivantes :
1. f est injective ⇐⇒ l’image par f de toute famille libre de E est une famille libre de
F[cite : 170].
2. f est surjective ⇐⇒ l’image par f de toute famille génératrice de E est une famille
génératrice de F[cite : 171].
3. f est bijective ⇐⇒ l’image par f de toute base de E est une base de F[cite : 172].
1.2 Construction d’application linéaire
Théorème 1.2. Soient E un K-espace vectoriel de dimension n et B = (e1 , . . . , en ) une base de
E[cite : 182]. Soit F un K-espace vectoriel. Alors, pour toute famille (v1 , . . . , vn ) de vecteurs de
F, il existe une unique application linéaire f : E → F telle que f (ei ) = vi , ∀i ∈ {1, . . . , n}[cite :
183].
1.3 Rang d’une application linéaire
Définition 1.3. Soient E un K-espace vectoriel pas nécessairement de dimension finie et A une
partie de E. On appelle rang de la famille A, noté rg(A), la dimension (finie) de Vect(A)[cite :
185].
Définition 1.4. Soient E et F deux K-espaces vectoriels de dimension finie et f une application
linéaire de E → F . On appelle rang de f la dimension de Im(f )[cite : 186].
Théorème 1.5. Soit (e1 , . . . , en ) une base de E. Alors pour toute application linéaire f de
E → F on a : rg(f ) = rg(f (e1 ), . . . , f (en ))[cite : 187].
Théorème 1.6 (Lien avec surjectivité, injectivité et bijectivité). Soient E et F deux K-espaces
vectoriels de dimension finie et f une application linéaire de E → F . Alors on a les équivalences
suivantes :
1. f est injective ⇐⇒ rg(f ) = dim E[cite : 200].
2. f est surjective ⇐⇒ rg(f ) = dim F [cite : 200].
3. f est bijective ⇐⇒ rg(f ) = dim E = dim F [cite : 200].
1.4 Théorème du rang
Théorème 1.7. Soient E, F deux K-espaces vectoriels avec E de dimension finie. Soit f : E → F
une application linéaire. Alors, on a :
dim(E) = dim(Ker(f )) + rg(f )
[cite : 203]
1.5 Cas des endomorphismes
Corollaire 1.8. Soient E un K-espace vectoriel de dimension finie et f un endomorphisme de
E. Alors les affirmations suivantes sont équivalentes :
1. f est injective[cite : 211].
2
2. f est surjective[cite : 212].
3. dim(Ker(f )) = 0[cite : 212].
4. rg(f ) = dim(E)[cite : 212].
1.6 Endomorphismes particuliers
1.6.1 Identité et homothéties
Définition 1.9. Soient E un K-espace vectoriel quelconque.
(i) L’endomorphisme x 7→ x, noté Id ou IdE , est appelé l’identité de E[cite : 221].
(ii) Soit λ ∈ K. L’endomorphisme λ·IdE est appelé une homothétie de coefficient de dilatation
λ[cite : 221].
1.6.2 Endomorphisme nilpotent
Définition 1.10. Soit E un K-espace vectoriel et f un endomorphisme de E. On dit que f est
nilpotent si f n = 0 pour un certain n ∈ N∗ [cite : 223]. Le plus petit entier n pour laquelle cette
relation est vraie est appelé l’indice de nilpotence de f [cite : 224].
Exemple 1.11. Pour tout n ∈ N, l’endomorphisme f : P 7→ P ′ de Kn [X] est nilpotent d’indice
n + 1[cite : 225, 227]. Pour tout P ∈ Kn [X] : P (n+1) = 0, donc f n+1 = 0[cite : 226]. L’égalité
(X n )(n) = n! montre cependant que f n ̸= 0, donc f est d’indice (exactement) n + 1[cite : 227].
1.6.3 Projection sur un sous-espace vectoriel
Définition 1.12. Soient E un K-espace vectoriel quelconque, F un sous-espace vectoriel de E et
G un supplémentaire de F dans E.
(i) On appelle projection sur F parallèlement à G, (ou de direction G), l’application pF définie
par
pF : E = F ⊕ G −→ E
x = x1 + x2 7−→ pF (x) = x1
[cite : 229]
(ii) On appelle projecteur de E, tout endomorphisme u de E, vérifiant u2 = u ◦ u = u[cite :
229].
Remarque 1.13. Soit pF la projection sur F parallèlement à G, alors
(i) pF est un endomorphisme de E[cite : 231].
(ii) Im(pF ) = F et Ker(pF ) = G[cite : 231].
(iii) pF ◦ pF = pF , donc pF est un projecteur de E[cite : 231].
Théorème 1.14. Soient E un K-espace vectoriel et u un projecteur de E, alors on a :
(i) E = Im(u) ⊕ Ker(u)[cite : 235].
(ii) ∀x ∈ E, x ∈ Im(u) ⇐⇒ u(x) = x[cite : 236].
(iii) Si on pose F = Im(u) et G = Ker(u), alors u est la projection sur F parallèlement à
G[cite : 236].
3
1.6.4 Symétrie par rapport à un sous-espace vectoriel
Définition 1.15. Soient E un K-espace vectoriel quelconque, F un sous-espace vectoriel de E et
G un supplémentaire de F dans E.
(i) On appelle symétrie par rapport à F parallèlement à G, (ou de direction G), l’application
sF définie par
sF : E = F ⊕ G −→ E
x = x1 + x2 7−→ sF (x) = x1 − x2
[cite : 238]
(ii) On appelle symétrie vectorielle, tout endomorphisme u de E, vérifiant u2 = u ◦ u =
IdE [cite : 238].
Remarque 1.16. 1. Soit pF la projection sur F parallèlement à G, alors sF = 2pF −
IdE [cite : 240].
2. Soit sF la symétrie par rapport à F parallèlement à G, alors :
(i) sF est un endomorphisme de E[cite : 241].
(ii) Ker(sF − IdE ) = F et Ker(sF + IdE ) = G[cite : 241].
(iii) s2F = IdE donc sF est une symétrie vectorielle de E[cite : 241].
Théorème 1.17. Soient E un K-espace vectoriel et u une symétrie vectorielle de E, alors on
a:
(i) E = Ker(u − IdE ) ⊕ Ker(u + IdE )[cite : 243].
(ii) Si on pose F = Ker(u − IdE ) et G = Ker(u + IdE ), alors u est la symétrie par rapport à
F parallèlement à G[cite : 244].
1.7 Applications linéaires et hyperplans
Définition 1.18. Un hyperplan de E est un sous-espace vectoriel H de E de dimension dim(E)−
1[cite : 246].
Exemple 1.19. — Un hyperplan de R2 est un sous-espace vectoriel de R2 de dimension 1,
en d’autres termes une droite vectorielle Vect(a) avec a ̸= 0E [cite : 247].
— Un hyperplan de R3 est un sous-espace vectoriel de R3 de dimension 2. En d’autres termes,
il s’agit d’un plan vectoriel Vect(a, b) avec a, b des vecteurs non colinéaires[cite : 248].
Proposition 1.20 (Propriété). Soit H un hyperplan de E, et a ∈
/ H. Alors : E = H ⊕
Vect(a)[cite : 249].
Théorème 1.21. Soit H un sous-espace vectoriel d’un espace vectoriel E de dimension finie.
1. H est un hyperplan si, et seulement si, c’est le noyau d’une application linéaire non
nulle[cite : 252].
2. Si H = Ker(φ) = Ker(ψ), alors il existe λ ∈ K∗ tel que φ = λψ[cite : 253].
Remarque 1.22. Ainsi un hyperplan H est défini par une équation linéaire φ(x) = 0 avec
φ ∈ L(E, K) telle que H = Ker(φ)[cite : 253]. Cette équation est de plus unique (à un scalaire
multiplicatif non nul près)[cite : 254].
4
2 Matrices et Déterminants (Chapitre 3)
2.1 Matrices
Définition 2.1. Soit K un corps commutatif. Une matrice à coefficients dans K est une suite
double finie (aij )1≤i≤m,1≤j≤n d’éléments de K[cite : 7]. Une matrice A = (aij )1≤i≤m,1≤j≤n est
représentée comme suit :
a11 a12 . . . a1n
a21 a22 . . . a2n
A= .
.. .. ..
.. . . .
am1 am2 . . . amn
Si m = n, on dit que A est une matrice carrée d’ordre n[cite : 7]. Les éléments a11 , a22 , . . . , ann
forment la diagonale principale[cite : 8].
Remarque 2.2 (Notation). On désigne par Mm,n (K) l’ensemble de toutes les (m, n)-matrices
à coefficients dans K et par Mn (K) l’ensemble des matrices carrées d’ordre n à coefficients dans
K[cite : 10, 35]. (Le document utilise aussi Km,n (K) [cite : 10] et Hm,n (K) [cite : 28]).
2.1.1 Matrices particulières
— Matrice ligne (m = 1) : A = a11 a12 . . . a1n (vecteur ligne)[cite : 13, 14].
a11
a21
— Matrice colonne (n = 1) : A = . (vecteur colonne)[cite : 13, 15].
.
.
am1
— Matrice nulle : matrice dont tous les coefficients sont nuls, notée 0mn ou 0[cite : 16].
— Matrice identité (In ) : matrice carrée d’ordre n avec des 1 sur la diagonale principale
et des 0 ailleurs[cite : 16].
1 0 ... 0
0 1 . . . 0
In = . . .
.. .. . . ...
0 0 ... 1
— Matrice triangulaire inférieure : aij = 0 si i < j[cite : 19].
— Matrice triangulaire supérieure : aij = 0 si i > j[cite : 21].
— Matrice diagonale : aij = 0 si i ̸= j. C’est une matrice à la fois triangulaire inférieure
et supérieure[cite : 23, 24]. (Le document source [cite : 24] a une coquille "all = 0", cela
devrait être aij = 0 pour i ̸= j).
2.2 Opérations sur les matrices
2.2.1 Addition
Définition 2.3. Pour A = (aij ), B = (bij ) ∈ Mm,n (K), on définit A + B = (aij + bij )[cite : 28].
L’addition n’est définie que pour les matrices de mêmes dimensions.
2.2.2 Multiplication par un scalaire (multiplication externe)
Définition 2.4. Pour A = (aij ) ∈ Mm,n (K) et λ ∈ K, on définit λ · A = (λaij )[cite : 30]. La
matrice (−1)A est l’opposée de A, notée −A. La différence A − B est définie par A + (−B)[cite :
30].
Proposition 2.5. Soient A, B et C trois matrices appartenant à Mm,n (K). Soient α, β ∈ K
deux scalaires. Alors[cite : 33] :
5
1. A + B = B + A (commutativité).
2. A + (B + C) = (A + B) + C (associativité).
3. A + 0 = A (élément neutre).
4. (α + β)A = αA + βA.
5. α(A + B) = αA + αB.
L’ensemble Mm,n (K) muni de l’addition et de la multiplication par un scalaire est un K-espace
vectoriel[cite : 35].
2.2.3 Multiplication des matrices (multiplication interne)
Définition 2.6. Pour A = (aij ) ∈ MP m,n (K) et B = (bjk ) ∈ Mn,p (K), on définit le produit
AB = C = (cik ) ∈ Mm,p (K) par cik = nj=1 aij bjk [cite : 40]. Le produit AB n’est défini que si
le nombre de colonnes de A est égal au nombre de lignes de B[cite : 40].
Remarque 2.7. — La multiplication de matrices n’est pas commutative en général : AB ̸=
BA[cite : 44].
— AB = 0 n’implique pas A = 0 ou B = 0[cite : 46].
— AB = AC avec A ̸= 0 n’implique pas B = C[cite : 47].
Proposition 2.8. La multiplication de matrices vérifie les propriétés suivantes[cite : 49] :
1. A(BC) = (AB)C (associativité).
2. A(B + C) = AB + AC et (B + C)A = BA + CA (distributivité).
3. A · 0 = 0 et 0 · A = 0.
Si A est une matrice m × n, alors Im A = A et AIn = A[cite : 50].
2.2.4 Puissance d’une matrice carrée
Définition 2.9. Pour A ∈ Mn (K), on définit A0 = In et Ap+1 = Ap · A pour p ∈ N[cite : 52].
Une matrice A est dite nilpotente s’il existe k ∈ N tel que Ak = 0[cite : 52].
Proposition 2.10 (Formule du binôme de Newton). Soient A et B deux matrices de Mn (K)
qui commutent (AB = BA). Alors, pour tout entier p ≥ 0 :
p
p
X p
(A + B) = Ap−k B k
k
k=0
[cite : 53].
2.3 Matrice inversible
Définition 2.11. Soit A ∈ Mn (K). On dit que A est inversible s’il existe B ∈ Mn (K) telle que
AB = In et BA = In . On appelle B l’inverse de A et on la note A−1 [cite : 64]. L’ensemble
GLn (K) des matrices inversibles de Mn (K) muni de la multiplication est un groupe[cite : 65].
Si A est inversible, son inverse est unique[cite : 66].
2.3.1 Calcul pratique de l’inverse
Les opérations élémentaires sur les lignes (ou colonnes) d’une matrice A ∈ Mn,p (K) sont[cite :
69] :
1. Permuter deux lignes : Li ↔ Lj (resp. Ci ↔ Cj )[cite : 69].
2. Multiplier une ligne par un scalaire λ ̸= 0 : Li ← λLi (resp. Ci ← λCi )[cite : 70].
6
3. Ajouter à une ligne un multiple d’une autre ligne : Li ← Li + λLj (i ̸= j) (resp. Ci ←
Ci + λCj )[cite : 71].
Théorème 2.12. Soit A ∈ Mn (K). La matrice A est inversible si et seulement si une suite
d’opérations élémentaires sur les lignes de A transforme la matrice A en une matrice B inversible
(par exemple, In )[cite : 74].
Remarque 2.13 (Méthodes de calcul). — Méthode du pivot de Gauss : Utilisée pour
transformer A en une matrice triangulaire supérieure. Si tous les éléments diagonaux sont
non nuls, A est inversible[cite : 75].
— Méthode de Gauss-Jordan : On forme la matrice augmentée (A|In ). On applique des
opérations élémentaires sur les lignes pour transformer A en In . La matrice devient alors
(In |A−1 )[cite : 76, 78].
2.4 Rang d’une matrice
Définition 2.14. Soit A ∈ Mm,n (K). Le rang de A, noté rg(A), est la dimension de l’image de
l’application linéaire associée X 7→ AX. Donc, rg(A) = dim(Im(A))[cite : 85]. Le rang de A est
aussi le rang de la famille de ses vecteurs colonnes[cite : 88].
Remarque 2.15 (Détermination pratique du rang). — Les opérations élémentaires sur les
lignes ou les colonnes ne modifient pas le rang d’une matrice[cite : 90, 92].
— Pour calculer le rang, on échelonne la matrice (par lignes ou colonnes). Le rang est le
nombre de lignes (ou colonnes) non nulles dans la matrice échelonnée[cite : 91].
— La suppression d’une colonne nulle ou d’une ligne nulle préserve le rang[cite : 93].
Corollaire 2.16 (Rang et inversibilité). Soit A ∈ Mn (K). A est inversible ⇐⇒ rg(A) = n[cite :
103].
2.5 Changement de bases
Définition 2.17. — Soient A, B ∈ Mn,p (K). B est équivalente à A s’il existe une matrice
P ∈ GLp (K) (inversible) et une matrice Q ∈ GLn (K) (inversible) telle que B = Q−1 AP
[cite : 112] (le document source mentionne P ∈ Mp (K) et Q ∈ Mn (K) inversible, l’inver-
sibilité de P est implicite pour une relation d’équivalence et le contexte de changement de
base).
— Si n = p, A, B ∈ Mn (K). B est semblable à A si Q = P ∈ GLn (K), i.e., B =
P −1 AP [cite : 113]. La relation de similitude est une relation d’équivalence[cite : 114,
115].
Définition 2.18 (Matrice de passage). Soit E un K-espace vectoriel de dimension n. P Soient β =
(e1 , . . . , en ) et β ′ = (e′1 , . . . , e′n ) deux bases de E. Pour chaque j ∈ {1, . . . , n}, e′j = ni=1 pij ei .
La matrice P = (pij )1≤i,j≤n est la matrice de passage de la base β à la base β ′ . La j-ième
colonne de P est formée par les composantes de e′j dans la base β[cite : 117].
Théorème 2.19 (Formules de changement de bases). 1. Soient β, β ′ deux bases de E. Soit
P la matrice de passage de β à β . Alors P est inversible et P −1 est la matrice de passage de
′
β ′ à β. On a P = Mat(IdE , β ′ , β)[cite : 125]. (Notation : Mat(f, base départ, base arrivée)).
2. Soient E et F deux K-espaces vectoriels, f : E → F une application linéaire. Soient β, γ
deux bases de E, et β ′ , γ ′ deux bases de F. Soit P la matrice de passage de β à γ, et
Q la matrice de passage de β ′ à γ ′ . Si A = Mat(f, β, β ′ ) et B = Mat(f, γ, γ ′ ), alors
B = Q−1 AP [cite : 128].
7
2.6 Déterminant d’une matrice carrée
Définition 2.20 (Déterminant en dimension 2).
a b
det = ad − bc
c d
[cite : 142].
Théorème 2.21 (Existence et unicité du déterminant). Il existe une unique application de
Mn (K) dans K, appelée déterminant (notée det), telle que[cite : 142] :
(i) Le déterminant est linéaire par rapport à chaque vecteur colonne, les autres étant fixés.
(ii) Si une matrice A a deux colonnes identiques, alors son déterminant est nul.
(iii) Le déterminant de la matrice identité In vaut 1.
Notation : det(A) ou |A|[cite : 144].
Définition 2.22 (Transposition). On appelle matrice transposée de A = (aij ) ∈ Mn,p (K) la
matrice AT ∈ Mp,n (K) définie par AT = (aji )[cite : 144].
2.6.1 Calcul pratique d’un déterminant
Définition 2.23 (Mineur). Soit A = (aij ) ∈ Mn (K). On appelle mineur relativement au coeffi-
cient aij , noté ∆ij , le déterminant de la matrice d’ordre n − 1 obtenue en supprimant dans A la
i-ième ligne et la j-ième colonne[cite : 146].
Théorème 2.24 (Développement suivant une colonne/ligne). — Pour tout j ∈ {1, . . . , n}
(développement suivant la colonne j) :
n
X
det(A) = (−1)i+j aij ∆ij
i=1
[cite : 148].
— Comme det(A) = det(AT )[cite : 150], pour tout i ∈ {1, . . . , n} (développement suivant la
ligne i) :
Xn
det(A) = (−1)i+j aij ∆ij
j=1
[cite : 154].
Lemme
Qn 2.25. Soit A = (aij ) une matrice triangulaire (supérieure ou inférieure), alors det(A) =
a
i=1 ii [cite : 148].
Théorème 2.26. Une matrice carrée A est inversible si et seulement si det(A) ̸= 0. Si A est
inversible, alors det(A−1 ) = det(A)
1
[cite : 150].
A C
Lemme 2.27 (Déterminant par blocs). Soit M = où A et B sont des matrices carrées.
0 B
Alors det(M ) = det(A) det(B)[cite : 152, 153].
Proposition 2.28 (Opérations sur le déterminant). 1. Li ↔ Lj (resp. Ci ↔ Cj ) multiplie
le déterminant par −1[cite : 156].
2. Li ← λLi (resp. Ci ← λCi ) multiplie le déterminant par λ[cite : 157].
3. Li ← Li + λLj pour i ̸= j (resp. Ci ← Ci + λCj ) laisse le déterminant invariant[cite :
158].
Ces propriétés sont utilisées pour calculer le déterminant par la méthode du pivot de Gauss[cite :
160].
8
2.6.2 Inverse d’une matrice via la comatrice
Définition 2.29. — Le cofacteur de aij est Cij = (−1)i+j ∆ij [cite : 163, 164].
— La comatrice de A, notée com(A), est la matrice des cofacteurs : com(A) = (Cij )[cite :
164].
Théorème 2.30. Soit A une matrice carrée d’ordre n. Si A est inversible (det(A) ̸= 0), alors :
1
A−1 = (com(A))T
det(A)
[cite : 164].
9
3 Systèmes Linéaires (Chapitre 4)
3.1 Définitions et propriétés
Définition 3.1. On appelle équation linéaire dans les variables (ou inconnues) x1 , . . . , xp
toute relation de la forme a1 x1 + · · · + ap xp = b, où a1 , . . . , ap et b sont des nombres (souvent
réels) donnés[cite : 263].
Définition 3.2. Un système de n équations linéaires à p inconnues est une liste de n
équations linéaires[cite : 268]. Sa forme générale est :
a11 x1 + a12 x2 + · · · + a1p xp = b1
a21 x1 + a22 x2 + · · · + a2p xp = b2
..
.
an1 x1 + an2 x2 + · · · + anp xp = bn
Les nombres aij sont les coefficients du système[cite : 269]. Les nombres bi constituent le
second membre[cite : 270].
Définition 3.3. Une solution du système linéaire est une liste de p nombres réels (s1 , s2 , . . . , sp )
(un p-uplet) tels que si l’on substitue s1 pour x1 , s2 pour x2 , etc., dans le système linéaire, on
obtient une égalité pour chaque équation[cite : 273]. L’ensemble des solutions du système
est l’ensemble de tous ces p-uplets[cite : 274]. Résoudre le système signifie déterminer cet en-
semble[cite : 278].
Définition 3.4. On dit que deux systèmes linéaires sont équivalents s’ils ont le même ensemble
de solutions[cite : 278].
Théorème 3.5 (Types de systèmes linéaires). Un système d’équations linéaires n’a soit :
— aucune solution (on dit qu’il est incompatible [cite : 280, 281]),
— soit une seule solution[cite : 280],
— soit une infinité de solutions[cite : 280].
Définition 3.6 (Systèmes homogènes). Un système est homogène si son second membre est
nul (b1 = b2 = · · · = bn = 0)[cite : 282]. De tels systèmes sont toujours compatibles car ils
admettent toujours la solution triviale (s1 = s2 = · · · = sp = 0)[cite : 283].
Remarque 3.7 (Matrices et systèmes linéaires). Un système linéaire peut s’écrire sous forme
matricielle AX = B[cite : 285], où A est la matrice des coefficients, X le vecteur colonne
des inconnues, et B le vecteur colonne du second membre[cite : 286]. Si A est une matrice
carrée (n × n) inversible, alors la solution du système AX = B est unique et est donnée par
X = A−1 B[cite : 289].
3.2 Systèmes de Cramer
Un système de Cramer est un système linéaire ayant autant d’équations que d’inconnues et
dont le déterminant de la matrice des coefficients est non nul.
10
3.2.1 Système de 2 équations à 2 inconnues
(
ax + by = e
Pour le système [cite : 298]. Si ad − bc ̸= 0 (c’est-à-dire det(A) ̸= 0), l’unique
cx + dy = f
solution (x, y) est :
e b a e
f d ed − bf c f af − ec
x= = , y= = [cite : 298]
a b ad − bc a b ad − bc
c d c d
3.2.2 Système de n équations à n inconnues (Règle de Cramer)
Soit AX = B un système de n équations à n inconnues[cite : 307]. Soit Aj la matrice obtenue
en remplaçant la j-ième colonne de A par le vecteur B[cite : 306].
Théorème 3.8 (Règle de Cramer). Si det(A) ̸= 0, alors le système admet une unique solution
(x1 , x2 , . . . , xn ) donnée par :
det(Aj )
xj = pour j = 1, . . . , n [cite : 307]
det(A)
La méthode de Cramer est utile si le système contient des paramètres, mais pas la plus efficace
en général[cite : 313].
3.3 Méthode de Gauss
Définition 3.9 (Systèmes échelonnés). Un système est échelonné si le nombre de coefficients
nuls commençant une ligne croît strictement ligne après ligne (jusqu’aux lignes possibles de
zéros)[cite : 318]. Il est échelonné réduit si de plus :
— le premier coefficient non nul de chaque ligne non nulle (appelé pivot) vaut 1[cite : 319] ;
— et ce pivot est le seul élément non nul de sa colonne[cite : 320].
Un système échelonné réduit se résout trivialement[cite : 323].
Proposition 3.10 (Opérations élémentaires sur les lignes). Les opérations suivantes sur les
équations (lignes) d’un système le transforment en un système équivalent :
1. Li ← λLi avec λ ̸= 0 (multiplier une ligne par un scalaire non nul)[cite : 325].
2. Li ← Li + λLj avec j ̸= i (ajouter à une ligne un multiple d’une autre ligne)[cite : 326].
3. Li ↔ Lj (échanger deux lignes)[cite : 327].
Remarque 3.11 (Méthode du pivot de Gauss). Cette méthode permet de résoudre n’importe
quel système linéaire en le transformant en un système échelonné, puis réduit[cite : 336, 337].
Partie A. Passage à une forme échelonnée : 1. Choisir une équation (ligne) et une
inconnue (colonne) avec un coefficient non nul (le pivot). Si nécessaire, échanger des
lignes/colonnes pour amener ce pivot en position (k, k) ou la première position non
nulle de la ligne k.
2. Normaliser la ligne du pivot pour que le pivot vaille 1 (facultatif à cette étape mais
courant pour échelonné réduit).
3. Utiliser des opérations Li ← Li + λLk pour annuler les coefficients de l’inconnue du
pivot dans les autres lignes (typiquement en dessous du pivot).
4. Répéter le processus sur le sous-système restant.
Partie B. Passage à une forme (échelonnée) réduite : Une fois le système sous forme
échelonnée :
11
1. En partant du dernier pivot (en bas à droite), utiliser des opérations Li ← Li + λLk
pour annuler les coefficients au-dessus de chaque pivot.
2. S’assurer que chaque pivot vaut 1 (si ce n’est pas déjà fait).
Partie C. Solutions : Le système échelonné réduit permet d’exprimer les variables prin-
cipales (celles correspondant aux colonnes des pivots) en fonction des variables libres
(celles ne correspondant pas à des pivots)[cite : 356]. S’il y a des variables libres, il y a
une infinité de solutions (sauf si une équation devient 0 = c avec c ̸= 0, auquel cas il n’y
a pas de solution).
Théorème 3.12 (Systèmes homogènes). Tout système homogène d’équations linéaires dont le
nombre d’inconnues p est strictement plus grand que le nombre d’équations n (ou plus généra-
lement, si p > nombre de pivots dans la forme échelonnée, ce qui implique p > rg(A)) a une
infinité de solutions (car il y aura au moins p − n variables libres)[cite : 358].
12