0% ont trouvé ce document utile (0 vote)
19 vues31 pages

Algèbre

Le document traite de l'algèbre linéaire et des matrices, en abordant les espaces vectoriels, les applications linéaires, et les matrices associées. Il définit les concepts fondamentaux tels que les opérations sur les vecteurs, les systèmes linéaires, et leur application dans le génie électrique. Des exemples illustrent les notions de base, d'indépendance linéaire et de dimension des espaces vectoriels.

Transféré par

Guy Descours
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
19 vues31 pages

Algèbre

Le document traite de l'algèbre linéaire et des matrices, en abordant les espaces vectoriels, les applications linéaires, et les matrices associées. Il définit les concepts fondamentaux tels que les opérations sur les vecteurs, les systèmes linéaires, et leur application dans le génie électrique. Des exemples illustrent les notions de base, d'indépendance linéaire et de dimension des espaces vectoriels.

Transféré par

Guy Descours
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

ALGEBRE

LINEAIRE
ET
MATRICES

Cours

ALGEBRE LINEAIRE ET MATRICES 35


I. ESPACES VECTORIELS
1. Rappels : cas de la géométrie vectorielle
2. Notion d’espace vectoriel
II. APPLICATIONS LINEAIRES
1. Définition
2. Matrice associée à une application linéaire
3. Changement de base
III. Matrices
1. Définitions
2. Opérations élémentaires
3. Produit de deux matrices
4. Déterminant d’une matrice
IV. Systèmes linéaires
1. Définitions
2. Système de Cramer
3. Résolution des systèmes linéaires (nxn)
4. Cas particulier d’un système (nxp)
5. Systèmes homogènes
V. Application au génie électrique
1. Applications aux quadripôles

36 ALGEBRE LINEAIRE ET MATRICES


I. ESPACES VECTORIELS
1. Rappels : cas de la géométrie vectorielle

a) Définitions

Un vecteur du plan est défini par deux points du plan A et B et se note AB (A est
l’origine, B est l’extrémité).

Deux vecteurs sont dits égaux s’ils sont équipollents c’est-à-dire s’ils ont même direction
et même module. On peut donc représenter tous les vecteurs du plan en leur donnant
une même origine arbitraire O.

Sur cet ensemble de vecteurs, on définit deux lois de composition, à savoir :

B2 C B D
B
C
A2 A A
B1
A1 O
O
Figure 1a Figure 1b

 une loi d’addition vectorielle (loi de composition interne) qui à A1B1 et A 2 B 2


associe OC (figure 1a), avec les points A et B définis par : OA = A1B1 et
OB = A 2 B 2 .

 Une loi de multiplication par un scalaire (loi de composition externe) qui associe
au nombre réel λ et au vecteur AB le vecteur OD déduit de OC = AB par
l’homothétie de centre O et de rapport λ (figure 1b) : OD = λ OC .

b) Propriétés

Quels que soient les vecteurs AB , BC et CD :

( ) ( )
 AB + BC + CD = AB + BC + CD : associativité de la somme de vecteurs. Soit on
a encore : AB + BD = AC + CD .

ALGEBRE LINEAIRE ET MATRICES 37


 Si 0 est le vecteur dont l’origine et l’extrémité sont confondues alors :
AB + 0 = 0 + AB = AB : existence d’un élément neutre, noté 0 , pour la somme de
deux vecteurs.

 AB + BA = BA + AB = 0 : pour tout vecteur existence d’un opposé par rapport à


l’addition.

Quels que soient les scalaires λ et µ :

( )
 λ AB + BC = λ AB + λ BC : distributivité du produit d’un vecteur par un scalaire par
rapport à l’addition de vecteurs.

 (λ + µ )AB = λAB + µAB : distributivité du produit d’un vecteur par un scalaire par
rapport à l’addition de scalaires.

 (λµ )AB = λ µAB  = µ λ AB  = λµ AB : associativité de la multiplication d’un


   
vecteur par un scalaire.

 1AB = AB : existence d’un élément neutre, noté 1, pour la multiplication par un


scalaire.

On dit que pour ces deux opérations, les vecteurs libres de l’espace forment un espace
vectoriel sur le corps des nombres réels. Les 8 propriétés fondamentales énoncées
précédemment vont nous servir à définir les espaces vectoriels. Nous considérerons des
espaces vectoriels sur le corps R des nombres réels ou sur le corps C des nombres
complexes.

2. Notion d’espace vectoriel

a) Définition

Soit K le corps des scalaires (c’est-à-dire R ou C) et soit E un ensemble.

 On suppose définie sur E une loi de composition interne notée additivement qui à
tout couple ordonné (X,Y) d’éléments de E associe l’élément Z appartenant à E,
tel que : X + Y = Z.

 On suppose définie sur E une loi de composition externe, application de K*E dans
E, qui à tout couple (λ,X) (λ appartenant à K et X appartenant à E) associe
l’élément Y appartenant à E, tel que : Y = λ X.

Les éléments de K sont appelés des scalaires et ceux de E des vecteurs.

38 ALGEBRE LINEAIRE ET MATRICES


Cet ensemble E est appelé espace vectoriel sur le corps K s’il satisfait, pour ces deux
lois de compositions, aux propriétés suivantes, quels que soient les vecteurs X, Y et Z
de E et quels que soient les scalaires λ et µ de K.

 X + (Y + Z) = (X + Y) + Z = X + Y + Z : associativité de l’addition vectorielle.

 Il existe un élément neutre de l’addition vectorielle, 0, indépendant de X tel que :


X + 0 = 0 + X = X.

 Pour chaque élément X appartenant à E, il existe un autre élément X’


appartenant à E tel que X + X’ = X’ + X = 0 : X’ est l’opposé de X

 X + Y = Y + X : Commutativité de l’addition vectorielle

 λ (X + Y) = λ X + λ Y : distributivité de produit d’un vecteur par un scalaire par


rapport à l’addition vectorielle.

 (λµ) X = λ (µX) = µ (λX) = λµ X : associativité du produit d’un vecteur par un


scalaire.

 1 X = X : existence d’un élément neutre, noté 1, pour la multiplication par un


scalaire.

Exemple 1 : L’ensemble des polynômes à coefficients complexes est un espace


vectoriel sur C, si on prend comme loi de composition interne l’addition des
polynômes et comme loi de multiplication externe le produit d’un polynôme
par une constante complexe.

Exemple 2 : Le corps C des nombres complexes est lui-même un espace vectoriel sur
le corps R des nombres réels, si on prend comme loi de composition
interne l’addition des nombres complexes et comme loi de composition
externe le produit d’un nombre complexe par un nombre réel.

b) Propriétés élémentaires

Théorème 1 : L’élément neutre de l’addition vectorielle est unique.

Théorème 2 : Pour tout élément X : 0 X = 0.

Théorème 3 : Pour tout scalaire λ : λ 0 = 0.

Théorème 4 : X étant un élément donné, son opposé X’ est unique et X’ = (-1) X pour
tout X.

Théorème 5 : Pour que λ X = 0, il faut et il suffit que λ = 0 ou X = 0.

ALGEBRE LINEAIRE ET MATRICES 39


c) Indépendance linéaire de vecteurs

p vecteurs non nuls X1, X2, …, Xp appartenant à un espace vectoriel E sont dits
linéairement indépendants si la relation α1X1 + α2X2 +…+ αpXp = 0 implique que :
α1 = α2 = … = αp = 0.

Dans le cas contraire, c’est-à-dire s’il existe p scalaires α1, α2, …, αp non tous nuls tels
que l’on ait α1X1 + α2X2 +…+ αpXp = 0, les p vecteurs sont dits linéairement dépendants.

Exemple 1 : Soit E l’espace vectoriel des suites de 3 nombres réels. Les vecteurs X1 =
(0,1,1), X2 = (1,0,1) et X3 = (1,1,0) sont linéairement indépendants.

Cas particulier : 3 vecteurs de R3 sont linéairement indépendants si et seulement si ces


vecteurs ne sont pas coplanaires c’est-à-dire s’ils forment un véritable trièdre.

Exemple 2 : Dans l’espace des polynômes à une variable, à coefficients réels ou


complexes, les polynômes 1, x, x2, x3, xn, n étant un entier quelconque,
sont linéairement indépendant. Cela vient de la définition même du
polynôme nul quel que soit la valeur de sa variable.

d) Base d’un espace vectoriel

Définition : On dit que n vecteurs non nuls d’un espace vectoriel E sur K, {e1, e2, …, en}
constituent une base vectorielle de E si :
- Ces n vecteurs sont linéairement indépendants,
- Pour tout vecteur X de E peut s’écrire de façon unique :
X = x1e1 + x2e2 + … + xnen

(x1, x2, …, xn) sont des scalaires.

L’expression X = x1e1 + x2e2 + … + xnen s’appelle la décomposition du vecteur X suivant


la base {e1, e2, …, en}.

Les scalaires (x1, x2, …, xn) sont complètement déterminés par la donnée du vecteur X
et s’appellent les coordonnées (ou composantes) du vecteur X sur la base {e1, e2, …,
en}.

Théorème : Si dans un espace vectoriel E défini sur K il existe une base formée de n
vecteurs, tous les systèmes libres de n vecteurs linéairement indépendants
de E forment aussi une base.

Le nombre entier n est alors le maximum de vecteurs qui puissent être indépendants
dans E. C’est la dimension de E.

40 ALGEBRE LINEAIRE ET MATRICES


Exemples : 1- L’ensemble des vecteurs du plan R² est un espace vectoriel de dimension
2. Une base est constituée de 2 vecteurs {u,v} qui ne sont ni nuls, ni
colinéaires. Alors tout vecteur X de R² s’écrit x = xu + yv.
yv X = xu + yv

v
u xu

2- C est un espace vectoriel sur R, de dimension 2, de base {1,j}. Alors quel


que soit le nombre complexe z appartenant à C, z = x + yj.

3- Dans l’espace des polynômes, les vecteurs 1, x, x2, x3, xn sont


linéairement indépendants. Or tout polynôme de degré inférieur ou égal à n
peut s’écrire : P(x) = a0 + a1x + a2x2 +…+anxn.
Il en résulte que les vecteurs {1, x, x2, x3, xn} forment une base de l’espace
des polynômes de degré inférieur ou égal à n.

II. APPLICATIONS LINEAIRES


1. Définition

Soient E et F deux espaces vectoriels définis sur le même corps K. On appelle


application linéaire de E dans F toute application f qui pour tous éléments X1 et X2
appartenant à E et pour tout λ appartenant à K vérifie les relations :

f(X1 + X2) = f(X1) + f(X2)


f(λX1) = λ f(X1)

Ces deux égalités se ramènent à une égalité unique, valable pour tous scalaires λ et µ
appartenant à K :
f(λX1 + µX2) = λ f(X1) + µ f(X2)

2. Matrice associée à une application linéaire

a) Expression des coordonnées

Soit un espace vectoriel E, de dimension n, muni d’une base {e1, e2, …, en} et soit un
espace vectoriel F, de dimension p, muni d’une base {ε1, ε2, …, εp}.

ALGEBRE LINEAIRE ET MATRICES 41


Soit f une appelle application linéaire de E dans F, qui à tout X de E fait correspondre Y
de F tel que :
X = x1e1 + x2e2 + … + xnen
Y = y1ε1 + y2ε2 + … + ypεp

Le n-uplet (x1, x2, …, xn) représentent les coordonnées de X dans la base {e1, e2, …, en}
de E.

Le p-uplet (y1, y2, …, yp) représentent les coordonnées de Y dans la base {ε1, ε2, …, εp}
de F.

Remarque : Les deux bases peuvent être les mêmes ou différentes. Cela dépend de
l’application linéaire et de l’espace vectoriels étudiés.

b) Construction de la matrice associée à une application linéaire

On a : Y = f(X) = f(x1e1 + x2e2 + … + xnen) = x1f(e1) + x2f(e2) + … + xnf(en)

Pour tout vecteur X, le vecteur Y sera donc connu si on connaît les coordonnées des
transformées {f(e1), f(e2), …, f(en)} des vecteurs de base {e1, e2, …, en} sur la base {ε1,
ε2, …, εp} de F.
( )
p
Pour tout i et j tels que 1 ≤ i ≤ p et 1 ≤ j ≤ n , on note : f e j = ∑ a ij ε i .
i =1

Alors en reportant dans l’expression de Y :


(
Y = x 1 a 11ε1 + a 21ε 2 + K + a p1ε p )
(
+ x 2 a 12 ε1 + a 22 ε 2 + K + a p 2 ε p )
+K
(
+ x n a 1n ε1 + a 2 n ε 2 + K + a pn ε p )
En regroupant les termes relatifs à chaque vecteur de la base de F, on a :

Y = (x 1a 11 + x 2 a 12 + K + x n a 1n )ε1
+ (x 1a 21 + x 2 a 22 + K + x n a 2 n )ε 2
+K
(
+ x 1a p1 + x 2 a p 2 + K + x n a pn ε p )
Par identification avec la définition de Y dans la base de F on en déduit les coordonnées
de Y dans F en fonction des coordonnées de X dans E :

42 ALGEBRE LINEAIRE ET MATRICES


 y1 = x 1a 11 + x 2 a 12 + K + x n a 1n
y = x a + x a + K + x a
 2 1 21 2 22 n 2n

K
 y p = x 1a p1 + x 2 a p 2 + K + x n a pn

que l’on peut résumer sous la forme mathématique suivante :


n
y i = ∑ a ij x j avec 1 ≤ i ≤ p et 1 ≤ j ≤ n
j=1

Définition : On appelle matrice A associée à l’application linéaire f, le tableau ordonné


des différents coefficients aij à p lignes et n colonnes noté :
 a 11 a 12 K a 1 j K a 1n 
 
 a 21 a 22 K a 2 j K a 2 n 
 M M M M 
A=  
 a i1 a i 2 K a ij K a in 
 M M M M 

 a p1 a p 2 K a pj K a pn 
 

Le premier indice du coefficient aij indique le numéro de la ligne et le second celui de la


colonne.

On écrit : Y = A X.

Remarques : Les colonnes de la matrice A sont les coordonnées sur la base {ε1, ε2, …,
εp} de F des vecteurs f(e1), f(e2), …, f(en).

Si on change la base de E ou celle de F ou les deux, les coordonnées des


vecteurs changent et donc la matrice A aussi.

c) Exemple

Soit l’application f de C [2x ]  C1[x ] qui associe à un polynôme P(x) de C [2x ] , un polynôme
Q(x) de C1[x ] tel que : dP( x ) d 2 P( x )
Q( x ) = f ( P( x )) = +2 x
dx dx 2

f est une application linéaire.

Les vecteurs {1 ; x ; x²} forment une base de C[2x ] que l’on notera {p}.

Les vecteurs {1-x ; 2x} forment une base de C1[x ] que l’on notera {e}.

ALGEBRE LINEAIRE ET MATRICES 43


f (p1 ) = 0 = 0e1 + 0e 2
 0 1 0 

Alors f (p 2 ) = 1 = (1 − x ) + 2 x = e1 + e 2
1 1
D’où A =  
 2 2 0 1 / 2 6 
f (p 3 ) = 6 x = 0e1 + 3e 2

Soit le vecteur P(x) suivant : P(x) = 1 - 2x + 3x2

Q(x) = f(P(x)) = (-2 + 6x) + 2x * 6 = -2 + 18x = -2(1-x) + 8*2x = -2 e1 + 8 e2.

1 
Les coordonnées de P dans la base {p} sont : [P] = − 2 .
 3 

Donc les coordonnées de Q dans la base {e} sont :


1 
0 1 0     − 2 
[Q] = [A][P] =   − 2  =  
0 1 / 2 6   3   8 
 

3. Changement de base

L’opération qui consiste à effectuer un changement de base d’un espace vectoriel E


définie en fait une application linéaire de E vers lui-même. Il aboutit alors à la définition
d’une matrice dont le nombre de lignes est égal au nombre de colonnes (matrice
carrée).

III. Matrices
1. Définitions

a) Matrice quelconque

Une matrice n × m est un tableau qui comporte n lignes et m colonnes.


n et m sont les dimensions de la matrice.
1 2 0 
Exemple : n = 2 et m = 3 : A =  
 4 3 − 1

Les éléments de la matrice sont repérés par leur position dans le tableau. Ainsi on note
aij l’élément situé à l’intersection de la ligne i et de la colonne j. Il est appelé terme
général de la matrice A.

Une matrice A de dimensions n x m sera notée aussi : A = a ij [ ]11≤≤ij≤≤nm

44 ALGEBRE LINEAIRE ET MATRICES


jème colonne

 a11 L a1 j L a1m 
 
 M O M M 
A =  a j1 L a ij L a im  ième ligne
 
 M M O M 
a L a nj L a nm 
 n1

b) Vecteur

Les vecteurs sont des matrices particulières qui n’ont qu’une colonne (m = 1).

Un vecteur de dimension n est donc constitué de n éléments. On le désigne aussi sous


le nom de n-uplet.

c) Matrice carrée

Les matrices pour lesquelles n = m sont appelées matrices carrées.

On dira d’une matrice carrée de dimensions (nxn) qu’elle est d’ordre n.

1 0 14
 
0 1 −1 2 
Exemple : A = 
0 1 3 − 1
 
1 3 
 0 1

Certaines matrices carrées sont particulières :


• Les matrices symétriques : Une matrice est dite symétrique si "(i,j) aij = aji.
• Les matrices triangulaires supérieures : Les termes tels que i ≤ j sont non nuls.
 U11 U12 L U1n 
 
 0 U 22 U 23 L 
 M 0 O U (n −1)n 
 
 0 L 0 U 
 nn 
• Les matrices triangulaires inférieures : Les termes tels que i ≥ j sont non nuls.
 L11 0 L 0 
 
 L 21 L 22 0 L
 M L 32 O 0 
 
L 
 n1 L L n (n −1) L nn 

ALGEBRE LINEAIRE ET MATRICES 45


• Les matrices diagonales : Seul les termes sur la diagonale sont non nuls.
 d11 0 L 0 
 
 0 d 22 0 L 
 M 0 O 0 
 
 0 L 0 d nn 

• La matrice unité : C’est une matrice diagonale dont tous les termes de la
diagonale sont égaux à 1. On la note 1.
1 0 L 0 
 
 0 1 0 L
1= 
M 0 O 0
 
0 L 0 1 
 
• La matrice nulle : C’est une matrice dont tous les termes sont nuls. On la note 0.

2. Opérations élémentaires

a) Egalité

Soient deux matrices A et B.

Ces deux matrices sont égales si et seulement si :


• elles sont de mêmes dimensions,
• ∀(i, j) a ij = b ij

b) Addition, soustraction

L’addition et la soustraction de matrices se font terme à terme. Les deux matrices


doivent donc avoir les mêmes dimensions :

C = A + B ⇔ ∀(i, j) c ij = a ij + b ij

Exemples :  7 8 9  1 − 2 4   8 6 13 
  +  = 
10 11 12   − 4 5 2   6 16 14 

 7 8 9  1 − 2 4   6 10 5 
  −  = 
10 11 12   − 4 5 2  14 6 10 

Propriétés : ● L’addition des matrices est commutative : A + B = B + A.

● L’addition des matrices est associative : A+(B+C) = (A+B)+C = A+B+C.

46 ALGEBRE LINEAIRE ET MATRICES


● La matrice nulle, 0, est l’élément neutre de l’addition. Ainsi on a :
A+0=0+A=A

● Soient deux matrices A et B de mêmes dimensions. Si A + B = 0 alors


B = -A est appelée matrice opposée de A.
Si A = a ij( )i, j (
alors − A = − a ij )i, j
7 8 9  − 7 −8 − 9 
Exemple : A =   alors : − A =  
10 11 12   − 10 − 11 − 12 

c) Multiplication par un scalaire (multiplication externe)

Soient A une matrice de dimensions n x m et λ un scalaire.

Alors B = λ . A est une matrice de dimensions n x m dont le terme général vérifie :

∀(i, j) b ij = λ a ij .

Chaque terme de la matrice est multiplié par le scalaire.


7 8 9  14 16 18 
Exemple : A =   et λ = 2 alors B = λA =  
10 11 12   20 22 24 

Propriétés : ● (λ + µ) A = λA + µA.

● (λµ) A = λ(µA) = λµA.

● 1A = A.

● λ0 = 0.

● 0A = 0.

d) Transposition

La transposée AT d’une matrice A est la matrice obtenue en échangeant les lignes et les
colonnes de A sans en changer l’ordre. Ainsi la première ligne devient la première
colonne, etc.
1 4 
 1 2 0   
Exemple : A =   ⇔ A =  2 3 
T

 4 3 − 1  0 − 1
 

ALGEBRE LINEAIRE ET MATRICES 47


La transposée d’un vecteur colonne est un vecteur ligne :
 x1 
 
x 
x =  2  ⇔ x T = (x 1 x 2 L x n )
M
 
x 
 n

Propriétés : ● (AT)T = A

● ( A + B )T = AT + BT

● (λ A)T = λ AT

3. Produit de deux matrices

a) Définition

Nous avons vu précédemment (§ II.2), l’utilisation de l’outil matriciel pour exprimer les
coordonnées de vecteurs à travers une application linéaire f. Cet outil de calcul permet
ainsi de s’affranchir d’une représentation pas toujours évidente à réaliser selon la
dimension de l’espace vectoriel.

Soient maintenant deux applications linéaires définies comme suit :


• f : de E vers F de matrice associée A (pxn) telle que A = [aij] avec i ≤ p, j ≤ n,
• g : de F vers G de matrice associée B (mxp) telle que B = [bki] avec k ≤ m, i ≤ p.
On peut alors montrer que l’application h = g o f de E vers G est une application linéaire
de matrice associée C (mxn). Cette application h associe à tout élément x œ E, un
élément z œ G tel que z = g(f(x)).
Les coordonnées de z sont définies à l’aide de la matrice C égale au produit BA.

Le produit de ces deux matrices ne peut s’effectuer que sous certaines conditions sur
les dimensions des matrices :

le nombre de colonnes de la première matrice est égal au nombre de lignes de la


seconde matrice.

Le produit de la matrice A (n × m) par la matrice B (m × p) est donc la matrice C (n×p)


telle que l’élément cij est égal au produit scalaire de la ligne i de la matrice A par la
colonne j de la matrice B.

48 ALGEBRE LINEAIRE ET MATRICES


b) Exemple détaillé

5 1 
1 2 0   
A =   et B =  2 3 
 4 3 − 1 3 4
 

5 1 
1 2 0    9 7
AxB =   2 3  =  
 4 3 − 1 3 4   23 4 
 

En effet, en effectuant les produits d’une ligne par une colonne, on obtient de manière
 y1 
 
y  n
générale : (x 1 x 2 L x n ) 2  = x 1 y1 + x 2 y 2 + L + x n y n = ∑ x i y i .
M i =1
 
y 
 n

Ce qui donne sur l’exemple précédent le détail des calculs suivant :

5
 
(1 2 0) 2  = 5x1 + 2x 2 + 0x3 = 9
 3
 
1
 
(1 2 0) 3  = 1x1 + 2x3 + 0x 4 = 7
 4
 
5
 
(4 3 − 1) 2  = 4x5 + 3x 2 − 1x3 = 23
 3
 
1
 
(4 3 − 1) 3  = 4x1 + 3x3 − 1x 4 = 9
 4
 

c) Propriétés

• Le fait qu’un produit de deux matrices soit identiquement nul n’implique pas
nécessairement que l’une des deux matrices soit identiquement nulle.

• En revanche si l’une des deux matrices est identiquement nulle alors le produit
sera identiquement nul.

ALGEBRE LINEAIRE ET MATRICES 49


• On remarque que le produit de matrices n’est pas commutatif. En effet
considérons deux matrices A(nxp) et B(pxn). Le produit AB sera une matrice de
dimensions (nxn) alors que le produit BA sera une matrice de dimensions (pxp).
Cela suffit à prouver la non commutativité. En reprenant les deux matrices de
l’exemple précédent on a :
5 1   9 13 − 1 
 1 2 0   
BxA =  2 3   = 14 13 − 3 
 3 4  4 3 − 1 19 18 − 4 
   

• Quand le produit de deux matrices a effectivement un sens, il vérifie les


propriétés suivantes :
(AB)C = ABC Associativité
A(B+C) = AB + AC Distributivité à droite
(B+C)A = BA + CA Distributivité à gauche

d) Propriétés des matrices carrées

Les matrices carrées ont le même nombre de lignes et de colonnes. Ainsi le produit de
deux matrices carrées de dimensions (nxn) est aussi une matrice carrée de dimensions
(nxn).

Dans ce cas, le produit matriciel définit une loi de composition interne qui n’est pas
commutative.

On peut alors définir un élément neutre de cette loi, appelé élément unité que l’on
appellera aussi matrice unité comme définie précédemment. On la note 1.

Propriétés : ● A1 = 1A = A

● Une matrice A de dimensions (nxn) est dite inversible s’il existe une
matrice B de dimensions (nxn) telle que : AB = BA = 1. On la note B = A-1.
On montre que B est unique. B est appelée matrice inverse de A.

● On montre que (AT)-1 = (A-1)T.

● Si deux matrices commutent (AB = BA= alors pour tout entier n, on a


(AB)n = AnBn = BnAn.

4. Déterminant d’une matrice

Le déterminant d’une matrice est un nombre qui ne se calcule que pour les matrices
carrées.

50 ALGEBRE LINEAIRE ET MATRICES


On effectue le calcul facilement pour les matrices 2x2 puis en utilisant une méthode de
récurrence pour les matrices de dimensions supérieures.

Soit A une matrice de dimensions nxn, le déterminant de A se note detA.

a) Déterminant d’une matrice 2x2


a a 12 
Soit A une matrice définie comme suit : A =  11 .
 a 21 a 22 

a 11 a 12
Son déterminant se calcule comme suit : det A = = a 11a 22 − a 12 a 21 .
a 21 a 22

Remarque : Le déterminant d’une matrice est donc un nombre qui peut être positif ou
négatif.

Interprétation géométrique : Si les deux colonnes de la matrice A correspondent aux


coordonnées de 2 vecteurs du plan, alors la valeur absolu
du déterminant de A correspond à l'aire du
parallélogramme défini par ces deux vecteurs.

Le déterminant est nul si et seulement si les deux vecteurs


sont colinéaires (le parallélogramme devient une ligne).

b) Déterminant d’une matrice 3x3


 a 11 a 12 a 13 
 
Soit A une matrice définie comme suit : A =  a 21 a 22 a 23  .
a a 32 a 33 
 31
Son déterminant se calcule comme suit :
a 11 a 12 a 13
a 22 a 23 a 12 a 13 a 12 a 13
det A = a 21 a 22 a 23 = a 11 − a 21 + a 31
a 32 a 33 a 32 a 33 a 22 a 23
a 31 a 32 a 33
= a 11 (a 22 a 33 − a 23 a 32 ) − a 21 (a 12 a 33 − a 13 a 32 ) + a 31 (a 12 a 23 − a 13 a 22 )
= a 11a 22 a 33 − a 11a 23 a 32 − a 21a 12 a 33 + a 21a 13 a 32 + a 31a 12 a 23 − a 31a 13 a 22
Tel que décrit précédemment, le déterminant de la matrice A a été calculé en
développant par rapport à la première colonne. On prend successivement les éléments
de cette colonne en leur affectant alternativement les signes + ou -. Et ensuite on calcule
le déterminant de la matrice obtenue en éliminant la ligne et la colonne de l’élément
considéré.
On voit donc bien apparaître la loi de récurrence pour calculer les déterminants des
matrices de dimensions supérieures à 2.

ALGEBRE LINEAIRE ET MATRICES 51


Pour les matrices 3x3, il existe une règle simplifiée pour le calcul du déterminant : il
s’agit de la règle de Sarrus. On écrit à droite de la matrice ses deux premières colonnes
et on additionne les produits obtenus en multipliant les éléments sur les diagonales, pris
avec le signe + pour les produits qui sont parallèles à la diagonale principale et avec le
signe - pour les autres.

det A = a 11a 22 a 33 + a 31a 12 a 23 + a 21a 13 a 32 − a 31a 13 a 22 − a 11a 23 a 32 − a 21a 12 a 33

c) Définitions et propriétés

Soit A une matrice carrée d’ordre n et de terme général aij. On appelle mineur de
l’élément aij, le déterminant, noté ∆ij, d’ordre n-1 déduit du déterminant ∆ par
suppression de sa ième ligne et la jème colonne.
On appelle co-facteur de aij l’expression : Aij = (-1)i+j ∆ij
Un déterminant d’ordre n, D, est égal à la somme des produits de chacun des éléments
d’une même rangée (ligne ou colonne) par son co-facteur. On a alors :
n
• Développement par rapport aux éléments de la ième ligne : ∆ = ∑ (− 1)i + j ∆ ij a ij .
j=1

n
• Développement par rapport aux éléments de la jème colonne : ∆ = ∑ (− 1)i + j ∆ ij a ij .
i =1

La règle qui permet d’associer à chaque mineur le co-facteur correspondant peut être
représentée par le tableau suivant, dans lequel on a mis (-1)i+j à l’emplacement de la
ligne i et de la colonne j :
+ − + − L L
− + − + L L
+ − + − L L
− + − + L L
M M M M
M M M M

Propriétés : ● Si on échange 2 lignes (ou 2 colonnes), le déterminant est changé de


signe.

● Si on multiplie une ligne (ou une colonne) par un nombre, le déterminant


est multiplié par ce nombre.

52 ALGEBRE LINEAIRE ET MATRICES


● Si on ajoute à une ligne (ou à une colonne) (affectée du coefficient
multiplicatif 1) une combinaison linéaire des autres lignes (ou des autres
colonnes), le déterminant ne change pas.

● Le déterminant d’une matrice carrée est égal au déterminant de sa


matrice transposée.

● Si une ligne (ou une colonne) a tous ses éléments nuls alors le
déterminant est nul.

● Si deux lignes (ou colonnes) sont identiques alors le déterminant est nul.

● Si deux lignes (ou colonnes) sont proportionnelles alors le déterminant


est nul.

● Si une ligne (ou colonne) est une combinaison linéaire des autres ligne
s(ou colonnes) alors le déterminant est nul.

● Le déterminant d’une matrice triangulaire est égal au produit des


éléments de la diagonale principale.

d) Cas général

La méthode générale de calcul d’un déterminant consiste donc à ramener le calcul d’un
déterminant d’ordre n à celui de déterminants d’ordre n-1 et donc de proche en proche,
au calcul de déterminants d’ordre 2. Cependant, avant de développer un déterminant
par rapport aux éléments d’une rangée (ligne ou colonne), on peut essayer de le
simplifier en appliquant les propriétés énoncées précédemment.

● Par combinaison linéaires de lignes et de colonnes, on peut essayer de


faire apparaître un facteur commun à tus les éléments d’une rangée et le
mettre en facteur du déterminant,

● Par combinaison linéaires de lignes et de colonnes, on peut essayer de


faire apparaître un ou plusieurs zéros parmi les éléments d’une rangée : il
est alors judicieux de développer le déterminant par rapport à la rangée
comportant le plus de zéros.

e) Exemples

1 2 1 1 0 1
1 1
det A = 3 4 2=3 0 2 = −(− 11) = 11(2 − 3) = −11
3 2
2 −5 3 2 − 11 3

ALGEBRE LINEAIRE ET MATRICES 53


IV. Systèmes linéaires
1. Définitions

On appelle système linéaire de n équations à p inconnues, à coefficients constants


(réels ou complexes), un système de la forme :
a 11 x 1 + a 12 x 2 + L + a 1 j x j + L + a 1p x p = b1

a 21 x 1 + a 22 x 2 + L + a 2 j x j + L + a 2 p x p = b 2
M


a i1 x 1 + a i 2 x 2 + L + a ij x j + L + a ip x p = b i
M

a n1 x 1 + a n 2 x 2 + L + a nj x j + L + a np x p = b n

Les coefficients sont aij et bj, les inconnues sont xj.


p
Ce système s’écrit sous forme abrégée : ∑ a ij x j = b i pour i ∈ [1; n ] .
j=1

Ce système s’écrit sous aussi forme matricielle :


 a 11 a 12 L a 1p  x 1   b1 
    
 a 21 a 22 a 23 L  x 2   b 2 
 M = → AX = B
O M  M   M 
    
 a n1 a n 2 L a np  x p   b 
    n 
où A est la matrice associée au système linéaire, X est le vecteur des inconnues et B le
vecteur second membre.

On appelle solution du système linéaire l’ensemble des p-uplet X vérifiant le système.


Résoudre le système revient donc à chercher tous les vecteurs X tels que AX = B.

Remarque : Si p > n on a plus d’inconnues que d’équations.

2. Système de Cramer

a) Définition

Un système est dit de Cramer s’il admet une solution unique. C’est équivalent de dire
que pour ce système linéaire :
• Le nombre d’équations est égal au nombre d’inconnues (n = p),
• Le déterminant de la matrice associée au système est non nul.

La matrice associée est donc d’ordre n.

54 ALGEBRE LINEAIRE ET MATRICES


Conséquences : ● Les n équations du système sont donc indépendantes. Ainsi pour
que n vecteurs de dimensions n soient linéairement indépendants, il
faut et il suffit que le déterminant de la matrice de leurs coordonnées
soit non nul. Et inversement, si le déterminant d’une matrice carrée
d’ordre n est non nul alors les n vecteurs colonnes (ou lignes) sont
linéairement indépendants.

● Un système linéaire admet une solution unique si et seulement si la


matrice associée au système est inversible.

● Une matrice est inversible si et seulement si son déterminant est non


nul.

b) Exemple
5x 1 + 2x 2 - x 3 = 3

Soit le système suivant à résoudre : x 1 + x 2 - 3x 3 = - 2
2x - x + 7x = 7
 1 2 3

 5 2 − 1
 
La matrice associée à ce système est : A =  1 1 − 3 
2 −1 7 
 
1 −3 2 −1 2 −1
Le déterminant de A est : det A = 5 − +2
−1 7 −1 7 1 −3
= 5(7 − 3) − (14 − 1) + 2(−6 + 1)
= −3
≠0
Le système est donc un système de Cramer, le déterminant de sa matrice associée est
non nul, il admet donc une solution unique.

3. Résolution des systèmes linéaires (nxn)

Soit un système linéaire d’ordre n de matrice associée A, de vecteur inconnues X et de


second membre B : AX = B.
Dans ce paragraphe différentes méthodes pour trouver la valeur des éléments du
vecteur X vont être détaillées.

a) Règle de Cramer

La règle de Cramer est un théorème en algèbre linéaire qui donne la solution d'un
système d'équations linéaires d’ordre n en terme de déterminants.

ALGEBRE LINEAIRE ET MATRICES 55


Le théorème affirme que : ∀i ∈ [1; n ] x i =
det(A i )
où Ai est la matrice carrée d’ordre n
det A
obtenue en remplaçant la ième colonne par le vecteur B.

Pour des systèmes d’ordre élevé, elle est généralement inefficace car elle conduit au
calcul de déterminants d’ordre élevé. Cependant, elle est d'importance théorique pour la
raison qu'elle donne une expression explicite pour la solution du système.

On l’utilisera donc principalement pour des systèmes d’ordre inférieur ou égal à 3.

 5 2 − 1  3 
   
Exemple : On reprend l’exemple précédent : A =  1 1 − 3  et B =  − 2  et detA = -3.
 2 −1 7   7 
   

3 2 −1 5 3 −1 5 2 3
−2 1 −3 1 −2 −3 1 1 −2
7 −1 7 3 2 7 7 − 15 2 −1 7 −6
x1 = = = −1 ; x 2 = = = 5 ; x3 = = =2
−3 −3 −3 −3 −3 −3

b) Méthode du pivot de Gauss

La méthode du pivot de Gauss consiste à transformer la matrice A en une matrice


triangulaire supérieure (ou inférieure) en effectuant 3 types d’opérations simples sur les
lignes du système linéaire.
On appelle opérations élémentaires sur les lignes les opérations suivantes :
• Intervertir deux lignes de A.
• Multiplier une ligne A par un scalaire.
• Ajouter le produit d’un scalaire et d’une ligne de A à une autre ligne de A.
On va utiliser ces opérations élémentaires sur la matrice A et sur le vecteur B
simultanément jusqu’à ce que la matrice ait une bonne forme. Pour cela on définit une
matrice augmentée à n lignes et (n+1) colonnes, qui correspond à la matrice A à
laquelle on a ajouté le vecteur B.

Détail de la méthode sur l’exemple précédent :


5 2 −1 3 
 
 1 1 − 3 − 2 Système de départ, on conserve la première ligne telle quelle.
2 −1 7 7 
 
  On multiplie les lignes suivantes de sorte à faire apparaître sur
5 2 −1 3  la première colonne la même valeur que a11 = 5.
 
 5 5 − 15 − 10 
 5 − 5 35 35  Donc la seconde ligne est multipliée par 5 et la troisième par
 2 2 2  5/2.

56 ALGEBRE LINEAIRE ET MATRICES


  On remplace la seconde (resp. troisième) ligne par la
5 2 −1 3  différence entre la seconde (resp. troisième) ligne et la
0 3 − 14 − 13  première. On a ainsi fait apparaître des 0.
 −9 37 29 
 0 
 2 2 2 
5 2 −1 3  On fait maintenant apparaître sur toutes les lignes exceptée la
  première le même coefficient en 2nde position. On multiplie
 0 9 − 42 − 39  donc la seconde ligne par 3 et la troisième ligne par 2.
 0 − 9 37 29 
 
5 2 −1 3  On remplace la troisième ligne par la différence entre la
  troisième ligne et la seconde. On a ainsi fait apparaître des 0.
 0 9 − 42 − 39 
 0 0 − 5 − 10 
 

La matrice obtenue est triangulaire supérieure.

 5 2 − 1  x 1   3 
    
Si on réécrit le système matriciel obtenu :  0 9 − 42  x 2  =  − 39 
 0 0 − 5  x   − 10 
  3   

5x 1 + 2 x 2 − x3 = 3

Cela donne pour le système linéaire :  9x 2 − 42x 3 = − 39
 − 5x 3 = − 10

On calcule alors aisément la valeur des éléments de X, en partant de la dernière ligne et


en allant jusqu’à la première. On dit qu’on « remonte » le système.
 x 1   − 1
   
Ainsi :  x 2  =  5 
x   2 
 3  

Remarque : La méthode du pivot de Gauss complète consiste à mettre un 1 sur la


diagonale, mais dans la plupart des cas cela n’est pas nécessaire.
Cette méthode est en fait la méthode générale de résolution des systèmes
linéaires par combinaisons et substitutions successives.
Cette méthode est très générale car elle s’applique à tous les systèmes.

c) Décomposition LU

Cette méthode exprime la matrice A sous forme du produit d’une matrice triangulaire
inférieure L (low=bas) à diagonale unité par une matrice triangulaire supérieure U
(up=haut) : A = LU.

ALGEBRE LINEAIRE ET MATRICES 57


Le système à résoudre devient alors LUX = B.

On le décompose alors en deux. On va dans un premier temps chercher le vecteur Y tel


que LY = B, puis le vecteur X tel que UX = Y.

On est amené alors à résoudre deux systèmes pour trouver le vecteur X. La résolution
est facilitée par la forme triangulaire des matrices.

La méthode LU permet aussi de calculer le déterminant de A, qui est égal au produit des
éléments diagonaux de la matrice U, puisque det(A) = det(L) × det(U) et det(L) = 1.

 5 2 − 1   1 0 0  a b c 
    
Sur l’exemple précédent : A =  1 1 − 3  =  α 1 0  0 d e 
 2 − 1 7   β γ 1  0 0 f 
    
 a b c 
 
=  α a αb + d αc + e 
 βa βb + γd βc + γe + f 
 

La décomposition LU consiste à chercher la valeur des éléments inconnus des 2


matrices L et U. Il y en a 9 qui correspondent à la solution du système précédent, obtenu
en effectuant la multiplication des deux matrices et en identifiant terme à terme.
On a alors : a = 5
   1 0 0
b = 2   
c = −1  L =  1/ 5 1 0 

  2 / 5 − 3 1
αa = 1 α = 1 / 5  
  ⇒ 
5 2 −1 
αb + d = 1 → d = 3 / 5   
αc + e = −3 e = −14 / 5  U =  0 3 / 5 − 14 / 5 
   0 0 − 1 
βa = 2 β = 2 / 5  
 
βb + γd = −1 → γ = −3
βc + γe + f = 7 f = −1
 

Le calcul des éléments du vecteur Y est alors évident :

 1 0 0  y1   3   y1 = 3  y1 = 3
      
LY = B ⇒  1 / 5 1 0  y 2  =  − 2  ⇒ 1 / 5y1 + y 2 = −2 ⇒  y 2 = −13 / 5
 2 / 5 − 3 1  y   7  2 / 5 y − 3y + y = 7  y = −2
  3     1 2 3  3

On fait ensuite les calculs pour obtenir X, la solution du système linéaire :

58 ALGEBRE LINEAIRE ET MATRICES


5 2 − 1  x 1   3  5x 1 + 2 x 2 − x 3 = 3 x 1 = −1
      
UX = Y ⇒  0 3 / 5 − 14 / 5  x 2  =  − 13 / 5  ⇒ 3x 2 − 14x 3 = −13 ⇒ x 2 = 5
0 0 − 1  x 3   − 2  − x 3 = −2 x = 2
  3

Remarque : Cette méthode est très pratique car elle ne conduit qu’à des calculs
relativement simples. Néanmoins, le nombre d’inconnues devient vite élevé
quand l’ordre du système augmente.

d) Inversion de matrice

Etant donné que la résolution du système revient à chercher le vecteur X tel que AX = B.
On écrit alors : X = A-1B.

Donc pour trouver X, il suffit d’inverser la matrice A.

Afin de savoir si la matrice A est inversible, la première étape est de calculer sont
déterminant. Il faut qu’il soit non nul pour pouvoir calculer A-1.

Définition : La matrice inverse est égale à la transposée de la matrice des co-facteurs


divisée par son déterminant.

A ij (−1) i + j ∆ ij
Ainsi soit B telle que B = A alors b ji =
-1
=
det A det A

La matrice des co-facteurs de A s’appelle aussi la matrice adjointe de A, on la note


Adj(A).

 5 2 − 1
 
Retour sur l’exemple précédent : A =  1 1 − 3  et detA = -3.
2 −1 7 
 

Calcul des co-facteurs :


1 −3 1 −3 1 1
A11 = (−1)1+1 =4 A12 = (−1)1+ 2 = −13 A13 = (−1)1+3 = −3
−1 7 2 7 2 −1
2 −1 5 −1 5 2
A 21 = (−1) 2+1 = −13 A 22 = (−1) 2+ 2 = 37 A 23 = (−1) 2+3 =9
−1 7 2 7 2 −1
2 −1 5 −1 5 2
A 31 = (−1) 3+1 = −5 A 32 = (−1) 3+ 2 = 14 A 33 = (−1) 3+3 =3
1 −3 1 −3 1 1

ALGEBRE LINEAIRE ET MATRICES 59


 4 − 13 − 3   4 − 13 − 5 
   
On obtient : Adj(A) =  − 13 37 9  ⇒ Adj(A) =  − 13 37 14 
T

 − 5 14 3   −3 9 3 
 
 4 − 13 − 5 
−  
⇒ A −1 =
1
 − 13 37 14 
3 
 −3 9 3 

⇒ X = A-1B
 4 − 13 − 5  3   − 1
−1    
⇒ X =  − 13 37 14  − 2  =  5 
3 
 −3 9 3  7   2 

4. Cas particulier d’un système (nxp)

Il arrive que lors de la mise en équations d’un problème, on se retrouve avec un système
de n équations à p inconnues.

La matrice A associée au système est alors de dimensions (nxp).

Par suppression de lignes et de colonnes, il est possible de construire diverses matrices


carrées, de dimensions différentes, dont on peut calculer les déterminants.

a) Définitions

On appelle déterminant d’ordre q extrait d’une matrice A (nxp), le déterminant de toute


matrice carrée d’ordre q déduite de A par suppression de (n-q) lignes et (p-q) colonnes.

On appelle rang d’une matrice A de dimensions (nxp) l’ordre maximum r des


déterminants non nuls extraits de cette matrice.

On appelle rang d’un système linéaire, le rang de la matrice associée à ce système.

 1 −3 4 2 
 
Exemple : Soit la matrice A =  2 1 1 4 
 −1 − 2 1 − 2 
 

On peut extraire les déterminants d’ordre 3 suivants, que l’on calculera :

1 −3 4 1 −3 2 −3 4 2 1 4 2
2 1 1 = 0; 2 1 4 = 0; 1 1 4 = 0; 2 1 4 = 0
−1 − 2 1 −1 − 2 − 2 −2 1 −2 −1 1 − 2

60 ALGEBRE LINEAIRE ET MATRICES


On peut extraire les déterminants d’ordre 2 suivants, que l’on calculera :

1 −3 1 1 1 −3 1 2
= 7; = 3; = −5 ; =0
2 1 −2 1 −1 − 2 −1 − 2

Certains sont non nuls, d’autres nuls.

On dira que la rang de la matrice A est 2.

b) Résolution d’un système (nxp)

Soit un système de n équations linéaires à p inconnues caractérisé par la matrice A de


rang r.

On souhaite résoudre le problème : A X = B où X est un vecteur de dimension p et B est


un vecteur de dimension n.

Les r premières équations de ce système sont appelées équations principales et les r


premières inconnues sont appelées les inconnues principales.

Le déterminant de cette matrice carrée de dimension r (extraite de A) est appelé


déterminant principal.
a 11 K a 1r b1
M M M
On définit le déterminant caractéristique ∆k comme suit : ∆ k =
a r1 K a rr br
a ( r + k )1 K a (r+k)r b r +k
avec k = 1, 2, … (n-r).
Il y a donc (n-r) déterminants caractéristiques à calculer.

Pour qu’un système de n équations linéaires à p inconnues, de rang r soit soluble, il faut
et il suffit que les (n-r) déterminants caractéristiques soient nuls. On obtient alors toutes
les solutions en résolvant le système de Cramer constitué par les r équations principales
aux r inconnues, les (p-r) inconnues non principales étant arbitraires.

c) Exemple

x + y + z = 1 1 1 1 1
 x + 2 y − z = −1 1 
2 − 1 − 1

Soit le système :  . Sa matrice associée est : A =  et B =   .
x + 3z = 3 1 0 3 3
2 x + y + 4z = 4    
2 1 4 4

ALGEBRE LINEAIRE ET MATRICES 61


n = 4 et p = 3.

On vérifie aisément que les déterminants d’ordre 3 ont tous nuls.

Par contre un déterminant d’ordre 2 n’est pas nul donc le rang du système est égal à 2.

x + y = 1
Les équations principales relatives aux inconnues principales x et y sont :  .
x + 2 y = −1

Les (n-r) c’est-à-dire 2 déterminants caractéristiques sont nuls :


1 1 1 1 1 1
∆1 = 1 2 − 1 = 0 ; ∆ 2 = 1 2 − 1 = 0 .
1 0 3 2 1 4

Le système est donc soluble et on résout le système de Cramer


x + y = 1 − z
suivant :  .
 x + 2 y = −1 + z

1− z 1 1 1− z
−1+ z 2 1 −1+ z
Dont les solutions sont : x = = 3 − 3z et y = = −2 + 2z ; z arbitraire.
1 1 1 1
1 2 1 2

5. Systèmes homogènes

a) Définition et cas général

Un système linéaire (nxp) est dit homogène lorsque les coefficients du second membre
sont tous nuls. Si A (nxp) est la matrice associée à ce système, on a alors AX = 0 où X
est un vecteur de dimension p.

Un tel système est toujours soluble car il admet toujours la solution évidente :
x1 = x 2 = L = x p = 0 .

Si le rang du système est égal à p alors la solution nulle est l’unique solution.

Par contre si le rang du système est inférieur à p, certaines inconnues sont arbitraires et
on résout le système par la méthode générale.

x − 2 y + 3z = 0 1 − 2 3 
Exemple : Soit le système  de matrice associée A =  .
x + y − 4z = 0 1 1 − 4

62 ALGEBRE LINEAIRE ET MATRICES


Les vecteurs colonnes de A appartiennent à un espace vectoriel de dimension 2. Ils sont
donc linéairement dépendants. On peut donc choisir comme déterminant principal
n’importe quel déterminant d’ordre 2 issu de A.

1 −2 1 3 −2 3
∆1 = ;∆2 = ; ∆3 =
1 1 1 −4 1 −4

x − 2 y = −3z
1er cas :  soit x = 5/3 z, y = 7/3 z et z arbitraire
 x + y = 4z

x + 3z = 2 y
2ème cas :  soit x = 5/7 y, z = 3/7 y et y arbitraire
 x − 4z = − y

− 2 y + 3z = − x
3ème cas :  soit y = 7/5 x, z = 3/5 x et x arbitraire
 y − 4z = − x

x y z
= =
5 7 3
On peut aussi écrire :
x y z
= =
∆ 3 ∆ 2 ∆1

b) Cas particulier du système homogène n*n

Une condition nécessaire et suffisante pour qu’un système linéaire homogène de n


équations à inconnues admette d’autres solutions que la solution nulle est que son
déterminant principal soit nul.

V. Application au génie électrique


Dans le domaine du génie électrique, on est très souvent confronté à la résolution d’un
système d’équations quand il s’agit de trouver les courants et tensions pour un dispositif
électrique.

Bien entendu la première étape, primordiale, est l’analyse électrique de la structure


étudiée qui conduit à la mise en équations du problème. Ensuite de cette mise en
équations, il est alors possible d’utiliser tous les outils développés dans ce chapitre pour
résoudre le problème.

1. Applications aux quadripôles

Un quadripôle est un système électrique ou électronique pour lequel on définit 2


grandeurs d’entrée et 2 grandeurs de sortie liées par des relations linéaires (les circuits

ALGEBRE LINEAIRE ET MATRICES 63


présents en amont et en aval ne sont pas représentés) comme le montre la figure ci-
après.
i1 i2
i 2 = Ai1 + Be1
e2 
e1 e 2 = Ci1 + De1

En régime sinusoïdal, les relations font apparaître des coefficients A, B, C et D : A et D


sont sans dimension, B représente une admittance (inverse d’une impédance) et C
représente une impédance.

 i   A B  i1 
On peut donc écrire le système matriciel suivant :  2  =    .
 e 2   C D  e1 

Voici le résultat pour l’impédance série Z1 et l’impédance parallèle Z2.

i1 i2
Z1
i 2 = i1  i2   1 0  i1 
e1 e2    =   
e 2 = − Z1i1 + e1  e 2   − Z1 1  e1 

i1 i2
 1  1 
i 2 = i1 − e1  i2   1 −  i1 
e1 Z2 e2  Z2   =  Z 2  
e = e  e2   0 1  1 
e
 2 1 

Quand il s’agit ensuite de les connecter pour faire un quadripôle plus compliqué, on
pourra alors utiliser le modèle matriciel.

En effet sur le schéma en T, on peut effectuer une décomposition en 3 cellules


élémentaires comme le montre la figure ci-après.

i1 i’2 i2
i’1
Za Zb
e1 Zc e’2 e2
e’1

 i ' 2   1 −  i '1 


1  i2   1 0  i ' 2 
 i '1   1 0  i1    =   
  =     = Zc  ' 
 e '1  − Z 1  e1   e ' 2    e 2   − Zb 1  e' 2 
   a   0 1  e 1 

64 ALGEBRE LINEAIRE ET MATRICES


On montre alors que pour trouver les relations entre grandeurs d’entrée et de sortie, il
suffira donc d’effectuer un produit de 3 matrices simples.

0  1 −
1  '
0  1 −
1 
 i2   1 0  i ' 2   1  i 1   1  1 0  i1 
  =    =   Z c  '  =   Z c   
 e2   − Zb 1  e ' 2   − Z b 1  − Zb − Za 1  e1 
1  e 1  
1 
0 0 1 

 Za + Zc −1 
 
 i2   Zc Zc  i1 
  =
e
 2  Z Z + Z a Zb + Zb Zc Zb + Zc  e1 
−
a c
Zc Zc 
 

On peut effectuer le même raisonnement pour le schéma en PI suivant :

i1 i’1 i’2 i2
Za

e1 Zb e’1 e’2 Zc e2

ALGEBRE LINEAIRE ET MATRICES 65

Vous aimerez peut-être aussi