0% ont trouvé ce document utile (0 vote)
71 vues40 pages

Cours Algebre2 Rapport

Ce document présente un cours d'Algèbre 2 pour le niveau S2A, axé sur l'algèbre linéaire et ses applications dans divers domaines. Le cours est structuré en quatre chapitres, couvrant les espaces vectoriels, la résolution de systèmes d'équations linéaires et la réduction des endomorphismes. Les étudiants sont encouragés à préparer les exercices avant les séances de travaux dirigés pour en tirer le meilleur parti.

Transféré par

degbeydarell7
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
71 vues40 pages

Cours Algebre2 Rapport

Ce document présente un cours d'Algèbre 2 pour le niveau S2A, axé sur l'algèbre linéaire et ses applications dans divers domaines. Le cours est structuré en quatre chapitres, couvrant les espaces vectoriels, la résolution de systèmes d'équations linéaires et la réduction des endomorphismes. Les étudiants sont encouragés à préparer les exercices avant les séances de travaux dirigés pour en tirer le meilleur parti.

Transféré par

degbeydarell7
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours d’ Algèbre 2

Pour niveau S2A

2017–2018

Dr ZOROM
L’algèbre linéaire a une utilité dans la résolution de ♠ Il est fortement recommandé d’avoir cherché les
problèmes dans divers domaines tels que : la statis- exercices avant de venir en TD. La correction d’un
tique, la biologie, le raisonnement abstrait, la chimie, exercice vous sera beaucoup plus profitable si vous
La théorie de codage, la cryptographie, l’économie, avez réfléchi à l’exercice auparavant.
les faces propres, la théorie d’élimination, les jeux, la ♠ Les fiches de TD sont trop longues pour être traitées
génétique, la géometrie,la théorie des graphes, la distri- intégralement pendant les séances de TD. Les en-
bution de la chaleur, la compression d’images, les oscil- seignants traiteront un ou plusieurs exercices cor-
lations couplées, la programmation linéaire, les chaı̂nes respondant à chaque type d’exercice qui pourra
de Markov, les réseaux, la sociologie, les nombres de vous être demandé à l’examen. Il est toutefois
Fibonacci, l’électricité. Vous pouvez consulter ces ap- recommandé de chercher tous les exercices pour
plications dans [2]... Quelques applications dans ce vous entraı̂ner.
cours vous permettront de comprendre l’application de
♠ Si vous avez des problèmes ou des questions après
l’algèbre linéaire.
les cours et les TD, n’hésitez pas à vous adresser
L’objectif de ce cours est d’acquérir les notions
par mail à l’enseignant chargé du cours à l’adresse
d’algèbre linéaire nécessaires à la formation. Comme
suivante ([Link]@[Link]).
pré-requis, vous devez connaı̂tre le cours d’algèbre 1
du semestre 1. Nous allons rappeler certaines notions + + Certaines parties du document sont conçues à
d’algèbre 1 nécessaires à la compréhension du cours. partir de différents supports accessibles sur Internet.
Le cours va se dérouler en quatre chapitres : (Cha- Voir la bibliographie.
pitre 1-4)

1. Chapitre 1 : Rappels sur les espaces


vectoriels et applications linéaires
2. Chapitre 2 : Compléments sur
les espaces vectoriels et applications
linéaires
3. Chapitre 3 : Résolution de systèmes
d’équations linéaires
4. Chapitre 4 : Réduction des endo-
morphismes : Valeurs propres - Vec-
teurs propres - Diagonalisation de
matrices

♠ Les séances de TD sont très courtes et les ensei-


gnants n’auront pas le temps de faire des rap-
pels de cours pendant les séances. Il est donc
impératif d’avoir lu et appris le cours avant
de venir en TD.

1
Table des matières

1 Rappels sur les E.V. et applications linéaires 4


1.1 Espaces vectoriels (E.V.) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.1 Sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.2 Combinaisons linéaires, générateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.3 Dépendance et indépendance linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4 Somme et somme directe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.1.5 Base et dimension d’un espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2 Exemples d’utilisation de l’espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.3.1 Image et noyau d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Opérations sur les applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.3 Réciproque d’une application linéaire bijective . . . . . . . . . . . . . . . . . . . . . . . 11
1.4 Les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Opérations sur les matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.3 Matrices carrées, matrices élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.4 Déterminant d’une matrice carrée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Compléments sur les E.V. et applications linéaires 18


2.1 Application linéaire et base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.2 Matrice d’application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Image d’un vecteur x de E par f . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.4 Lien entre opérations sur les applications linéaires et opérations sur les matrices . . . . . . . . . 19
2.4.1 Addition de deux applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.2 Multiplication par un scalaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.3 Composition d’application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4.4 Inverse d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Changement de base et application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.1 Matrice de passage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2
2.5.2 Changement de base pour un vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5.3 Changement de base pour une application linéaire . . . . . . . . . . . . . . . . . . . . . 22
2.5.4 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Résolution de systèmes d’équations linéaires 24


3.1 Introduction aux systèmes d’équations linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2 Systèmes linéaires et matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3 Elimination Gaussienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Résolution d’un système linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.4.1 Recherche des solutions de (S) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.2 Résolution de (S) par inversion de matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4.3 La méthode de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.4.4 ”Cas embêtants” . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5 Application au modèle entrée-sortie de Leontief . . . . . . . . . . . . . . . . . . . . . . . . . . . 32

4 Réduction des endomorphismes 34


4.1 Vecteurs et valeurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
4.2 Recherche des vecteurs propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
4.3 Caractérisation des endomorphismes diagonalisables . . . . . . . . . . . . . . . . . . . . . . . . 36
4.4 Application : calcul de la puissance d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . 37

3
Chapitre 1

Rappels sur les E.V. et applications linéaires

Nous rappelons dans ce chapitre les notions sur Définition 1.1. (a) Une loi de composition in-
les espaces vectoriels et les applications linéaires. Les terne : l’addition notée + qui vérifie :
exercices d’applications avec des corrections sont issus
du site [4]. (a-1) ∀x, y, z ∈ E : (x+y)+z=x+(y+z)
(associativité)
Il est petit à petit apparu que de tels ensembles (l’en- (a-2) ∃0 ∈ E tel que ∀x ∈ E, x+0=0+x
semble des vecteurs, l’ensemble des polynômes de degré est élément neutre de E.
n, et bien d’autres encore), pourtant très différents les (a-3) ∀x ∈ E, ∃x0 ∈ E tel que x+x’=0 :
uns des autres, se ressemblent en fait au travers de x0 est l’élément opposé de x.
l’existence de deux opérations : l’addition (+) et le pro-
(a-4) ∀x, y ∈ E : x+y=y+x (commu-
duit par un nombre réel (×). Pour permettre de ne pas
tativité)
répéter à chaque fois les caractéristiques et propriétés
de ces ensembles, les mathématiciens ont défini un
 modèle  qui ne vérifie qu’un nombre minimum de (b) Une loi de composition externe : la multipli-
propriétés (des axiomes), mais juste assez pour éviter cation par un scalaire, notée ×, qui vérifie :
des cas pathologiques. Ce modèle, encore appelé Es-
pace Vectoriel, a donc des propriétés partagées par (b-1) ∀λ, µ ∈ K, ∀x ∈ E : λ × (µ × x) =
de nombreux ensembles, comme celui des vecteurs, ce- (λ × µ) × x
lui des polynômes de degré n, et bien d’autres encore (b-2) ∀λ, µ ∈ K, ∀x ∈ E : (λ + µ) × x =
que nous rencontrerons dans ce cours. λ×x+µ×x
(b-3) ∀λ ∈ K, ∀x, y ∈ E : λ × (x + y) =
λ×x+λ×y
Espaces vectoriels (E.V.) (b-4) ∀x ∈ E : 1 × x = x

On appelle K−espace vectoriel un ensemble E


d’éléments, appelés vecteurs, sur lesquels on peut + + + Les conditions (a-1)–(a-3) signifie que
définir deux lois de composition. K = R, C. (E,+) est un groupe. En ajoutant la condition (a-4),
(E,+) devient un groupe commutatif ou abélien.

4
+ + + Par souci de clarté, le symbole × de la Combinaisons linéaires, générateurs
loi de composition externe sera désormais omis. Ainsi,
l’élément λ × x sera désormais désigné par λx. Définition 1.3. (1) Soit {u1 , · · · , up }
une famille de vecteurs d’un espace
vectoriel E. Tout vecteur de E de la
Sous-espaces vectoriels p
X
forme λ1 u1 + · · · + λp up = λi ui où
Dans toute la suite l’ensemble E désignera un espace 1
vectoriel. les λi ∈ K est appelé combinaison
Définition 1.2. linéaire des vecteurs ui , i = 1, · · · , p
Soit E un espace vectoriel et F un sous- (2) L’ensemble de toutes ces combinai-
ensemble de E (F ⊂ E). F est un sous- sons linéaires que l’on désigne par
espace vectoriel de E si F est lui-même vect(u1 , · · · , up ) = hu1 , · · · , up i est
un espace vectoriel pour les lois d’addi- appelé sous-espace vectoriel en-
tion et de multiplication par un scalaire gendré par les vecteurs ui , i =
définies sur E. 1, · · · , p

+ + + Cette définition sous-entend que tout sous- Proposition 1.1.


espace vectoriel est lui-même un espace vectoriel. Il Soit E un espace vectoriel. On dit que
en découle les critères d’identification des sous-espaces les u1 , · · · , up engendrent E ou que les
vectoriels suivants. vecteurs ui , i = 1, · · · , p forment une
famille génératrice de E si : E =
Théorème 1.1. Soit E un espace vectoriel et F un
vect(u1 , · · · , up )
sous-ensemble de E (F ⊂ E). On dit que F est un
sous-espace vectoriel de E si et seulement si :
+ + + En d’autres termes,u1 , · · · , up engendrent
(i) F est non vide : F 6= ∅ E si, pour tout x ∈ E, il existe des scalaires λ1 , · · · , λp
(ii) ∀x, y ∈ F alors, x + y ∈ F : F est tels que x = λ1 u1 + · · · + λp up , c’est-à-dire si tout
stable pour l’addition. vecteur de E est une combinaison linéaire des ui , i =
1, · · · , p.
(iii) ∀x ∈ F , ∀λ ∈ K, alors λx ∈ F : F
est stable pour la multiplication par
un scalaire Dépendance et indépendance linéaire
Famille libre et famille liée
Corollaire 1.1. Soit E un espace vectoriel et F un
Définition 1.4.
sous-ensemble de E (F ⊂ E). Si F vérifie les pro-
Soit {u1 , · · · , up } une famille de vecteurs
priétés (i) et (ii) suivantes, alors F est un sous-espace
d’un espace vectoriel E. On dit que cette
vectoriel de E :
famille est libre si et seulement si : λ1 u1 +
(i) F est non vide · · · + λp up = 0 ⇒ λ1 = · · · = λp = 0. On
(ii) ∀x, y ∈ F , ∀λ, µ ∈ K alors λx + µy ∈ dit alors que les vecteurs ui , i = 1, · · · , p,
F sont linéairement indépendants.

5
Définition 1.5. Définition 1.7.
Une famille qui n’est pas libre est dite L’espace vectoriel E est dit la somme di-
liée ; les vecteurs ui , i = 1, · · · , p, sont recte des sous-espaces vectoriels F et G,
alors linéairement dépendants ou liés. et on note E = F ⊕ G, si chaque vecteur
x ∈ E s’écrit d’une manière unique sous
la forme x = u + v avec u ∈ F et v ∈ G.
Combinaisons linéaires et dépendance linéaire

Proposition 1.2. Théorème 1.4.


Une famille {u1 , · · · , up } est liée si et L’espace vectoriel E est la somme directe
seulement si l’un au moins des vecteurs des deux sous-espaces vectoriels F et G si
s’écrit comme une combinaison linéaire et seulement si E = F +G et F ∩G = {0}.
des autres vecteurs de la famille.
Propriétés 1.1.1.
Soient F et G deux sous-espaces vectoriels
Somme et somme directe de E. La somme de F et G est directe si
et seulement si ∀x ∈ F + G , il existe un
Somme de deux sous-espaces vectoriels
unique couple (u, v) ∈ F × G etel que x =
Définition 1.6. u + v.
Soient F et G deux sous-espaces vectoriels
de l’espace vectoriel E. La somme de F et Sous-espaces supplémentaires
G, qui s’écrit F + G, est l’ensemble des
constitué de toutes les sommes u + v avec Définition 1.8.
u ∈ F et v ∈ G. Ainsi E +G = {u+v/u ∈ Soient E un espace vectoriel, F et G deux
F et v ∈ G}. sous-espaces vectoriels de E. F et G sont
dits supplémentaires dans E lorsque leur
somme est directe et égale à E : E = F ⊕
Théorème 1.2. G.
La somme de sous-espaces vectoriels d’un
espace vectoriel E est aussi un sous-espace Propriétés 1.1.2.
vectoriel de E.
Soient F et G deux sous-espaces vectoriels
de E. F et G sont supplémentaires dans E
Théorème 1.3. si et seulement si E = F + G et F ∩ G =
Soient F et G deux sous-espaces vectoriels {0}.
de dimension finie de E. Alors F + G est
de dimension finie et :
dim(F +G) = dim(F )+dim(G)−dim(F ∩ Base et dimension d’un espace vectoriel
G)
Définition 1.9. Une famille de vecteurs {u1 , · · · , up }
d’un espace vectoriel E est une base de E si les deux
Somme directe conditions suivantes sont vérifiées :

6
(i) Les vecteurs ui , i = 1, · · · , p, sont + + + L’existence de la décomposition pour tout
linéairement indépendants : La fa- x ∈ E vient du fait que la famille {u1 , · · · , up } est
mille {u1 , · · · , up } est libre. génératrice ; l’unicité du fait que la famille {u1 , · · · , up }
(ii) Les vecteurs ui , i = 1, · · · , p, en- est libre.
gendrent E : La famille {u1 , · · · , up } Définition 1.11.
est génératrice. {e1 , e2 , e3 } forment une base de
R3 .Cette base est dite canonique.
Définition 1.10. En généralisant à Rp , l’ensemble des
Une famille de vecteurs {u1 , · · · , up } est vecteurs {e1 , e2 , · · · , ep } tels que ei a
une base de l’espace vectoriel E si tout x ∈ toutes ses composantes nulles sauf en
E peut s’écrire de manière unique comme ième position où elle est égale à 1 forme
une combinaison linéaire des ui , i = la base canonique de Rp .
1, · · · , p.
Corollaire 1.2. Dans un espace vectoriel de dimen-
+ + + Conséquences : Un espace vectoriel E est sion p :
dit de dimension finie n, et on écrit dim(E) = n , si E
♣ Toute famille de plus de p éléments est
admet une base de n vecteurs.
liée.
Théorème 1.5. ♣ Toute famille de moins de p éléments
Soit E un espace vectoriel de dimension ne peut être génératrice.
finie. Alors toute base de E a le même
♣ Toute famille libre de p éléments forme
nombre d’éléments.
une base.

+ + + L’espace vectoriel {0} est défini par sa di- ♣ Toute famille génératrice de p éléments
mension 0. Si un espace vectoriel n’est pas de dimen- forme une base.
sion finie, on dit qu’il est de dimension infinie.
+ + + Les deux dernières propriétés énoncées dans
Théorème 1.6. le corollaire signifie que si dim(E) = p , pour toute
Dans un espace vectoriel E de dimension
famille de p vecteurs,
finie, il existe toujours des bases.
libre ⇔ génératrice ⇔ base (une des deux propriétés
suffit).
Propriétés 1.1.3. On a : dim(Rp ) = p
Soit {u1 , · · · , up } une base de E. Alors : Dimension et sous-espace
X p
p
∃!(α1 , · · · , αp ) ∈ R tel que x = αi ui . Théorème 1.7.
1 Soit F un sous-espace vectoriel de l’es-
Les (α1 , · · · , αp ) sont appelées les coor- pace vectoriel E de dimension n. Alors
données (on dit aussi composantes) de dim(F ) ≤ n. En particulier si dim(F ) = n
x relativement à la base {u1 , · · · , up } , alors nécessairement F = E.

7
oiseaux nicheurs rhônalpins

L’ouvrage de Lebreton, P. (1977)[1] sur les oiseaux nicheurs rhônalpins met à disposition
sous la forme d’un tableau un relevé de mesures réalisées sur le terrain :

Exemples d’utilisation de l’espace vec- Lieu A B C D E F G


1 -6.6 1.1 9.7 22.9 131.5 139.5 1597
toriel 2 -7.5 0.1 8.2 20.8 115 145 1613
3 -8.5 -0.1 8.6 22 113 146.5 1738
4 -9.2 -1.7 6.5 17.3 103 138 1630
Exemple 1.1. Les oiseaux nicheurs rhônalpins 5 -8 0.2 7.5 21.6 110 129 1492
6 -7.8 0.5 8.6 21 113 130 1415
L’ouvrage de Lebreton, P. (1977) [1] sur les oiseaux 7 -2.9 2.8 11.5 19.8 188.5 141.5 1849
8 -8.4 -1 8.3 21.1 100 120 1473
nicheurs rhônalpins met à disposition sous la forme 9 -6.8 2.3 8.8 21.4 100 85 978.5
d’un tableau un relevé de mesures réalisées sur le ter- 10 -6.8 0.8 9.5 22.8 75 38 784.5
re rain : 11 -6.3 1.9 8.1 19.2 77 80.5 976
12 -4 5.5 10.5 24.2 69 79 1239
13 -7.2 1.2 9.6 22.9 65 72.5 1125
14 -10.1 0.2 5.3 19.7 65 70 1025
15 -8.9 2.2 7.6 22.7 65 41 771.5
ective 16 -1.6 7.3 12.6 27.6 51 47.5 920
17 -4 5 10 24.5 66 57.5 1010
18 -6.6 2.8 8.9 24.7 98.5 52 1116
19 -7 1.8 8.6 21.9 112 68 1248
20 -6.3 3.5 10.5 24.3 57.5 55 767.5
21 -8.6 2.6 7.6 22.4 49.5 48.5 766.5
22 -3.4 7.3 12.5 27.4 56.5 29.5 926.5
23 -6.6 4 9.8 26 77.5 47 955
concernent 23 lieux au cœur desquels ont été mesurées les sept variables suivantes :
pérature minimale observée en Janvier (°C)
pérature maximale observée en Janvier (°C) F : la pluviométrie moyenne en Juillet (mm)
G : la pluviométrie moyenne annuelle (mm)
pérature minimale observée en Juillet (°C)
Ce tableau permet d’étudier les données de deux
pérature maximale observée en Juillet (°C)
points de vue différents : dans l’espace des individus ou
dans l’espace des variables. Ainsi, dans l’espace des
individus, on dispose de 23 vecteurs ayant chacun
sept coordonnées : on travaille dans l’espace vectoriel
R7 . Dans l’espace des variables, on dispose de sept
vecteurs avec chacun 23 coordonnées : on est dans
l’espace vectoriel R23 .
Ces données concernent 23 lieux au cœur desquels
ont été mesurées les sept variables suivantes :
Un contre-exemple : Le champ de maı̈s
A : la température minimale observée en Janvier (˚C)
B : la température maximale observée en Janvier (˚C) Une plante (le maı̈s) peut se présenter sous trois
C : la température minimale observée en Juillet (˚C) formes A1 , A2 , A3 . On caractérise une popula-
tion de cette plante (le champ de maı̈s) par les
D : la température maximale observée en Juillet (˚C) fréquences de chacune de ces trois formes que l’on note
E : la pluviométrie moyenne en Janvier (mm) f1 , f2 , f3 : fi = NNombre
ombre de plantes Ai
total de plantes Une population

8
se représente alors comme un vecteur de R3 de com- Soient E et F deux espaces vectoriels sur
posantes (f1 , f2 , f3 ). K et f une application de E dans F. On
dit que f est une application linéaire si
♠ On peut aisément montrer que f1 + f2 + f3 = 1. et seulement si l’image d’une combinai-
♠ Si on appelle P le sous-ensemble de R3 formé de son linéaire est la combinaison linéaire
toutes les populations possibles. est-il un sous- des images.
espace vectoriel de R3 ? Autrement dit : ∀x, y ∈ E et ∀λ, µ ∈ K,
f (λx + µy) = λf (x) + µf (y)
1. P = {(x, y, z) ∈ R3 /x + y + z = 1} : P ∈ R3 . Et plus généralement : ∀x1 , · · · , xn ∈ E et
2. P est non vide : les vecteurs ei de la base ca- ∀λ1 , · · · , λn ∈ K, f (λ1 x1 + · · · + λn xn ) =
nonique de R3 sont éléments de P . λ1 f (x1 ) + · · · + λn f (xn )

3. Soient x, y ∈ P et λ, µ ∈ K.
x = (x1 , y1 , z1 ) et y = (x2 , y2 , z2 ) avec
x1 + y1 + z1 = 1 et x2 + y2 + z2 = 1. Théorème 1.8. Soient E et F deux espaces vectoriels
λx + µy = (λx1 + µx2 , λy1 + µy2 , λz1 + µz2 ) sur K et f une application de E dans F. f est une ap-
(λx1 + µx2 ) + (λy1 + µy2 ) + (λz1 + µz2 ) = plication linéaire si et seulement si :
λ(x1 + y1 + z1 ) + µ(x2 + y2 + z2 ) = λ + µ.
Or λ + µ 6= 1, sauf dans quelques cas parti-
culiers : P n’est pas un sous-espace vectoriel. (i) ∀x, y ∈ E, f (x + y) = f (x) + f (y)
(ii) ∀x ∈ E, ∀λ ∈ K, f (λx) = λf (x)

Applications linéaires

Les applications linéaires constituent un chapitre + On dira donc que f est linéaire si elle conserve les
considérable des mathématiques modernes, tant par sa deux opérations de base d’un espace vectoriel c’est-à-
densité au-delà de son développement propre : calcul dire l’addition et la multiplication par un scalaire.
matriciel ; théorie des déterminants ; formes quadra- + En remplaçant λ par 0 dans (ii), on obtient que
tiques ; espaces fonctionnels... ; que par l’importance f (0) = 0 : l’image du vecteur nul par toute application
de son emploi dans les autres sciences : Recherche linéaire est égale au vecteur nul.
opérationnelle ; Sciences économiques ; Mécanique + L’ensemble des applications linéaires de E dans F
quantique ; Théorie de la relativité ; Biologie (dyna- est noté L(E, F ).
mique des populations)... Ceci est dû, en particulier,
aux nombreuses interventions des systèmes d’équations
algébriques, différentielles ou aux dérivées partielles, Définition 1.13.
On appelle application identité IdE :
dont la résolution utilise les applications linéaires et le
E → E , l’application telle que ∀u ∈
calcul matriciel qui leur est lié [3].
E, IdE (u) = u ; C’est une application
linéaire.
Définition 1.12.

9
Image et noyau d’une application linéaire Proposition 1.5.
Soit f : E → F une appli-
Proposition 1.3.
cation linéaire. L’ensemble défini par
Soit f : E → F une application linéaire.
ker(f ) = {u ∈ E/f (u) = 0} est un sous-
L’ensemble des images des éléments de E,
f (E) est un sous-espace vectoriel de F ap- espace vectoriel de E appelé noyau de
pelé image de l’application linéaire f l’application linéaire f. (ker = kernel
et noté Imf . qui veut dire noyau en anglais).
v ∈ Im(f ) ⇔ ∃u ∈ E/v = f (u) .
+ ker(f ) est une partie de E : ker(f ) ⊆ E
Injectivité

Définition 1.14.
Une application f : E → F est
dite injective si des éléments dis-
tincts de E ont des images dis-
tinctes : u 6= u0 ⇒ f (u) 6= f (u0 ) ou
f (u) = f (u0 ) ⇒ u = u0

Proposition 1.6.
Soit f ∈ L(E, F ) , f est injective si et
seulement si ker(f ) = {0} .

Surjectivité

Définition 1.15.
Une application f : E → F est dite sur-
jective si tout vecteur v de F possède
au moins un antécédent par f dans E :
∀v ∈ F, ∃u ∈ E/f (u) = v .
+ Im(f ) est une partie de F : Im(f ) ⊆ F
+ La dimension de Im(f ) est appelée rang de f :
rg(f ) = dim(Im(f )) Proposition 1.7.
Proposition 1.4. Soit f ∈ L(E, F ) , f est surjective si et
Soit f : E → F une application linéaire. seulement si Im(f ) = f (E) = F .
Alors , f (E) = Im(f ) est est un espace-
vectoriel.
Bijectivité

10
Proposition 1.8. Définition 1.17.
Soit f ∈ L(E, F ) , f est bijective si et Soient E, F, G, trois espaces vectoriels,
seulement si elle est à la fois injective et soient f ∈ L(E, F ) et g ∈ L(F, G) On
surjective. définit la composition de deux applications
linéaires f et g notée g ◦ f comme l’appli-
cation h ∈ L(E, G) qui à u ∈ E associe
Théorème 1.9. g(f (u)).
Soient E et F deux espaces vectoriels
f g
de dimension finie et soit f une applica- h: E→ − F → − G
tion linéaire de L(E, F ) , on a alors : u 7→ f (u) 7→ g(f (u)) = h(u)
dim(E) = dim(Im(f )) + dim(ker(f )) =
[rgf + dim(ker(f ))].
+ g ◦ f signifie que l’on applique d’abord f puis en-
suite g.
Ce théorème 1.9 est appelé le théorème du rang. + La composition n’est possible que si l’ensemble d’ar-
rivée de f est inclus dans F l’ensemble de départ de g.
Proposition 1.9. + Si g ◦ f existe, f ◦ g n’existe pas forcément.
Soit f ∈ L(E, F ) , bijective ⇒ dim(E) = + Si f ◦ g existe, alors généralement f ◦ g 6= g ◦ f .
dim(F ).
Théorème 1.10. Soient f, f1 , f2 ∈
L(E, F ), g, g1 , g2 ∈ L(F, G) et λ ∈ K
Définition 1.16. ? Une application
linéaire f ∈ L(E, E) est appelée z f ◦ (g1 + g2 ) = f ◦ g1 + f ◦ g2
endomorphisme. z (f1 + f2 ) ◦ g = f1 ◦ g + f2 ◦ g
? Une application linéaire bijective f ∈ z λ(f ◦ g) = (λf ) ◦ g = f ◦ (λg)
L(E, F ) est appelée isomorphisme.
? Une application linéaire bijective
f ∈ L(E, E) est appelée auto- Réciproque d’une application linéaire bijective
morphisme ou endomorphisme
Lorsque f est bijective, tout v ∈ F possède un
bijectif.
antécédent unique u par f dans E
Définition 1.18.
Opérations sur les applications linéaires On appelle application réciproque de f,
notée f −1 , l’application qui à v associe
Proposition 1.10. L(E, F ) est muni des deux lois u ; c’est une application linéaire : f −1 ∈
suivantes : L(F, E)
– ∀f, g ∈ L(E, F ), f + g ∈ L(E, F ) (loi
f : E → F
de composition interne). +
u 7→ v=f(u)
– ∀f ∈ L(E, F ), ∀λ ∈ K, λf ∈ L(E, F )
(loi de composition externe). f −1 : F → E
+
v 7→ u = f −1 (v)

11
Propriétés 1.3.1. n
X
f ◦ f = IdF , f −1 ◦ f = IdE , ce qui peut
−1 ∗ cj = akj est le j-ième vecteur co-
k=1
aussi se traduire comme suit : lonne extrait de A ; c’est un vec-
f −1 f
f ◦ f −1 : F −−→ E →
− F teur de Rn dont les coordonnées sont
f f −1
(a1k , a2k , · · · , ank ).
f −1 ◦ f : E →
− F −−→ E Xp
∗ li = aik est le i-ième vecteur
k=1
ligne extrait de A ; c’est un vec-
Les matrices teur de Rp dont les coordonnées sont
(ai1 , ai2 , · · · , aip ).
Définition
Définition 1.19. Un tableau rectangulaire de la forme
ci-dessous
 est appelé matrice. 
a11 a12 · · · a1p Opérations sur les matrices
 a21 a22 · · · a2p 
A =  .

.. .. ..  A est une matrice
 Définition 1.21.
 .. . . .  Addition de deux matrices A =
an1 an2 · · · anp (aij )1≤i≤n,1≤j≤p et B = (bij )1≤i≤n,1≤j≤p
ayant n lignes et p colonnes. toutes deux de dimension (n,p) ; On
additionne terme à terme pour obte-
∗ L’élément aij ∈ R de la matrice se trouve à l’inter- nir : A + B = (aij + bij )1≤i≤n,1≤j≤p de
section de la ième ligne et de la j ème colonne. dimension (n,p).
∗ La matrice A s’écrit également sous la forme (aij ) =
[aij ] = (aij )1≤i≤n,1≤j≤p avec i = 1, · · · , n et j =
1, · · · , p. Propriétés 1.4.1. Soient A, B et C trois matrices
de dimension (n,p) et 0 de dimension (n,p) la matrice
∗ Une matrice ayant n lignes et p colonnes est appelée
nulle dont les éléments sont tous égaux à 0.
matrice (n, p) ou n × p.
∗ Le couple (n, p) est appelé dimension de la matrice.
(i) A+B+C= (A+B)+c=A+(B+C)
∗ Une matrice de dimension (n, 1) est une matrice
(associativité)
ligne.
`
(ii) A+0=A (élément neutre)
∗ Une matrice de dimension (1, p) est une matrice
colonne. (iii) A+(-A)=0 (opposé)
∗ 0 la matrice nulle est la matrice dont tous éléments (iv) A+B=B+A (commutativité)
sont nuls.
Définition 1.20. Soient B 0 = {e01 , e02 , , · · · e0n } la base
canonique de Rn et B = {e1 , e2 , , · · · ep } la base ca- Multiplication d’une matrice par un scalaire
nonique de Rp . Soit (aij )1≤i≤n,1≤j≤p une matrice de
dimension (n, p) Alors : Définition 1.22.

12
Soient A = (aij )1≤i≤n,1≤j≤p une matrice
de dimension (n,p) et λ ∈ R. On définit la
matrice λA comme matrice dont tous les
coefficients sont multipliés par λ : λA =
(λaij )1≤i≤n,1≤j≤p .
λA est aussi de dimension (n,p).

Propriétés 1.4.2. Soient A et B deux matrices de


dimension (n,p) et λ, µ deux scalaires.

(i) λ(A + B) = λA + λB
(ii) (λ + µ)A = λA + µA
(iii) (λµ)A = λ(µA)
(iv) 1 × A = A et 0 × A = 0 (ne pas
confondre 0 scalaire et 0 matrice)
Figure 1.1 – Moyen mnémotechnique
Multiplication de matrices
Définition 1.23.
Transposition de matrice
Soient A = (aik )1≤i≤n,1≤k≤p une ma-
trice de dimension (n,p) et B =
(bkj )1≤k≤p,1≤j≤q une matrice de dimen- Définition 1.24.
 
sion (p,q). Le produit des deux matrices a11 a12 · · · a1p
 a21 a22 · · · a2p 
C = AB a pour dimension (n,q) s’écrit : Soit A =  . ..  , la
 
p .. ..
X  .. . . . 
C = (cij )1≤i≤n,1≤j≤q avec cij = aik bkj
an1 an2 · · · anp
k=1
matrice transposée de A notée At ou t A
est la matrice obtenue en écrivant les
Propriétés 1.4.3. Soient A, B, C, D et E cinq ma- lignes deA en colonnes : 
trices de dimensions respectives (n,p), (p,q), (q,s), a11 a21 · · · an1
 a12 a22 · · · an2 
(p,q) et (q,n). tA = 
..  Si A a

 .. .. ..
 . . . . 
(i) (AB)C =A(BC) associativité [ ma- a1p a2p · · · apn
trice de dimension (n,s)]
pour dimension (n,p) alors t A a pour di-
(ii) A(B+D)=AB+AD distributivité à mension (p,n).
gauche [matrice de dimension (n,q)]
(iii) B(D+E)=BD+BE distributivité à
droite [matrice de dimension (p,n)] Propriétés 1.4.4. Soient A, B et C trois matrices de
dimensions respectives (n,p), (n,p) et (p,q).

13
(i) t (A + B) =t A +t B Propriétés 1.4.5.
(ii) t (t A) =A Quelque soit la matrice A de dimension
(n,p) : A = AIp = In A
(iii) t (λA) = λt A
(iv) t (AC) =t C t A
Propriétés 1.4.6.
La matrice λIn , pour tout λ ∈ R ,
Matrices carrées, matrices élémentaires est appelée matrice scalaire. C’est la ma-
trice diagonale dont les éléments diago-
Matrices carrées naux sont tous égaux à λ.
Définition 1.25.
Une matrice dont le nombre de lignes est Matrices Inversibles
égal au nombre de colonnes est appelée Définition 1.29.
matrice carrée. Si elle a pour dimension Une matrice carrée A, d’ordre n, est dite
(n,n) , on dit alors qu’elle est d’ordre n. inversible ou non singulière, s’il existe
une matrice carrée B d’ordre n telle que
Matrices diagonales BA = AB = In Une telle matrice B est
unique, d’ordre n ; on l’appelle matrice in-
Définition 1.26. verse de A et on la note A−1 .
On appelle diagonale (ou diagonale prin-
cipale) d’une matrice carrée d’ordre n, les Matrices symétriques
éléments a11 , a22 , · · · , ann de la matrice.
Définition 1.30.
Une matrice carrée est dite symétrique si
Définition 1.27. et seulement si t A = A . Autrement dit
Une matrice carrée D = (dij )1≤i,j≤n
si ∀i 6= j, aij = aji
est dite diagonale si tous ses éléments
non diagonaux sont nuls. Une telle
matrice est fréquemment notée D = Matrices triangulaires
diag(d11 , d22 , · · · , dnn ) où certains ou tous Définition 1.31.
les scalaires dii peuvent être égaux à zéro. Une matrice triangulaire est une ma-
trice carrée dont les éléments au-dessous
Matrice Identité (ou au-dessus) de la diagonale principale
sont tous nuls.
Définition 1.28.
Une matrice carrée d’ordre n ne compor- Matrices orthogonales
tant que des 1 sur la diagonale principale
et des 0 partout ailleurs, est notée In et est Définition 1.32.
appelée matrice unité ou matrice iden- Une matrice carrée d’ordre n est dite or-
tité. thogonale si t AA = At A = In .

14
Propriétés 1.4.7.
Si A est une matrice orthogonale, alors
elle est inversibles et A−1 =t A .

Matrices normales
Définition 1.33.
Une matrice carrée d’ordre n est dite nor-
male si t AA = At A , autrement dit si A
et sa transposée At commutent.

Déterminant d’une matrice carrée Figure 1.2 – Moyen mnémotechnique

Formes multilinéaires alternées


Déterminant d’un système de vecteurs
Déterminant d’une matrice carrée Méthode des cofacteurs
Soit A une matrice carrée d’ordre n. Soit L’astuce consiste à se ramener à des déterminants
A = (aij )1≤i≤n,1≤j≤p . Chaque colonne de A d’ordre inférieur jusqu’à obtenir des déterminants
peut alors être considérée comme un vecteur de d’ordre 2. Pour cela, on développe le déterminant par
. . .
Rn : A = [v ..v .. · · · ..v ] avec v = (a , a , , a )
1 2 p j 1j 2j nj rapport à une ligne ou une colonne.
pour j = 1 . . . p. Ainsi, la définition de la notion de a11 a12 · · · a1n
déterminant d’une matrice carrée est étroitement a 21 a22 · · · a2n
Soit ∆ = . . . .. un déterminant d’ordre
liée à la définition du déterminant d’un système de .. .. .. .
vecteurs : det(A) = det(v1 , v2 , · · · , vp ) On note alors an1 an2 · · · ann
a11 · · · a1n n.
n
det(A) = ... .. .. , et on parle de déterminant X
. . ∆= aij Xij , développement par rapport à la
an1 · · · ann j=1

d’ordre n. ligne i
X n
∆= aij Xij , développement par rapport à la
Déterminant d’une matrice carrée d’ordre 2
i=1
Définition
  1.34. colonne j
a11 a12 où Xij est le cofacteur de l’élément aij :
Soit A = . Alors det(A) =
a21 a22 Xij = (.1)i+j ∆ij . ∆ij est le mineur de aij c’est-à-dire
a11 a12 le déterminant d’ordre (n-1) extrait de ∆ en enlevant
a21 a22 la ième ligne et la j ème colonne.

Déterminant d’une matrice carrée d’ordre 3 Application :


Généralisation : Déterminant d’ordre n ∆ = a11 X11 + a12 X12 + · · · + a1n X1n (ligne 1)

15
∆ = a11 X11 + a21 X21 + · · · + a1n Xn1 (colonne 1) Propriétés 1.4.8. a) ∗ Si A a une ligne
(ou une colonne) de zéros alors
det(A) = 0.
a22 a23 · · · a2n
a32 a33 · · · a3n ∗ Si A a deux lignes (ou deux
X11 = +∆11 = . .. .. .. colonnes) identiques alors
.. . . .
det(A) = 0.
an2 an3 · · · ann
a21 a23 · · · a2n b) Si on échange deux lignes (deux co-
a31 a33 · · · a3n lonnes) d’un déterminant alors on ob-
X12 = −∆21 = . .. .. .. tient − det(A).
.. . . .
c) On ne modifie pas un déterminant si
an1 an3 · · · ann
on ajoute à une ligne (resp. une co-
lonne) une combinaison linéaire des
- - La répartition des signes à prendre devant les
autres lignes (resp. des autres co-
mineurs (−1)i+j , est alternée à partir du signe +
lonnes).
pour l’élément a11 . Par exemple, pour un déterminant
d’ordre 5 : d) Si on multiplie une ligne (resp. une co-
lonne) d’un déterminant par un sca-
laire λ , alors le déterminant est lui-

+ − + − +
 même multiplié par λ .
− + − + − e) Si A = (aij )1≤i,j≤n est une matrice tri-
 
+
 − + − +
 angulaire d’ordre n alors det(A) =
− n
+ − + − Y
+ − + − + aii (produit des termes diago-
i=1
naux). Il est résulte que det(In ) = 1.
f ) det(AB) = det(B) det(B) et
det(An ) = [det(A)]n . Le déterminant
Application au déterminant d’ordre 3 est une fonction multiplicative.
a1 b1 c1
g) det(t A) = det(A).
∆ = a2 b2 c2 ∆ = a1 X11 + a2 X21 + a3 X31
1
a3 b3 c3 h) det(A−1 ) = .
det(A)
(colonne 1)
i) det(λA) = λn det(A).
11 − a2∆21 +a3 ∆31 
∆ = a1 ∆  
b c b c b c
∆ = a1 2 2 − a2 1 1 + a3 1 1
b3 c3 b3 c3 b2 c2

∆ = a1 (b2 c3 −c2 b3 )−a2 (b1 c3 −c1 b3 )+a3 (b1 c2 −c1 b2 ) Inversion de matrices

Définition 1.35.

16
Considérons une matrice carrée A d’ordre
n, la matrice des cofacteurs Xij des
éléments aij de A notée adj(A) est appelée
matrice adjointe de A ou co-matrice
de A.
adj(A) = com(A) = (Xij ) = ((−1)i+j ∆ij )

Théorème 1.11.
Soit A une matrice carrée d’ordre n. Alors
A est une matrice inversible si et seule-
ment si det(A) 6= 0.

Théorème 1.12.
Soit A une matrice carrée quelconque
d’ordre n. Alors : A × adj(A) = adj(A) ×
A = det(A) × In où In est la matrice iden-
tité d’ordre n.

Théorème 1.13.
Soit A une matrice carrée quelconque
d’ordre n. Si det(A) 6= 0 , alors A est in-
versible et :
1 t
A−1 = (adj(A))
det(A)

Cas particulier : inverse d’une matrice diagonale

Définition 1.36. Si A = (dii ) est une matrice diago-


nale inversible d’ordre n :
n
Y
(i) det(A) = aii 6= 0 ⇒ ∀i =
i=1
1, , . . . n aii 6=
0
1
(ii) A−1 = diag( )
aii

17
Chapitre 2

Compléments sur les E.V. et applications linéaires

Comme nous l’avons vu en révision au chapitre 1, F est muni de la base BF = {v1 , v2 , · · · , vn } : dim(F ) =
la notion d’application linéaire est indépendante de la n
notion de base d’un espace vectoriel. Toutefois, tra- Les images (f (u1 ), f (u2 ), · · · , f (up ) des vecteurs de la
vailler avec des applications linéaires dont les espaces base de E sont éléments de F et se décomposent dans
vectoriels sont munis d’une base, permet d’énoncer, BF = {v1 , v2 , · · · , vn } comme suit :f (uj ) = a1j v1 +
comme nous allons le découvrir, d’autres propriétés a2j v2 + · · · + anj vn avec j = 1, . . . , p.
très intéressantes. Dans le terme général aij , i correspond à un vecteur
de la base de F et j à un vecteur de la base de E.

Application linéaire et base Définition 2.1.


(a1j , a2j , · · · , anj ) sont les coordonnées
Soient E et F deux espaces vectoriels sur K et f ∈ (ou composantes) du vecteur f (uj ) dans
L(E, F ) . Supposons que E soit muni de la base BE = la base {v1 , v2 , · · · , vn }.
{u1 , u2 , · · · , up } . Alors dim(E) = p et ∀x ∈ E, x =
x1 u1 + x2 u2 + · · · + xp up . Ainsi : f (x) = f (x1 u1 + Définition 2.2.
x2 u2 + · · · + xp up ) = x1 f (u1 ) + x2 f (u2 ) + · · · + xp f (up ) La matrice de l’application
⇒ Cette expression montre que l’application f : E → F relativement aux
linéaire f est entièrement définie par les images bases BE = {u1 , u2 , · · · , up } de E et
(f (u1 ), f (u2 ), · · · , f (up )) des vecteurs de la base de E. BF = {v1 , v2 , · · · , vn } de F, est le tableau
Ceci signifie également que si l’on connaı̂t tous les f (ui ) à n lignes et p colonnes des coordonnées
pour i = 1, · · · , p , alors on connaı̂t un quelconque des f (uj ) dans la base {v1 , v2 , · · · , vn } :
f (x).
f (u1 ) f (u2 ) ··· f (up )
 
Matrice d’application linéaire v1 a11 a12 ··· a1p
v2  a21
 a22 ··· a2p 
A= .  .

..  .. .. .. .. 
Soit f ∈ L(E, F ). . . . 
E est muni de la base BE = {u1 , u2 , · · · , up } : vn an1 an2 ··· anp
dim(E) = p

18
 
+ + + A a pour dimension (n, p) : x1
 x2 
de X =  . 
 
♥ Le nombre de lignes de A est donné par la dimension  .. 
de F. xp
♥ Le nombre de colonnes de A est donné par la di- f (x) = x1 f (u1 ) + x2 f (u2 ) + · · · + xp f (up ) =
mension de E. x1 (a11 v1 + a21 v2 + · · · + an1 vn ) + x2 (a12 v1 + a22 v2 +
· · · + an2 vn ) + xp (a1p v1 + a2p v2 + · · · + anp vn ) car f
♥ Les colonnes de A sont les coordonnées des vecteurs est une application linéaire.
f (uj ) dans la base {v1 , v2 , · · · , vn }

Exemple 2.1. Considérons l’application linéaire sui- On regroupe les termes en fonction de v1 , v2 , · · · , vn .
f : R3 → R2 f (x) = (x1 a11 +x2 a12 +· · ·+xp a1p )v1 +(x1 a21 +x2 a22 +
vante : · · · + xp a2p )v2 + · · · + (x1 an1 + x2 an2 + · · · + xp anp )vn .
(x1 , x2 , x3 ) 7→ (x1 − x2 , 2x2 + 3x3 )
Déterminer la matrice associée à f relativement aux Or f (x) = y1 v1 + y2 v2 + · · · + yn vn , et donc par
bases canoniques de R3 et R2 . identification des deux expressions de f (x) , il vient :

Image d’un vecteur x de E par f 


 y1 = x1 a11 + x2 a12 + · · · + xp a1p

 y2 = x1 a21 + x2 a22 + · · · + xp a2p

Soit f ∈ L(E, F ). E est muni de la base BE = .. .. ..
u1 , u2 , · · · , up et F est muni de la base BF = 

 . . .
yn = x1 an1 + x2 an2 + · · · + xp anp

{v1 , v2 , · · · , vn }. Soit A = (aij ) la matrice associée à
f relativement aux bases BE et BF .
Soit x un vecteurde  E x = x1 u1 + x2 u2 + · · · + xp up .
En utilisant la matrice A de dimension (n, p), il
x1
 x2  vient : Y = AX .
On appelle X =  . 
 
 ..  Exemple 2.2. Considérons la matrice suivante as-
sociée à f relativement aux bases canoniques de R3
xp
f : R3 → R2
la matrice colonne des coordonnées du vecteur x et R2 :
(x1 , x2 , x3 ) 7→ (x1 − x2 , 2x2 + 3x3 )
dans BE .
Calculer l’image de x = (1, −1, 1) par f .
Soit y = f (x) , l’image de x par f : y  ∈ F⇒ y =
y1
 y2  Lien entre opérations sur les applica-
y1 v1 + y2 v2 + · · · + yn vn . On appelle Y =  .  la ma-
 
 ..  tions linéaires et opérations sur les ma-
yn trices
  dans BF .
trice colonne des coordonnées du vecteur y
y1 On suppose dans tout ce paragraphe que E est un
 y2 
⇒ L’objectif est d’exprimer Y =  .  en fonction
  espace vectoriel muni de la base BE = {u1 , u2 , · · · , up }
 ..  et que F est un espace vectoriel muni de la base BF =
yn {v1 , v2 , · · · , vn }

19
Addition de deux applications linéaires Composition d’application

Proposition 2.1.
Soient f, g ∈ L(E, F ). Soient Mf et Mg Proposition 2.3.
leurs matrices associées relativement aux Soint f : E → F et g : F → G. On sup-
bases BE et BF . Alors f + g : E → F pose E, F et G munis respectivement des
a pour matrice associée relativement aux bases BE , BF et BG . Soit Mf la ma-
bases BE et BF : Mf + Mg . trice associée à f relativement aux bases
BE et BF . Soit Mg la matrice associée à
g relativement aux bases BF et BG . Alors
h = g ◦ f admet Mg Mf comme matrice
Exemple 2.3. Considérons deux applications associée relativement aux bases BE et BG .
linéaires f et g définies comme suit : h : E → −
f
F →

g
G
f : R2 → R2 X 7→ Y = Mf X 7→ Z = Mg Y
(u1 , u2 ) 7→ (3u1 + u2 , u1 − u2 ) Z = Mg Y = Mg (Mf X) = (Mg Mf )X
g : R2 → R2
Calculer
(v1 , v2 ) 7→ (v1 + 2v2 , −3v1 + v2 )
la matrice associée à l’application linéaire f + g rela-
tivement à la base canonique de R2 .

+ La multiplication de deux matrices équivaut à la


composition de deux applications linéaires.
Multiplication par un scalaire
+ Le fait que la composition de deux applications
ne commute pas est liée à la non commutativité du
Proposition 2.2.
produit matriciel.
Soit f : E → F une application linéaire
ayant M pour matrice associée relative-
ment aux bases BE et BF . Soit λ ∈ K
, alors l’application linéaire λf a pour
matrice associée λM relativement aux
Exemple 2.5. Considérons deux applica-
mêmes bases BE et BF .
tions linéaires f et g définies comme suit :
f : R2 → R2
(u1 , u2 ) 7→ (3u1 + u2 , u1 − u2 )
f : R2 → R2
Exemple 2.4. g : R2 → R2
(u1 , u2 ) 7→ (3u1 + u2 , u1 − u2 )
Déterminer la matrice associée à l’application linéaire (v1 , v2 ) 7→ (v1 + 2v2 , −3v1 + v2 )
λf relativement à la base canonique de R2 , avec Déterminer la matrice de l’application linéaire
λ ∈ R. g ◦ f relativement à la base canonique de R2 .

20
Inverse d’une application linéaire représentent la même application linéaire lorsque l’on
change de bases pour E et F ?
Définition 2.3.
Soit E un espace vectoriel de dimension n muni
f ∈ L(E, F ) une application bijective et
de deux bases : BE = {u1 , u2 , · · · , un } et B 0 E =
f −1 ∈ L(F, E) son application réciproque.
{u01 , u02 , · · · , u0n } où BE est par convention l’ancienne
Soit Mf la matrice associée à f relative-
base et B 0 E la nouvelle base.
ment aux bases BE et BF . Alors la matrice
On pose u0j = p1j u1 + p2j u2 + · · · + pnj un avec
associée à f −1 relativement aux bases BF
j = 1, . . . , n. Ainsi les (pij ) avec i = 1, . . . , n sont
et BE est Mf−1 où Mf−1 est la matrice in-
les coordonnées des u0j de la base B 0 E dans la base
verse de Mf .
BE = {u1 , u2 , · · · , un }.

Proposition 2.4. Matrice de passage


Une application linéaire f est bijective
si et seulement si sa matrice associée Mf Définition 2.4.
On appelle matrice de passage de la base
relativement à deux bases quelconques est
BE à la base B 0 E , la matrice notée P
inversible.
dont les colonnes sont constituées des co-
ordonnées des vecteurs u0j de la base B 0 E
Exemple 2.6. Considérons l’ap- dans la base BE = {u1 , u2 , · · · , un }.
plication linéaire définie par :
f : R2 → R2
(u1 , u2 ) 7→ (v1 , v2 ) = (2u1 − u2 , u1 )
u01 u02 ··· u0n
Déterminer la matrice associée à f −1 .  
u1 p11 p12 ··· p1n
Proposition 2.5. u2 
 p21 p22 ··· p2n 
P = ..  .. .. .. 

Une application linéaire f est bijective si ..
.  . . . . 
et seulement si il existe des bases BE et un pn1 pn2 ··· pnn
BF telles que det(Mf ) 6= 0 où Mf est la
matrice de f relativement aux bases BE et + La matrice P est nécessairement une matrice
BF . carrée d’ordre égal à la dimension de E.
+ P est en fait, la matrice associée à l’application
linéaire identité IdE relativement aux bases B 0 E et BE .

Changement de base et application Proposition 2.6.


linéaire Une matrice de passage est toujours inver-
sible.
+ + + Problématique + + +
Changement de base pour un vecteur
La matrice d’une application linéaire f est toujours
construite relativement à un choix de bases dans Soit x de coordonnées (x1 , x2 , · · · , xn )
E et dans F . Comment relier deux matrices qui (les ”anciennes” coordonnées) dans la base

21
BE = {u1 , u2 , · · · , un } et de coordonnées Changement de base pour une application linéaire
(x01 , x02 , · · · , x0n ) (les ”nouvelles” coordonnées) dans la
base B 0 E = {u01 , u02 , · · · , u0n } On note X la matrice Théorème 2.1.
colonne des coordonnées (x1 , x2 , · · · , xn ) de x dans Soit f ∈ L(E, F ) une application linéaire.
BE . Soient BE = {u1 , u2 , · · · , un } et B 0 E =
On note X 0 la matrice colonne des coordonnées {u01 , u02 , · · · , u0n } deux bases de E.
(x01 , x02 , · · · , x0n ) de x dans B 0 E . Soient BF = {v1 , v2 , · · · , vp } et B 0 F =
Il est facile de déterminer les relations entre les (xj ) {v10 , v20 , · · · , vp0 } deux bases de F .
et les (x0j ) à l’aide de la matrice de passage P : On note P la matrice de passage de
BE = {u1 , u2 , · · · , un } vers B 0 E =
X = P X 0 c’est à dire X 0 = P −1 X
{u01 , u02 , · · · , u0n }
=⇒ On pourra retenir la petite phrase :
On note Q la matrice de passage de
les anciennes = P × les nouvelles
BF = {v1 , v2 , · · · , vp } vers B 0 F =
{v10 , v20 , · · · , vp0 }.
Si Mf est la matrice de l’application f re-
lativement aux bases BE et BF , alors Mf0
la matrice de f relativement aux bases B 0 E
et B 0 F est donnée par :
Mf0 = Q−1 Mf P

Corollaire 2.1.
Soit f ∈ L(E, E) , un endomorphisme
de E, et BE = {u1 , u2 , · · · , un } , B 0 E =
{u01 , u02 , · · · , u0n } deux bases de E. Soient
Mf la matrice de f relativement à la base
BE et Mf0 la matrice de f relativement à
la base B 0 E . On a alors Mf0 = P −1 Mf P .

 
0 Exemple 2.8. f ∈ L(R3 , R2 ) , une application
Exemple 2.7. On considère X = −1 la ma- linéaire dont la matrice relativement  aux bases ca-
2 3 2 3 −1 1
noniques de R et R est Mf = Soit
trice des coordonnées de x dans la base canonique 0 2 0
B = {e1 , e2 , e3 } de R3 . Soit B 0 = {e01 , e02 , e03 } une autre
 
3 2 −2
base de R3 . P = −1 0 1  , la matrice de changement de
e01 = 3e1 − e2 + e3 , e02 = 2e1 + e3 et e03 = −2e1 + e2 . 1 1 0
Calculer les coordonnées de x dans la base B 0 = base de l’exemple précédent. Déterminer la matrice Mf0
{e01 , e02 , e03 }. de l’application linéaire f dans la nouvelle base.

22
Matrices semblables
Définition 2.5.
On dit que deux matrices carrées A et B de
même ordre sont semblables s’il existe une
matrice P inversible telle que B = P −1 AP
. Les matrices A, B, P ont même dimen-
sion. On note A ∼ B .

Propriétés 2.5.1. Soient A, B et C trois matrices


carrées d’ordre n :
(i) A ∼ B ⇔ B ∼ A
(ii) A=B ⇒ A ∼ B avec P = In
(iii) Si A ∼ B et B ∼ C alors A ∼ C

Conséquence :
Dans le corollaire du paragraphe précédent, les ma-
trices Mf et Mf0 sont semblables. Ainsi, deux matrices
sont semblables si elles représentent la même applica-
tion linéaire, mais dans des bases différentes.

23
Chapitre 3

Résolution de systèmes d’équations linéaires

Introduction aux systèmes d’équations Exemple 3.2. Les équations suivantes ne sont pas
des équations linéaires : 2x + y 2 = 1 ; y = sin(x) ;
linéaires √
x = y.
L’équation d’une droite dans le plan (xy) s’écrit : Définition 3.1. De maniére générale, on appelle
équation linéaire dans les variables x1 , · · · , xn toute
a1 x + a2 y = b
relation de la forme
où a1 ; a2 et b sont des paramétres réels. Cette équation
a1 x1 + · · · + an xn = b (3.1)
s’appelle équation linéaire dans les variables (ou incon-
nues) x et y. où a1 , · · · , an et b sont des nombres réels.
Il importe d’insister ici que ces équations linéaires
sont implicites, c’est-à-dire qu’elles décrivent des re-
lations entre les variables, mais ne donnent pas direc-
tement les valeurs que peuvent prendre les variables.
Résoudre une équation signifie donc la rendre ex-
plicite, c’est-à-dire rendre plus apparentes les valeurs
que les variables peuvent prendre.
Une solution de l’équation linéaire (3.1) est un n-
uplet s1 , · · · , sn de valeurs des variables x1 , · · · , xn qui
satisfont à l’équation (3.1). Autrement dit

a1 s1 + · · · + an sn = b

Par la suite, nous étudierons l’ensemble des solutions


d’une équation linéaire.
Exemple 3.3. Trouvons l’ensemble des solutions de
l’équation
Exemple 3.1. x1 − 4x2 + 13x3 = 5.

24
Nous donnons des valeurs arbitraires s et t à x2 et (2) Les droites d1 et d2 sont parallèles. Alors le
x3 respectivement et résolvons l’équation par rapport à système est incompatible et n’a pas de solution.
x1 : La figure (3.2) illustre cette situation.
x2 = s ; x3 = t et x1 = 4s − 13t + 5. (3) Les droites d1 et d2 sont confondues et, dans ce
L’ensemble des solutions est alors cas, le système a une infinité de solutions. La fi-
x1 = 4s − 13t + 5 ; x2 = s ; x3 = t gure (3.3) illustre cette situation.
où s et t sont des nombres réels quelconques.
Nous verrons plus loin que ces trois cas de figures
Définition 3.2. Un ensemble fini d’équations (aucune solution, une seule solution, une infinité de
linéaires dans les variables x1 , · · · , xn s’appelle un solutions) sont les seuls cas qui peuvent se présenter
système d’équations linéaires. Tout n-uplet de nombres pour n’importe quel système d’équations linéaires.
s1 , · · · , sn satisfaisant chacune des équations s’appelle
solution du système d’équations linéaires.
Exemple
 3.4. Le système
x1 − 3x2 + x3 = 1
−2x1 + 4x2 − 3x3 = 9
admet comme solution x1 = −18 ; x2 = −6 ; x3 = 1
Par contre x1 = 7 x2 = 2 x3 = 0
ne satisfait que la première équation. Ce n’est donc
pas une solution du système.
Définition 3.3. Un système d’équations est dit in-
compatible ou inconsistant s’il n’admet pas de so-
lutions.

x1 + x2 = 1
Exemple 3.5. Le système Figure 3.1 – Droites se coupant en un seul point
2x1 + 2x2 = 1
est clairement incompatible.
Considérons le système

a11 x1 + a12 x2 = b1
Systèmes linéaires et matrices
(3.2)
a21 x1 + a22 x2 = b2
Considérons un système quelconque de n équations
avec a11 a12 6= 0 et a21 a22 6= 0. à p inconnues,
Ces deux équations représentent deux droites d1 et d2 
a11 x1 + a12 x2 + · · · + a1p xp = b1
dans le plan x1 x2 et une solution du système est un


 a21 x1 + a22 x2 + · · · + a2p xp = b2

point (s1 , s2 ) qui est sur les deux droites. Trois cas se .. .. .. (3.3)
présentent alors : 

 . . .
an1 x1 + an2 x2 + · · · + anp xp = bn

(1) Les droites d1 et d2 se coupent en un seul
point. Dans ce cas, illustré par la figure (3.1), le où le nombre réel aij est le coefficient de la j ème incon-
système (3.2) a une seule solution. nue dans la ième équation.

25
(Matrice augmentée) : Nous obtenons la
matrice augmentée associée au système
en ”oubliant” les variables xi et les
signes ”+” et ”=”. La matrice aug-
mentée
 associée au système  (3.3) est alors
a11 a12 · · · a1p b1
 a21 a22 · · · a2p b2 
 
 .. .. .. .. .. 
 . . . . .
an1 an2 · · · anp bn

Exemple
 3.6. Considérons le système linéaire
 x1 + x2 + 7x3 = −1
2x1 − x2 + 5x3 = −5
Figure 3.2 – Droites parallèles
−x1 − 3x2 − 9x3 = −5

 
1 1 7 −1
Sa matrice augmentée est  2 −1 5 −5
−1 −3 −9 −5

La méthode de base pour résoudre un système


d’équations linéaires est de remplacer le système par
un autre, plus simple, ayant le méme ensemble de so-
lutions. Ceci se fait par une succession d’opérations,
appelées opérations élémentaires :
(1) multiplier une équation par une constante non
nulle ;
(2) permuter deux équations ;
(3) ajouter un multiple d’une équation à une autre
équation.
Les opérations (1), (2) et (3) ne changent pas
l’ensemble des solutions. Elles correspondent à des
Figure 3.3 – Droites confondues opérations élémentaires sur les lignes de la matrice aug-
mentée. Ces opérations sont les suivantes :
(1) multiplier une ligne par une constante non nulle ;
(2) permuter deux lignes ;
(3) ajouter un multiple d’une ligne à une autre ligne.
Définition 3.4.

26
 
Exemple 3.7. Utilisons ces opérations 1 1 0 6
élémentaires
 pour résoudre le système suivant. `2 → `2 − 3`3 0 1 0 4 
 x + y + 7z = −1 0 0 1 −1
2x − y + 5z = −5  

−x − 3y − 9z = −5 1 0 0 2
`1 → `1 − `2 0 1 0 4 
Nous calculons la matrice 
augmentée associée au
 0 0 1 −1
1 1 7 −1
Cette matrice augmentée correspond au système
système :  2 −1 5 −5 
x = 2
−1 −3 −9 −5

y = 4
puis faisons les opérations élémentaires nécessaires 
z = −1
sur le système et sur la matrice augmentée. Les étapes
On obtient ainsi l’unique solution su système : x = 2,
sont les suivantes:
= −1 y = 4 et z = −1.
 x + y + 7z
`2 → `2 − 2`1 −3y − 9z = −3
−x − 3y − 9z = −5

 
1 1 7 −1
Cet exemple est généralisé dans le paragraphe sui-
`2 → `2 − 2`1  0 −3 −9 −3
vant.
−1 −3 −9 −5
Nous remarquons que les opérations élémentaires
peuvent être faites uniquement sur la matrice aug-
mentée pour revenir à la fin au système d’équations.
C’est ce que nous
 faisons dans la suite.
1 1 7 −1
`3 → `3 + `1 0 −3 −9 −3 Elimination Gaussienne
0 −2 −2 −6
 
1 1 7 −1
1 Il s’agit d’une méthode qui permet de trouver
`2 → − `2 0 1 3 1
3 l’ensemble des solutions de n’importe quel système
0 −2 −2 −6
  d’équations linéaires. La méthode consiste à mettre
1 1 7 −1 la matrice augmentée du système sous une forme
`3 → `3 + 2`2 0 1 3 1  simple, dite forme échelonnée (réduite) par une série
0 0 4 −4 d’opérations élémentaires (1), (2), (3) de (3.2). Com-
  mençons par poser la définition suivante :
1 1 7 −1
1
`3 → − `3 0 1 3 1 
4
0 0 1 −1
 
1 1 0 6 Définition 3.5. Matrice échelonnée : Une
`1 → `1 − 7`3 0 1 3 1  matrice est appelée matrice échelonnée
0 0 1 −1 si elle a les propriétés suivantes :

27
(i) Dans toute ligne non nulle, le premier Définition 3.6.
élément non nul vaut 1. Il est appelé (Matrice échelonnée réduite). Si, en
le 1 directeur. plus des propriétés (i)-(iii) ci-dessus,
(ii) Les lignes dont tous les éléments sont la matrice satisfait la propriété (iv) ci-
nuls sont regroupées en bas de la ma- dessous, on parle de matrice échelonnée
trice. réduite :
(iv) Toute colonne contenant un 1 direc-
(iii) Dans deux lignes successives teur a des zéros partout ailleurs.
(contiguës) ayant des éléments
non nuls, le 1 directeur de la ligne
inférieure se trouve à droite du 1 Exemple 3.9. La matrice
directeur de la ligne supérieure.  
1 0 0 −3
0 0 1 1 
Exemple 3.8. La matrice 0 0 0 0
 
0 1 −3 −6 0 est échelonnée réduite, alors que la matrice
1 3 1 0 2  
0 0 1 1 7 1 0 1 2
0 0 1 1
satisfait la propriété (i) mais pas la propriété (iii), 0 0 0 0
alors que la matrice suivante
  est sous forme échelonnée non réduite (à cause de la
0 −3 1 3ème colonne).
1 −1 0 On peut transformer n’importe quelle matrice en une
matrice échelonnée (réduite) en utilisant l’algorithme
ne satisfait pas la propriété (i). En revanche, la ma- de Gauss.
trice   L’algorithme d’élimination de Gauss permet
0 1 7 −6 de transformer n’importe quelle matrice sous sa
0 0 0 1 
forme échelonnée réduite à l’aide des opérations
0 0 0 0 élémentaires (1)-(3) de (3.2).
satisfait (i), (ii) et (iii) : elle est donc sous forme
échelonnée. Finalement, la matrice
Résolution d’un système linéaire
 
0 0 1 −1 −1
0 1 0 0 Après avoir mis la matrice augmentée du système
3
sous forme échelonnée réduite, on procède selon les
0 0 0 0 0
deux étapes suivantes.
satisfait (i), (ii) mais pas (iii). (1) Donner une valeur arbitraire à chaque variable
On peut raffiner un peu la définition précédente en po- dont la colonne ne contient pas de 1 directeur.
sant : Ces variables sont les variables libres.

28
(2) Résoudre chaque équation en exprimant la va- Un système (S) quelconque peut s’écrire
riable correspondant au 1 directeur, appelée va- sous la forme abrégée :
riable directrice, en fonction des autres variables.
p
X
aij xj = bi, ∀i = 1, . . . , n
j=1
Une autre manière de résourdre un système consiste à
ou sous la forme matricielle AX =  B
utiliser la méthode de Cramer. Elle est utilisée que b1
lorsque qu’il y a unicité de solution. Cette méthode  b2 
sera l’objet du paragraphe suivant. avec A = (aij )1≤i≤n,1≤j≤p , B =  . 
 
 .. 
bn
 
x1
 x2 
et X ==  . 
 
Définition 3.7.  .. 
On appelle système linéaire un
xp
système (3.4) de n équations linéaires à
p inconnues dans R qui s’écrit sous la
forme :


 a11 x1 + a12 x2 + · · · + a1p xp = b1
 a21 x1 + a22 x2 + · · · + a2p xp = b2

.. .. ..


 . . . Exemple 3.10. Le système (S) suivant est un système

an1 x1 + an2 x2 + · · · + anp xp = bn linéaire
 de 3 équations à 4 inconnues x, y, z, t :
(3.4)  x−y+z+t = 2
où les coefficients aij et bi appartiennent (S) x + y − z + 2t = 1 ⇔ AX = B
y + 2z = 0

à R et où les xj sont les inconnues à va-  
leurs dans R , avec i = 1, . . . , n (le nombre     x
1 −1 1 1 2 y 
d’équations) et j = 1, . . . , p (le nombre
avec A = 1 1 −1 2 B = 1 X ==  z 

d’inconnues).
0 1 2 0 0
t

Définition matricielle de (3.4)


Définition de (S) par les applications linéaires

Définition 3.8.

29
Définition 3.9. # A est en fait la ma- Considérons f (u + w) : f (u + w) = f (u) + f (w) =
trice d’une application linéaire f ∈ v + o = v.
L(E, F ) , où :
E est un espace de dimension p Donc u + w est solution de (S).
(nombre d’inconnues de (S) =
nombre de colonnes de A)
On montrerait de même que tout vecteur u + λw
F un espace de dimension n (λ) est solution.
(nombre d’équations de (S) =
nombre de lignes de A).
+ Si v ∈ Imf et si f non bijective, alors (S)
# B est la matrice des coordonnées d’un
admet une infinité de solutions.
vecteur v ∈ F
# X est la matrice des coordonnées d’un > Si v ∈ Im(f ) et f bijective, alors nécessairement
vecteur u ∈ E dim(E) = dim(F ) (i.e. n=p) , et tout élément de F
Alors l’écriture matricielle peut se mettre possède un antécédent unique dans E : (S) admet
sous forme vectorielle : une seule et unique solution.

AX = B ⇔ f (u) = v
Exemple 3.11. Déterminer le nombre de solutions du
2x + y = 1
Recherche des solutions de (S) système (S)
x − 3y = 2
Si on considère l’expression vectorielle f (u) = v ,
la résolution du système (S) revient alors à chercher
tous les u satisfaisant cette équation, le vecteur v étant
connu a priori. Deux cas peuvent alors se présenter : Résolution de (S) par inversion de matrice
1. v ∈ Im(f ) et il admet au moins un antécédent
dans E ; le système (S) a des solutions ; On se place dans le cas où v ∈ Im(f ) et f bi-
2. v ∈ / Im(f ) et le système (S) est impossible à jective. Le système f (u) = v admet alors une so-
résoudre : il n’y a pas de solutions. lution [Link] f (u) = v ⇔ AX = B f étant
bijective,det(A) 6= 0 et A est inversible :AX =B ⇔
Ainsi (S) admet des solutions si et seulement si v ∈
X = A−1 B
Imf .
Le nombre de solutions dépend alors de la nature de
f :
Exemple 3.12. Résoudre le système
> Si v ∈ Im(f ) et si f non bijective, alors

2x + y = 1
Kerf 6= {0} (ceci est vrai uniquement si E et F (S) x − 3y = 2
ont même dimension).

Soit w 6= 0 tel que w ∈ Kerf . Alors f (w) = 0. + Les systèmes linéaires s’utilisent par conséquent
pour inverser des matrices.

30
La méthode de Cramer développant par rapport à la 1ère colonne.
Définition 3.10.
On appelle système de Cramer un
b1 a12 ··· a1n
système de n équations à n inconnues n
b2 a22 ··· a2n X
(n=p) dont la matrice est inversible ∆1 = .. .. .. .. = Xj1 bj en
(une solution unique), c’est-à-dire telle . . . . j=1
que ∆ = det(A) 6= 0. ∆ est appelé bn an2 · · · ann
déterminant du système. développant par rapport à la 1ère colonne.

Proposition 3.1.
∆1
Un système de Cramer admet toujours Donc x1 = , et par généralisation, on obtient :
une et une seule solution : ∆
n
∆i 1 X
xi = = Xj1 bj pour j = 1, . . . , n
1t ∆ ∆
X = A−1 B = (adj(A))B (3.5) j=1

∆i est le déterminant déduit de ∆ en remplaçant
Conséquences D’après la relation (3.5), on a : la ième colonne de ∆ par la colonne des ”seconds
membres” bj .
1t 1t
X= (Xij )B = (Xji )B
∆ ∆ Exemple 3.13. 1. Résoudre par la méthode de Cra-

   2x + y = 1
X11 X21 · · · Xn1 b1 mer le système (S)
x − 3y = 2
1  X12 X22 · · · Xn2   b2 
  
X=  .

. .. . . ..   ..  2. Résoudre de deux façons différentes le système
∆ . . . .  .  
 x + y + 2z = 1
X1n X2n · · · Xnn bn
(S1 ) 2x + y + 2z = 2 Résolution par inver-
Xij étant le cofacteur associé à aij , avec 
2x + 3y + z = 1
i, j = 1, . . . , n. sion de matrice et Résolution par la méthode de
La première ligne de la relation (3.5) est : Cramer
n
1 X
x1 = Xj1 bj

j=1 ”Cas embêtants”
n
X
Xj1 bj n’est autre que le déterminant d’ordre n
Les ”cas embêtants” sont ceux pour lesquels, soit
j=1 v ∈ Im(f ) (pas de solution), soit v ∈ Im(f ) mais f non
obtenu en remplaçant dans ∆ , la première colonne bijective (une infinité de solutions). Nous traiterons ces
par la matrice colonne B. deux cas à partir de deux exemples.
En effet :
a11 a12 · · · a1n
n Exemple3.14. 1. Résoudre
a21 a22 · · · a2n
 x + y + 3z + 5t = 1
X
∆ = .. .. .. .. = Xj1 aj1 en
. . . . j=1 (S2 ) x + 2y + 5z + 9t = 2
an1 an2 · · · ann 2x + 3y + 8z + 14t = 1

31

 x−y+z = 1 alors mij représente le nombre d’unités produites par
2. Résoudre (S3 ) 2x + y + 2z = 2 l’industrie Si et consommées par industrie Sj . Alors, le
−x + 3y − z = −1

nombre total d’unités produites par l’industrie Si est
donné par :

Application au modèle entrée-sortie de pi = p1 mi1 + p2 mi2 + · · · + pn min .


Leontief Afin d’avoir une économie équilibrée, la production
totale de chaque industrie doit être égale à sa consom-
Afin de comprendre et pouvoir manœuvrer
mation
 totale. Ceci donne le système linéaire :
l’économie d’un pays ou d’une région, on doit fournir
m11 p1 + m12 p2 + · · · + m1n pn = p1
un certain modèle basé sur les divers secteurs de cette


 m21 p1 + m22 p2 + · · · + m2n pn = p2

économie. Le modèle de Leontief est une tentative .. .
dans cette direction. Fondé sur l’hypothèse que chaque 

 . = ..
mn1 p1 + mn2 p2 + · · · + mnn pn = pn

industrie dans l’économie a deux types de demandes :
une demande externe (de l’extérieur du système) et Si  
une demande interne (une demande placée sur une m11 m12 · · · m1n
industrie par des autres industries dans le même  m21 m22 · · · m2n 
A =
 
système), le modèle de Leontief représente l’économie  .. .. .. .. 
 . . . . 
comme un système des équations linéaires. Le modèle mn1 mn2 · · · mnn
de Leontief a été inventé dans les années 30 par
professeur Wassily Leontief qui a développé un modèle alors le système  ci-dessus
 peut être écrit comme
de l’économie des Etats-Unis en la divisant en 500 p1

secteurs économiques. En octobre 18, 1973, professeur AP = P où P =  p2  La matrice A s’appelle la


 
 .. 
Leontief a été attribué le prix Nobel d’économie pour .
son effort. pn
matrice d’entrée-sortie du système. Nous recher-
Le modèle fermé de Leontief : Considérez chons alors un vecteur P avec des composantes non
une économie se composant de n industries in- négatives satisfaisant AP = P et au moins une de ses
terdépendantes (ou des secteurs) S1 , · · · , Sn . Cela si- composantes est positive.
gnifie que chacune de ces industries consomme cer-
taines des marchandises produites par les autres in- Exemple 3.15. Supposez que l’économie d’une cer-
dustries, y compris elle-même (par exemple, une usine taine région dépend de trois industries : service,
de production d’énergie utilise une partie de sa propre l’électricité et production de pétrole. En surveillant les
puissance pour sa production). Nous disons qu’une opérations de ces trois industries pendant une période
telle économie est fermée si elle satisfait à ses propres d’un an, on était capable de tirer les observations sui-
besoins ; c’est-à-dire, il n’y a pas d’échange de mar- vantes :
chandises avec l’extérieur du système. Appelons mij le 1. Pour produire une unité de service, le secteur des
nombre d’unités produites par l’industrie Si qui sont services doit consommer 0,3 unités de sa propre
nécessaires pour produire une unité d’industrie Sj . Si production, 0,3 unités de l’électricité et 0,3 unités
pk désigne le niveau de production de l’industrie Sk , du pétrole pour les besoins de ses opérations.

32
2. Pour produire une unité d’électricité, l’usine Naturellement, nous avons besoin ici que la matrice
génératrice de puissance doit acheter 0,4 unités I −A soit inversible, qui ne pourrait pas être toujours le
de service, 0,1 unités de sa propre production, et cas. Si, en outre, (I −A)−1 a des entrées non négatives,
0,5 unités du pétrole. alors les composantes du vecteur P sont non négatives
3. Finalement, la compagnie de production de pétrole et donc ils sont acceptables comme solutions pour ce
consomme 0,3 unités de service, 0,6 unités de modèle. Nous disons dans ce cas-ci que la matrice A
l’électricité et de 0,2 unités de sa propre produc- est productive.
tion pour produire une unité du pétrole.
Exemple 3.16. Considérez une économie ouverte
Trouvez le niveau de production de chacune de ces avec trois industries : une industrie minière pour pro-
industries afin de satisfaire les demandes externes duire de charbon, une usine de production d’électricité
et internes en supposant que le modèle ci-dessus est et une usine de fabrication-automobile. Pour produire
fermé ; c’est-à-dire, il n’y a pas d’échange de marchan- $1 de charbon, l’industrie minière doit acheter $0,1
dises avec l’extérieur du système. Prenez p3 = 100 ni- de sa propre production, $0,30 de l’électricité et une
veau de production pour la compagnie pétrolière. valeur $0,1 d’automobile pour son transport. Pour
produire $1 de l’électricité, il faut $0,25 de charbon,
Le modèle ouvert de Leontief : Le premier
$0,4 d’électricité et $0,15 d’automobile. Finalement,
modèle de Leontief traite le cas où il n’y a pas une
pour produire la valeur $1 d’automobile, l’usine de
échange de marchandises avec l’extérieur du système.
fabrication-automobile doit acheter $0,2 de charbon,
mais en réalité ceci ne se produit pas très souvent.
$0,5 de l’électricité et $0,1 d’automobile. Supposez
Habituellement, une certaine économie doit satisfaire
également que pendant une période d’une semaine,
une demande d’extérieur, parfois des industries ”non
l’économie a une demande extérieure de $50.000 du
productives” comme les organismes gouvernementaux.
charbon, $75.000 d’électricité, et $125.000 des auto-
Dans ce cas, soient di la demande de la ième industrie
mobiles. Trouvez le niveau de production de chacune
extérieure, pi , et mij comme dans le modèle fermé ci-
des trois industries dans cette période d’une semaine
dessus, alors
afin de satisfaire exactement les demandes internes et
pi = p1 mi1 + p2 mi2 + · · · + pn min + di . externes.

pour tout i. Ceci donne le système linéaire suivant Si vous aimez savoir plus au sujet de cette appli-
(écrit sous forme matricielle) : cation et de la vie et des accomplissements de W.
Leontielf, consultez les liens [6, 7].
P = AP + d
 
d1
 d2 
où P et A sont comme avant et d =  .  est le
 
 .. 
dn
vecteur demande.
Une façon de résoudre ce système est

P = AP +d ⇒ (I −A)P = d ⇒ P = (I −A)−1 d (3.6)

33
Chapitre 4

Réduction des endomorphismes


 
Soit E un espace vectoriel sur R et f un endomor- a11 0 ··· 0
phisme de E dans E.  0 a22 ··· 0 
B 0 E telle que  . .
 
E est muni de la base BE = {u1 , u2 , · · · , un }. .. .. ..
 .. . . . 
Comme nous l’avons vu au chapitre précédent, la 0 0 ··· ann
matrice associée à f : E → F relativement à la base Le problème consiste à :
BE est définie par les coordonnées des f (ui ) dans la
♠ Caractériser les endomorphismes diagonalisables,
base BE ; elle est notée Mf .
Soit B 0 E = {u01 , u02 , · · · , u0n } une autre base de E. ♠ Déterminer, si elles existent, la (ou les) base(s) dans
Soit P la matrice de passage de la base BE = la(les)quelle(s) la matrice Mf est diagonale.
{u1 , u2 , · · · , un } vers la base B 0 E = {u01 , u02 , · · · , u0n } : + + + L’intérêt de travailler avec des matrices
diagonales est la réalisation possible de certains cal-
culs comme par exemple det(Mf ), Mf−1 ou (Mf )k avec
k ∈ R.
u01 u02 ··· u0n
 
u1 p11 p12 ··· p1n
u2 
 p21 p22 ··· p2n  Vecteurs et valeurs propres
P = ..  .. .. .. 

..
.  . . . .  La clef de la diagonalisation est la notion de
un pn1 pn2 ··· pnn vecteur propre. On rappelle que ce chapitre
est consacré uniquement aux endomorphismes
où les pij sont les coordonnées des u0j dans la base BE . d’espaces vectoriels.
Dans le chapitre II, on a vu que la matrice Mf0 de f
dans la base B 0 E = {u01 , u02 , · · · , u0n } était définie par Définition 4.1. Soit f ∈ L(E, E). Un vecteur v ∈ E
M 0 = P −1 M P . est dit vecteur propre de f si :
f f
Dans ce chapitre, l’objectif est de chercher des bases (i) v 6= 0
de E pour lesquelles la forme de la matrice Mf soit la
(ii) ∃λ ∈ R tel que f (v) = λv
plus simple possible comme par exemple une matrice
Le scalaire λ est appelé valeur propre as-
diagonale.
sociée à v.
On dira que f est diagonalisable s’il existe une base

34
+++++++++ . Ceci signifie que les vecteurs ui sont en fait les
# Alors que les vecteurs propres sont non nuls par vecteurs propres vi .
définition (en particulier parce qu’ils serviront
ultérieurement à construire de nouvelles bases),
les valeurs propres peuvent être nulles. Ainsi, les Exemple
vecteurs (non nuls) de ker(f ) sont les vecteurs f : R2 → R2
propres associés à λ = 0 : ker(f ) = {0}. Rechercher
(u1 , u2 ) 7→ (u1 + u2 , u1 − u2 )
# Si v est un vecteur propre correspondant à la va- les vecteurs et valeurs propres de f.
leur propre λ, alors pour tout µ ∈ R (µ 6= 0),
µv est aussi un vecteur propre correspondant à la
même valeur propre λ. Il existe donc une infinité
Recherche des vecteurs propres
de vecteurs propres associés à une même valeur
Une fois les valeurs propres calculées, on détermine
propre.
les vecteurs propres en résolvant un système linéaire
=⇒ Ainsi, les vecteurs propres sont soit les vecteurs de la forme : (Mf − λIn )V = 0 où V est la matrice des
du noyau de f , soit les vecteurs qui restent colinéaires coordonnées d’un vecteur propre v = (v1 , v2 , · · · , vn )
sous l’action de f . associé à la valeur propre λ . 0 est la matrice des
coordonnées du vecteur nul 0 = (0, 0, · · · , 0). Soit
Théorème 4.1.
f : R2 → R2 l’endomorphisme dont la matrice
f ∈ L(E, E) est diagonalisable si et seule-  
ment si il existe une base de E formée de 2 1 2
relative à la base canonique de R est Mf = .
vecteurs propres. −1 4
Rechercher les vecteurs propres de f.

Démonstration. (⇐=) Si B 0 E = {v1 , v2 , · · · , vn } est =⇒ Une fois déterminés les vecteurs propres, on
une base formée des vecteurs propres correspon- peut vérifier qu’ils forment une base V =
dants aux valeurs propres λ1 , λ2 , · · · , λn on a : {v1 , v2 , · · · , vp } , et que la matrice associée à l’ap-
f (v1 ) = λ1 v1 , f (v2 ) = λ2 v2 ,· · · ,f (vn ) = λn vn plication linéaire relativement à cette base est dia-
Ainsi, la matrice de f dans cette base s’écrit Mf = 0 gonale avec :
 
λ1 0 · · · 0
 
λ1
 0 λ2 · · · 0   .. 

 .. .. . . ..  ; elle est donc diagonale.
  . 0 
. . . .  DV = 

λi

.
0 0 · · · λn
 
 . . 
 0 . 
(=⇒) Soit BE = {u1 , u2 , · · · , un } , une base telle λn
que
 la matrice Mf def soit [Link] =
m11 0 ··· 0 0 signifie qu’en dehors de la diagonale tous les co-
 0 m 22 · · · 0  efficients de DV sont nuls.
.. Alors on a f (u1 ) =
 
 .. .. . .
 . . . .  =⇒ La matrice de passage de la base BE =
0 0 · · · mnn {u1 , u2 , · · · , un } à la base des vecteurs propres
m11 u1 , f (u2 ) = m11 u2 ,· · · ,f (un ) = mnn vn V = {v1 , v2 , · · · , vp } est construite en mettant en

35
colonne les coordonnées des vecteurs propres as- Démonstration. Soeint α, β ∈ R. Soeint v1 , v2 ∈ Eλ .
sociés à chacune des valeurs propres : 1. Eλ = {v ∈ E/f (v) = λv} est bien une partie de
E;
P = (v1 |v2 | · · · |vp )
2. Eλ est non vide, puisque si f est diagonalisable,
=⇒ Les matrices Mf de f relativement à la base BE = alors il existe des vecteurs propres.
{u1 , u2 , · · · , un } et DV relativement à la base de 3. Montrons que αv1 + βv2 ∈ Eλ :
vecteurs propres V = {v1 , v2 , · · · , vp } sont sem- f (αv1 + βv2 ) = αf (v1 ) + βf (v2 ) par linéarité de f.
blables : DV = P −1 Mf P . f (αv1 + βv2 ) = α(λv1 ) + β(λv2 ) = λ(v1 + v2 ) car
+ + + L’ordre des valeurs propres dans DV v1 et v2 sont des vecteurs propres de f associés à
dépend de l’ordre des vecteurs propres dans P , la ma- λ.
trice de passage dans la base des vecteurs propres. Par conséquent αv1 + βv2 ∈ Eλ .
Généralement, on classe les valeurs propres par ordre
décroissant. + + + L’ensemble des valeurs propres
d’un endomorphisme f est appelé le spectre de f et Proposition 4.2.
est noté Spec(f ). Soient λ1 , λ2 , · · · , λp des valeurs propres
deux à deux distinctes de f ∈ L(E, E) dia-
gonalisable. Alors les sous-espaces propres
Exemple
Eλ1 , Eλ2 , · · · , Eλp sont en somme di-
En reprenant l’exemple précédent, montrer que les recte.
vecteurs propres de f forment bien une base V =
{v1 , v2 } . Déterminer alors MV la matrice associée à Cette proposition signifie que si V1 , V2 , · · · , Vn sont
p
f relativement à cette base. [
des bases de Eλ1 , Eλ2 , · · · , Eλp alors V = Vi est une
i=1
Caractérisation des endomorphismes famille libre de E (non nécessairement génératrice).
+ + + La somme directe des espaces propres n’est
diagonalisables
pas forcément E tout entier. Ce n’est effectivement le
Définition 4.2. cas que si : dim(Eλ1 ) + dim(Eλ2 ) + · · · + dim(Eλp ) ≤
Soit f ∈ L(E, E) diagonalisable. Soit λ ∈ dim(E).
R une valeur propre de f. On note Eλ = =⇒ C’est tout le problème de la diagonalisation.
{v ∈ E/f (v) = λv}. Eλ est un sous-espace Théorème 4.2. Soit f ∈ L(E, E). Alors f est diago-
vectoriel de E appelé sous-espace propre nalisable si et seulement si :
associé à λ.
1. Pf (λ) = (−1)n (λ − λ1 )α1 (λ −
Proposition 4.1. λ2 )α2 · · · (λ − λp )αp avec
Soient f un endomorphisme diagonalisable λ1 , λ2 , · · · , λp ∈ R et α1 + α2 +
de E et λ ∈ R une valeur propre de f. Alors · · · + αp = n
le sous-espace propre Eλ associé à λ est un 2. Pour chaque valeur propre λi de mul-
sous-espace vectoriel de E. tiplicité αi , on a : dim(Eλi ) = αi

36
+ Le polynôme Pf est appelé polynôme ca- diagonale et P inversible telles que D = P −1 M P avec :
ractéristique de f.  
λ1
 .. 
Corollaire 4.1.

 . 0 

f est diagonalisable si et seulement si D=  λi 

dim(E) = dim(Eλ1 ) + dim(Eλ2 ) + · · · +  .. 
 0 . 
dim(Eλp ) λn
où les λi sont les valeurs propres de f . On rappelle que
les colonnes de P sont les vecteurs propres associés à
Exemple chacune des valeurs propres : P = (v1 |v2 | · · · |vp ).
Par ailleurs D = P −1 M P ⇔ M = P M P −1 . En effet :
Soit f : R3 → R3 l’endomorphisme dont la
matrice relative à la base canonique de R3 est Mf =
  D = P −1 M P
2 1 1 −1
⇔ DP −1 = P −1 M |P P
{z } en multipliant à droite par
1 2 1. Rechercher
In
1 1 2 P −1
les vecteurs et les valeurs propres de f, ainsi que les ⇔ DP −1 = P −1 M puisque P P −1 = In
sous-espaces propres associés. ⇔ P DP −1 = |P P −1
{z } M en multipliant à gauche par P
In
Corollaire 4.2.
⇔ P DP −1 = M puisque P P −1 = In
Si dim(E) = n et si f admet n valeurs
propres deux à deux distinctes, alors f est ♣ Calcul de la puissance 2 d’une matrice
diagonalisable. M = P DP −1
⇔ M 2 = (P DP −1 )(P DP −1 )
−1 −1
⇔ M2 = PD P | {z P} DP
In
Exemple DD P −1
⇔ M 2 = P |{z}
En revenant à l’exemple 3 de ce chapitre, on D2

démontre immédiatement que f est diagonalisable car f ⇔ M2 = P D2 P −1


est un endomorphisme de R2 , dim(R2 ) = 2 et f admet Or le calcul de D2 est simple puisque la matrice
deux valeurs propres simple λ1 = 3 et λ2 = 2 est diagonale :
 2 
λ1
 .. 
. 0
Application : calcul de la puissance
 
D2 = 
 
λ2i 
d’une matrice 
 ..


 0 . 
λ2n
Soit f ∈ L(E, E) diagonalisable et de matrice M
relativement à la base BE = {u1 , u2 , · · · , un }. f étant ♣ Calcul de la puissance k d’une matrice, k ∈ N :
diagonalisable, on sait qu’il existe deux matrices D M = P DP −1

37
⇔ M k = (P DP −1 ) × (P DP −1 ) × · · · (P DP −1 ) k
fois
In
−1 −1 −1 −1
⇔ Mk = PD P
| {z P} DP · · · P
| {z P} DP
In
· · D} P −1
⇔ M k = P |D ·{z
Dk
⇔ Mk
= P D P −1
k

avec :
λk1
 
 .. 
 . 0 
2
 
D =
 λki 

 .. 
 0 . 
λkn

Exemple
 
1 2
Soit M = . Calculer M k avec k ∈ N.
−1 4

38
Bibliographie

[1] Lebreton, Ph., 1977. ”Les oiseaux nicheurs


rhônalpins”. Atlas ornithologique Rhône-Alpes.
Centre Ornithologique Rhône-Alpes, Université
Lyon 1, 69621 Villeurbanne. Direction de la Pro-
tection de la Nature, Ministère de la Qualité de
la Vie. pp. 1–354
[2] Application de l’algèbre linéaire, [Link]
[Link]/~jkhoury/[Link], consulté le
18/02/2013
[3] Bienvenue sur ChronoMath , une chronologie
des MATHÉMATIQUES, [Link]
[Link]/, consulté le 18/02/2013
[4] Cours et exercices de mathématiques,
[Link] consulté
le 18/02/2013
[5] Sandrine Charles, mathématiques : outils de
la biologie, [Link]
mathsv/, consulté le 18/02/2013
[6] Wassily Leontief (life and achievements of
W. Leontielf) [Link]
het/profiles/[Link]
[7] [Link]
instruct/darnold/laproj/Fall2001/Iris/
[Link]
[8] Lara Thomas, Algèbre Linéaire, Bachelor 1ère
année 2008 - 2009 [Link]
cours/alglin0809/[Link]

39

Vous aimerez peut-être aussi