Cours
Cours
Anne Vaugon
d’après les notes de Rémi Leclercq et Michel Rumin
30 avril 2024
2
Ce cours reprend des notes de cours manuscrites de Rémi Leclercq qui doivent beaucoup au
cours de Michel Rumin.
Chapitre 1
Intégration
Ce cours comprend des rappels sur l’intégration des fonctions définies sur un intervalle (voir
S1), une présentation de l’intégrale double (pour les fonctions de deux variables) et de l’intégrale
triple (pour les fonctions de trois variables).
I × J = {(x, y) ∈ R2 , x ∈ I, y ∈ J}.
1 X
Sn (f ) = f (xk ).
n
k,xk ∈I
Théorème 1.1.2. Soit f : [a, b] → R continue, alors les sommes de Riemann Sn (f ) convergent
vers un nombre réel quand n → ∞. On appelle cette limite l’intégrale de f sur [a, b] et on la note
Z b
f (t)dt.
a
3
4 CHAPITRE 1. INTÉGRATION
f (x2 )
x2 x3 x4 x5 x6
0.5 1 1.5 2
3. si f change de signe, on découpe [a, b] en sous-intervalles sur lesquels f est de signe constant.
Remarque 1.1.3. La notion d’aire pour une partie de R2 n’est pas facile à définir en général (ce
n’est même pas toujours possible), l’intégrale permet ici de définir l’aire entre l’axe des abscisses
et le graphe d’une fonction continue (on verra plus tard comment traiter des cas plus généraux).
La notion d’aire obtenue ici coïncide avec la notion d’aire que vous connaissez déjà (pour un
rectangle, un triangle...) mais ce n’est pas évident : il faut prouver ce résultat !
1.1. RAPPELS DE DIMENSION 1 5
Remarque 1.1.4. L’interprétation de l’intégrale à l’aide de la notion d’aire est un bon point de
vue pour l’intuition, la compréhension de propriétés et la généralisation aux dimensions 2 et 3.
Ce point du vue est rarement utilisé pour faire des calculs (sauf pour les fonctions constantes).
En fait, c’est plutôt l’inverse : on utilise usuellement l’intégrale pour calculer des aires !
Rb
3. (Normalisation) a
1dt = (b − a)
4. (Linéarité) Si f, g : [a, b] → R sont continues et λ ∈ R alors
Z b Z b Z b
(f (t) + g(t))dt = f (t)dt + g(t)dt
a a a
Z b Z b
λf (t)dt = λ f (t)dt.
a a
On obtient alors la relation de Chasles sous une forme plus générale Si a, b, c ∈ I et f : I → R est
continue alors Z c Z b Z c
f (t)dt = f (t)dt + f (t)dt.
a a b
Rb
Remarque 1.1.6. La croissance de l’intégrale garantit que si f ≥ 0 alors a f (t)dt ≥ 0 (on
parle parfois de positivité de l’intégrale). Plus généralement, cette propriété permet d’encadrer
des intégrales. Par exemple, pour tout 1 ≤ t ≤ 2, on a 21 ≤ 1t ≤ 1. On en déduit
1 2
1 2
1 2
Z Z Z
= dt ≤ dt ≤ 1dt = 1.
2 1 2 1 t 1
et donc
0, 5 ≤ ln(2) ≤ 1
(en fait ln(2) ≃ 0, 69).
Exemple 1.1.11.
1. Soit 0 < a ≤ b et soit k ̸= −1, alors
Z b k+1 b
t bk+1 ak+1
t dt =
k
= − .
a k+1 a k+1 k+1
2. Soit a ≤ b, alors
Z b
b
cos(t)dt = [sin(t)]a = sin(b) − sin(a).
a
Cas particulier : a = 0 et b = 2π, on obtient
Z 2π
cos(t)dt = 0
0
sur le dessin les aires au-dessus et en dessous de l’axe des abscisses se compensent.
−1 0 1 2 3 4 5 6
−1
−2
1.1. RAPPELS DE DIMENSION 1 7
Mais, G est de classe C comme composée de fonctions C . Pour tout x ∈ [a, b], on a
1 1
k
X 1 X
≃n→∞ ρ(xk )Longueur([xk , xk+1 [) = ρ(xk ) = Sn (f ).
n
k,xk ∈I k,xk ∈I
Intuition : on remplace la barre continue par un nombre fini de points. Pour des points
x1 , . . . , xN de masse m1 , . . . , mN , le centre de gravité est donné par la formule
1
xG = (m1 x1 + . . . mN xN ).
m1 + · · · + mN
Dans le cas de la barre, on utilise les points xk dans I. On leur attribue pour masse ρ(xk )Longueur([xk , xk+1 [) =
ρ(xk )/n. On obtient alors pour valeur approchée de xG
1 X xk ρ(xk )
ρ(xk )
.
n
P
k,xk ∈I n k,xk ∈I
Comme dans le cas des fonctions en une variable, on va intégrer des fonctions continues.
Définition 1.2.2. Soit D ⊂ R2 , soit f : D → R. On dit que f est continue sur D si pour tout
(x0 , y0 ) ∈ D, f (x, y) → f (x0 , y0 ) quand (x, y) → (x0 , y0 ) dans D.
Comme pour les fonctions en une variable, on utilise rarement la définition pour montrer
qu’une fonction est continue. Les propriétés suivantes sont l’outil principal pour montrer la conti-
nuité.
10 CHAPITRE 1. INTÉGRATION
Propriété 1.2.3.
1. La classe des fonctions continue est stable par les opérations usuelles : si f, g : D → R sont
continues et λ ∈ R alors f + g, λf et f · g sont continues.
2. Si I ⊂ R et f : D → I et g : I → R sont continues alors g ◦ f est continue (rappel : pour
(x, y) ∈ D, (g ◦ f )(x, y) = g(f (x, y))).
3. Les polynômes en les coordonnées x et y sont continus.
Exemple 1.2.4.
— Les fonctions de l’exemple précédent sont continues sur leur domaine de définition (découle
de la continuité des polynômes et de la fonction inverse sur R∗ ).
— La fonction (x, y) 7→ sin(x2 + y 2 ) + ex+cos(y) est continue sur R2 (découle de la continuité
des polynômes sur R2 et des fonctions cos, sin et exp sur R).
— La fonction qui vaut 1 en (0, 0) et 0 ailleurs n’est pas continue sur R2 .
Remarque 1.2.5. Toutes les inégalités peuvent être mises sous la forme précédente (le sens des
inégalités, la présence de constantes, de membre des deux côtés de l’inégalité ne posent pas de
problème) : par exemple x2 + y 2 ≤ 1 équivaut à 1 − x2 − y 2 ≥ 0 ou encore x + 2 ≥ 2y équivaut à
x + 2 − 2y ≥ 0.
Pour tracer un domaine D défini par des inégalités
1. On trace les courbes correspondant aux cas d’égalité.
2. Pour chacune des courbes précédentes, on détermine quel(s) côté(s) nous intéresse (par
exemple en testant des points).
3. On garde l’intersection de toutes ces zones.
Exemple 1.2.6.
1.
D = (x, y) ∈ R2 , 0 ≤ y, 0 ≤ x ≤ 3, x + 2 ≥ 2y .
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 11
2.
D = (x, y) ∈ R2 , 1 ≤ x2 + y 2 ≤ 4, x + y ≥ 0 .
La condition précédente sur D autorise encore des domaines trop compliqués. Pour intégrer,
on va se restreindre à la classe des domaines réguliers.
Définition 1.2.7. Un domaine D est un domaine élémentaire vertical s’il est de la forme
v
6
a b
−2 0 2 4 6
12 CHAPITRE 1. INTÉGRATION
Exemple 1.2.8.
x+2
D = (x, y) ∈ R , 0 ≤ y, 0 ≤ x ≤ 3, x + 2 ≥ 2y =
2
(x, y) ∈ R , 0 ≤ x ≤ 3, 0 ≤ y ≤
2
.
2
n p o
D = (x, y) ∈ R2 , x2 + y 2 ≤ 4, y ≥ 0 = (x, y) ∈ R2 , −2 ≤ x ≤ 2, 0 ≤ y ≤ 4 − x2 .
Définition 1.2.9. Un domaine D est un domaine élémentaire horizontal s’il est de la forme
d
4
3
u
D
2
v
c
1
−2 −1 0 1 2 3 4 5 6 7
−1
Exemple 1.2.10.
n p o
D = (x, y) ∈ R2 , x2 + y 2 ≤ 4, x ≤ 0 = (x, y) ∈ R2 , −2 ≤ y ≤ 2, − 4 − y 2 ≤ x ≤ 0 .
Définition 1.2.11. Un domaine D est dit régulier s’il est décomposable en une union finie de
domaines élémentaires horizontaux ou verticaux.
k k+1 l l+1
Ck,l = , × , .
n n n n
Le point Mk,l est le point inférieur gauche du carré Ck,l . Le carré Ck,l est de taille 1
n × n1 .
Ck,l
Mk,l
Théorème 1.2.15. Soit D une domaine régulier de R2 . Soit f : D → R une fonction continue.
Alors les sommes de Riemann Sn (f ) convergent vers un nombre réel quand n → ∞. Cette limite
est l’intégrale double de f sur D notée
ZZ
f (x, y)dxdy.
D
2. (Normalisation) Si D = [a, b] × [c, d], D 1dxdy = (b − a)(d − c) (c’est l’aire du pavé D).
RR
Remarque 1.2.17. Une généralisation de la relation de Chasles sera vue un peu plus loin (mais
la situation est plus compliquée qu’en dimension 1).
Remarque 1.2.18. Comme en dimension 1, la croissance implique la positivité : si f ≥ 0 alors
(x, ≥ 0.
RR
D
f y)dxdy
Idée de la preuve. Toutes les propriétés hors normalisation sont vraies pour les sommes de Rie-
mann et elles passent à la limite. Détaillons la première propriété de linéarité. Soient f, g : D → R
continues. Alors, pour tout n ≥ 1,
1 X 1 X 1 X
Sn (f + g) = 2 f (Mk,l ) + g(Mk,l ) = 2 f (Mk,l ) + 2 g(Mk,l )
n n n
(k,l),Mk,l ∈D (k,l),Mk,l ∈D (k,l),Mk,l ∈D
= Sn (f ) + Sn (g).
En passant à la limite n → ∞, on obtient
ZZ ZZ ZZ
(f (x, y) + g(x, y))dxdy = f (x, y)dxdy + g(x, y)dxdy.
D D D
et donc ZZ ZZ
f (x, y)dxdy ≤ |f (x, y)|dxdy.
D D
Théorème 1.2.21. La définition d’aire ci-dessus est compatible avec les calculs d’aires des figures
géométriques usuelles (rectangles, triangles, parallélogrammes, disques...).
1 X
Sn (1) = 1 = Aire ∪(k,l),Mk,l ∈D Ck,l .
n2
(k,l),Mk,l ∈D
Et, d’une part, ∪(k,l),Mk,l ∈D Ck,l approche D et d’autre part limn→∞ Sn (1) → 1dxdy.
RR
D
alors
ZZ Z b Z b
Aire(D) = 1dxdy = (v(x) − u(x))dx = longueur(Dx )dx
D a a
v(x)
6
Dx
u(x)
4
a x b
−2 0 2 4 6
alors ZZ Z d Z d
Aire(D) = 1dxdy = (v(y) − u(y))dy = longueur(Dy )dy
D c c
où Dy = {(x, y), u(y) ≤ x ≤ v(y)} est la tranche horizontale associée à y.
Définition 1.2.23. On appelle courbe dans R2 l’image d’une application I → R2 de classe C 1 .
Théorème 1.2.24. Soit D un domaine régulier tel que D = D1 ∪ D2 avec D1 et D2 domaines
réguliers et D1 ∩ D2 contenu dans une courbe γ. Alors
Aire(D) = Aire(D1 ) + Aire(D2 ).
Les deux théorèmes précédents sont des cas particuliers du théorème de Fubini (voir sec-
tion 1.2.9) et de la propriété d’additivité de l’intégrale double (voir section 1.2.7).
Ces deux théorèmes nous permettent de calculer l’aire d’un domaine régulier en le décomposant
en domaines élémentaires.
Exemple 1.2.25. Soit f : [a, b] → R une fonction continue positive. Soit
D = (x, y) ∈ R2 , a ≤ x ≤ b, 0 ≤ y ≤ f (x) .
Alors Z b Z b
Aire(D) = (f (x) − 0)dx = f (x)dx.
a a
Et on retrouve bien que l’intégrale calcule l’aire sous la courbe représentative de f (quand f ≥ 0).
18 CHAPITRE 1. INTÉGRATION
D = (x, y) ∈ R2 , −2 ≤ y ≤ 1, y 2 + 2y ≤ x ≤ y + 2 .
Alors
1
1 1
9
3
y2
Z Z
y
Aire(D) = (y + 2 − y − 2y)dy =
2
−y − y + 2dy = − −
2
+ 2y = .
−2 −2 3 2 −2 2
On pourrait aussi décomposer en tranche verticales mais c’est plus difficile ! Bien réfléchir
avant de se lancer dans les calculs...
Pour f = 1, on retrouve la propriété d’additivité des aires par découpage. C’est l’équivalent
de la relation de Chasles en dimension 2.
Si on peut prouver que Sn (f, γ) → 0 quand n → ∞ pour γ une courbe, alors, par passage à la
limite dans l’égalité ci-dessus, on obtient le résultat voulu.
On commence par traiter le cas où γ est le graphe d’une fonction u : [a, b] → R, plus précisé-
ment γ = {(x, u(x)), x ∈ [a, b]}. Dans ce cas, pour tout xk , il y a au plus un carré Ck,l pour l ∈ Z
tel que Mk,l ∈ γ. On a donc au plus n(b − a) carrés Ck,l à prendre en compte dans le calcul de
la somme de Riemann.
Ainsi
1 X 1 X
|Sn (f, γ)| = f (Mk,l ) ≤ |f (Mk,l )|
n2 n2
(k,l),Mk,l ∈γ (k,l),Mk,l ∈γ
1 X b−a
≤ max |f | ≤ max |f | →n→∞ 0.
n2 γ n γ
(k,l),Mk,l ∈γ
Et on obtient bien le résultat voulu pour un graphe horizontal. La même preuve s’applique pour
un graphe vertical. Pour conclure, on découpe γ en courbe qui sont des graphes (horizontaux ou
verticaux).
Remarque 1.2.32. On vient de montrer que l’aire d’une courbe est nulle (ce qui est raisonnable).
Plus généralement, on dit qu’un domaine est négligeable si son aire est nulle.
20 CHAPITRE 1. INTÉGRATION
Définition 1.2.33. Le centre de gravité (ou centre de masse) d’une plaque D (qui est un domaine
régulier de plan R2 ) de densité ρ (qui est une fonction continue sur D) est le point (xG , yG ) ∈ R2
où
1
ZZ
xG = xρ(x, y)dxdy
Masse(D) D
1
ZZ
yG = yρ(x, y)dxdy
Masse(D) D
ce qu’on voulait.
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 21
Exemple 1.2.34. Le centre de gravité d’un disque homogène est son centre (voir plus loin pour
les calculs).
Le théorème d’additivité de l’intégrale par découpage se traduit de la façon suivante pour les
calculs de centre de gravité.
Proposition 1.2.35. Soit D = D1 ∪ D2 avec D1 ∩ D2 contenu dans une courbe et D, D1 et
D2 des domaines régulier. On note ρ la densité de la plaque D. Soit xG (D) l’abscisse du centre
de gravité de D, xG (D1 ) l’abscisse du centre de gravité de D1 et xG (D2 ) l’abscisse du centre de
gravité de D2 . Alors
1
xG (D) = (Masse(D1 )xG (D1 ) + Masse(D2 )xG (D2 ))
Masse(D)
Démonstration. Par additivité de l’intégrale par découpage
ZZ ZZ ZZ
xρ(x, y)dxdy = xρ(x, y)dxdy + xρ(x, y)dxdy
D D1 D2
Masse(D1 ) Masse(D2 )
ZZ ZZ
= xρ(x, y)dxdy + xρ(x, y)dxdy.
Masse(D1 ) D1 Masse(D2 ) D2
Ainsi ZZ
xρ(x, y)dxdy = Masse(D1 )xG (D1 ) + Masse(D2 )xG (D2 )
D
et on obtient la formule voulue.
Remarque 1.2.36. Il existe une formule analogue pour yG . On peut également généraliser cette
formule pour un découpage D = D1 ∪ D2 · · · ∪ DN .
Exemple 1.2.37. Soit C le disque de centre (0, 0) et de rayon R = 3, C ′ le disque de centre
(1, 0) et de rayon r = 1 et D = C \ C ′ . On voit D comme une plaque homogène de densité 1. On
veut calculer son centre de gravité.
Par la proposition précédente (on considère C comme une plaque homogène de densité 1)
1
xG (C) = (Masse(D)xG (D) + Masse(C ′ )xG (C ′ )) .
Masse(C)
On a
22 CHAPITRE 1. INTÉGRATION
v(x)
6
u(x)
4
a x b
−2 0 2 4 6
alors la fonction
Z v(x)
x 7→ f (x, y)dy
u(x)
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 23
alors la fonction
Z v(y)
y 7→ f (x, y)dx
u(y)
(dans notre cas, u est la fonction constante c et v la fonction constante d). Par linéarité de
l’intégrale (appliquée pour les deux égalités), on obtient
Z b Z d ! Z d ! Z !
ZZ b
f (x, y)dxdy = g(x) h(y)dy dx = h(y)dy g(x)dx .
D a c c a
On applique le théorème de Fubini pour calculer chacun des termes (les fonctions à intégrer sont
polynomiales donc continues). On obtient
2 3
8
ZZ Z Z
x2 dxdy = x2 dx 1dy = ·3=8
D 0 0 3
2 3
27
ZZ Z Z
y 2 dxdy = 1dx y 2 dy =2· = 18
D 0 0 3
2 3
4 9
ZZ Z Z
xydxdy = xdx ydy = · = 9.
D 0 0 2 2
On en déduit ZZ
(x + y)2 dxdy = 8 + 2 · 9 + 18 = 44.
D
3
D= (x, y) ∈ R2 , 0 ≤ x ≤ 2, 0 ≤ y ≤ − x + 3 .
2
On calcule ZZ
x2 dxdy.
D
La fonction (x, y) 7→ x2 est continue car polynomiale et D est un domaine élémentaire. On peut
donc appliquer le théorème de Fubini (avec tranches verticales). On obtient
Z 3 !
ZZ Z 2 − 2 x+3
x2 dxdy = x2 dy dx
D 0 0
!
Z 2 Z − 32 x+3
= x 2
1dy dx
0 0
2
2
3 3
Z
= x2 − x + 3 dx = − x4 + x3 = −6 + 8 = 2
0 2 8 0
R v(x)
Vague idée pour la preuve du théorème de Fubini. Soit g : [a, b] → R définie par g(x) = u(x)
f (x, y)dy.
On veut montrer que
ZZ Z b
f (x, y)dxdy = g(x)dx.
D a
Comme d’habitude, on échantillonne. On obtient
1 X 1 X
Sn (f ) = f (xk , yl ) = f (xk , yl )
n2 n2
(k,l),(xk ,yl )∈D (k,l),a≤xk ≤b,u(xk )≤yl ≤v(xk )
1 X 1 X
= f (xk , yl )
n n
k,a≤xk ≤b l,u(xk )≤yl ≤v(xk )
Pour k fixé,
1 X
f (xk , yl )
n
l,u(xk )≤yl ≤v(xk )
est une somme de Riemann pour y 7→ f (xk , y). En passant à la limite à xk fixé (attention, c’est
plus subtil qu’on pourrait le croire en première lecture), on obtient
Z v(xk )
f (xk , y)dy = g(xk ).
u(xk )
On obtient alors
1 X
Sn (f ) ≃ g(xk )
n
k,a≤xk ≤b
qui est encore une somme de Riemann. En passant à la limite (même remarque que ci-dessus),
on obtient ZZ Z b
f (x, y)dxdy = g(x)dx
D a
ce qu’on voulait.
Dans cette formule le terme ϕ′ (x) est là pour prendre en compte l’influence de ϕ sur les longueurs.
La dérivée d’une fonction mesure bien l’effet de cette fonction sur les longueurs car
ϕ(x + h) − ϕ(x)
ϕ′ (x) = lim
h→0 h
26 CHAPITRE 1. INTÉGRATION
et dans cette formule ϕ(x + h) − ϕ(x) donne la longueur (algébrique) ϕ([x, x + h]) alors que h est
la longueur de l’intervalle [x, x + h].
Dans le cas de l’intégrale double, on va considérer ϕ : ∆ → D une bijection C 1 et de réciproque
C . La notion de classe C 1 pour les fonctions de deux variables n’est pas au programme de ce
1
cours. Dans ce cours, on admet qu’on peut généraliser la définition en dimension 1. On appliquera
seulement la formule du changement de variable dans les cas très particulier qui sont détaillés
plus loin (et où il ne sera pas nécessaire de connaître la définition d’application C 1 ). Notons que
les applications polynomiales sont toujours C 1 .
Soit ϕ : ∆ → R2 une application C 1 . Pour tout (x, y) ∈ ∆, on pose Ch = [x, x + h] × [y, y + h]
et
Aire(ϕ(Ch ))
jϕ (x, y) = lim .
h→0 Aire(Ch )
La fonction jϕ est appelée le jacobien de ϕ. Le fait qu’une telle limite existe découle de la définition
d’application C 1 (on admet donc ce point). Le réel jϕ (x, y) mesure l’effet de ϕ sur les aires au
point (x, y).
Remarque 1.2.46. Il existe une formule permettant de calculer jϕ (x, y) en dérivant ϕ, elle est
hors programme de ce cours, mais vous la rencontrerez dans les années à venir...
Exemple 1.2.48.
1. Si λ = µ, ϕ est l’homothétie de rapport λ.
2. Cas λ = −1, µ = 1. Alors ϕ est la symétrie axiale d’axe (Oy).
3. Cas λ = 1, µ = −1. Alors ϕ est la symétrie axiale d’axe (Ox).
4. Cas λ = µ = −1. Alors ϕ est la symétrie centrale de centre O.
Proposition 1.2.49. (Changement de variable pour les dilatations) Soit ϕ une dilatation définie
par ϕ(x, y) = (λx, µy), soit f : D → R une application continue. Soit ∆ tel que ϕ(∆) = D. Alors
ZZ ZZ
f (λx, µy)|λµ|dxdy = f (u, v)dudv.
∆ D
Démonstration. On montre que jϕ (x, y) = |λµ|. La formule s’obtient alors directement par la
formule générale du changement de variables. On traite le cas λ > 0 et µ > 0. Soient (x, y) ∈ R2
et h > 0. Soit Ch = [x, x + h] × [y, y + h]. Alors
On a donc Aire(ϕ(Ch )) = |λ|νh2 . Et on conclut comme dans le cas précédent. Les autres cas sont
laissés en exercice.
Les changements de variables permettent d’exploiter les symétries du problème.
Exemple 1.2.50. Soit D le disque de centre O et de rayon 1, soit D+ de demi-disque contenu
dans le demi-plan supérieur et D− le demi-disque contenu dans le demi-plan inférieur. On a
D+ = {(x, y) ∈ R2 , x2 + y 2 ≤ 1 et y ≥ 0}
D− = {(x, y) ∈ R2 , x2 + y 2 ≤ 1 et y ≤ 0}
Alors ZZ ZZ ZZ
y 2 dxdy = y 2 dxdy + y 2 dxdy
D D+ D−
par linéarité de l’intégrale par découpage. Soit ϕ la symétrie axiale d’axe (Ox). On a, pour
tout (x, y) ∈ R2 , ϕ(x, y) = (x, −y). On a ϕ(D− ) = D+ . Ce résultat est clair géométriquement.
Détaillons une preuve calculatoire. Soit (x, y) ∈ R2 . On a
Ainsi ϕ−1 (D+ ) = D− et donc ϕ(D− ) = D+ . Par conséquent, par la formule du changement de
variable appliqué à ϕ : D− → D+ et à l’application f : (x, y) 7→ y 2 ,
ZZ ZZ
f (x, −y)dxdy = f (u, v)dudv.
D− D+
On en déduit ZZ ZZ
y 2 dxdy = v 2 dudv
D− D+
et donc ZZ ZZ ZZ
y 2 dxdy = 2 y 2 dxdy = 2 y 2 dxdy
D D+ D−
Soit ϕ la symétrie axiale d’axe (Oy). On a ϕ(x, y) = (−x, y) pour tout (x, y) ∈ R2 . On a ϕ(D) = D.
Ce résultat est clair géométriquement. Détaillons une preuve calculatoire. Soit (x, y) ∈ R2 . On a
ϕ(x, y) ∈ D ⇔ (−x)2 + y 2 ≤ R2
⇔ x2 + y 2 ≤ R 2
⇔ (x, y) ∈ D
28 CHAPITRE 1. INTÉGRATION
Ainsi ϕ−1 (D) = D et donc ϕ(D) = D. Par la formule du changement de variable appliqué à
ϕ : D → D et à l’application f : (x, y) 7→ x, on obtient
ZZ ZZ
f (−x, y)dxdy = f (u, v)dudv.
D D
On en déduit ZZ ZZ ZZ ZZ
− xdxdy = −xdxdy = ududv = xdxdy
D D D D
et donc ZZ
2 xdxdy = 0.
D
Ainsi xG = 0.
Exemple 1.2.52. Soit ϕ l’homothétie de rapport R > 0. On a ϕ(x, y) = (Rx, Ry) pour tout
(x, y) ∈ R2 . Soit D1 le disque de centre O et de rayon 1 et DR le disque de centre O et de rayon
R. Montrons par le calcul que ϕ(D1 ) = DR . Soit (x, y) ∈ R2 . On a
Autrement dit
R2 Aire(D1 ) = Aire(DR )
et on retrouve bien le lien entre l’aire d’un disque de rayon 1 et d’un disque de rayon R !
Isométries
Définition 1.2.53. Une isométrie est une application qui préserve les longueurs. Plus précisé-
ment ϕ : R2 → R2 est une isométrie si, pour tous P ∈ R2 et Q ∈ R2
Propriété 1.2.54. Si ϕ est une isométrie alors jϕ (x, y) = 1 pour tout (x, y) ∈ R2 .
Corollaire 1.2.55. Soit ϕ une isométrie. Soit f : D → R une application continue avec D
domaine régulier. Soit ∆ tel que ϕ(∆) = D. Alors
ZZ ZZ
f (ϕ(x, y))dxdy = f (u, v)dudv.
∆ D
Exemple 1.2.57. Le centre de gravité d’un disque homogène de densité 1 est son centre (on a
déjà traité le cas d’un disque centré en l’origine). Soit D′ le disque de centre (a, b) et de rayon R.
On a Aire(D) = Aire(D′ ). Soit ϕ la translation de vecteur (a, b), c’est-à-dire l’application définie
par (x, y) 7→ (x + a, y + b). Les translations sont des isométries. De plus ϕ(D) = D′ où D est le
disque de centre (0, 0) et de rayon R. On applique la formule du changement de variable à ϕ et
la fonction (u, v) 7→ u sur D′ pour obtenir
ZZ ZZ ZZ ZZ
ududv = (x + a)dxdy = xdxdy + adxdy = 0 + aAire(D).
D′ D D D
Comme la plaque est homogène de densité 1, sa masse est donnée par son aire. On obtient donc
1
xG (D′ ) = aAire(D) = a
Aire(D)
et l’abscisse du centre de gravité est bien l’abscisse du centre du disque. On fait un raisonnement
analogue pour l’ordonnée...
Coordonnées polaires
On considère l’application ϕ : [0, ∞[ × [−π, π] → R2 définie par
Cette application est C 1 . Soit Ω le plan R2 privé de l’axe réel négatif. On admet que l’application
ϕ est une bijection de ]0, ∞[ × ]−π, π[ dans Ω de réciproque C 1 .
θ2 − θ1 1
(πr22 − πr12 ) = (r22 − r12 )(θ2 − θ1 ).
2π 2
h 2rh2 + h3
Aire(ϕ(Ch )) = ((r + h)2 − r2 ) = .
2 2
On a Aire(Ch ) = h2 et donc
Aire(ϕ(Ch )) h
= r + →h→0 r.
Aire(Ch ) 2
30 CHAPITRE 1. INTÉGRATION
Corollaire 1.2.60. Soit f : D → R une fonction continue sur D domaine régulier de R2 . Soit
∆ un domaine régulier tel que ϕ(∆) = D. Alors
ZZ ZZ
f (r cos(θ), r sin(θ))rdrdθ = f (x, y)dxdy.
∆ D
On applique le théorème de Fubini (pour les fonctions séparables sur un pavé) et on obtient
Z R ! Z
π
R4 πR4
ZZ
(x + y )dxdy =
2 2 3
r dr dθ = 2π = .
D 0 −π 4 2
ou
D = (x, y, z) ∈ R3 , (x, z) ∈ ∆, u(x, z) ≤ y ≤ v(x, z)
ou
D = (x, y, z) ∈ R3 , (y, z) ∈ ∆, u(y, z) ≤ x ≤ v(y, z)
(0, h)
(R, 0)
Dans les coordonnées (r, z), la droite reliant (R, 0) et (0, h) a pour équation z = − R
h
r + h.
Donc dans les coordonnées (r, z), le triangle a pour description
h
(r, z) ∈ R2 , 0 ≤ r ≤ R, 0 ≤ z ≤ h − r .
R
On en déduit que
hp 2
C= (x, y, z) ∈ R , (x, y) ∈ D, 0 ≤ z ≤ h −
3
x +y .
2
R
Définition 1.3.5. Un domaine D est dit régulier s’il est décomposable en une union finie de
domaines élémentaires.
Remarque 1.3.6. Un domaine régulier est toujours borné.
Théorème 1.3.8. Soit D une domaine régulier de R3 . Soit f : D → R une fonction continue.
Alors les sommes de Riemann Sn (f ) convergent vers un nombre réel quand n → ∞. Cette limite
est l’intégrale triple de f sur D notée
ZZZ
f (x, y, z)dxdydz.
D
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 33
Théorème 1.3.13. La définition de volume est compatible avec les calculs de volume des figures
géométriques usuelles (pavés, cylindres, cônes...).
Théorème 1.3.14. Soit D un domaine élémentaire. Si D est décomposable en tranches verticales
alors
ZZZ ZZ ZZ
Volume(D) = 1dxdydz = (v(x, y) − u(x, y))dxdy = Longueur(Ix,y )dxdy
D ∆ ∆
où Ix,y = {(x, y, z), u(x, y) ≤ z ≤ v(x, y)} est la tranche verticale associée à (x, y) ∈ ∆.
Exemple 1.3.15. Calculons le volume de la boule de rayon R. On a
n p p o
B = (x, y, z) ∈ R3 , (x, y) ∈ D, − R2 − x2 − y 2 ≤ z ≤ R2 − x2 − y 2
Par conséquent
ZZ p
Volume(B) = 2 R2 − x2 − y 2 dxdy.
D
ZZ p
Volume(B) = 2 R2 − r2 rdrdθ.
[0,R]×[−π,π]
! Z ! R
1 4
Z
2 3/2
p
Volume(B) = 2 =2 − R −r
2
2π = πR3 .
R2 − r2 rdr dθ
[0,R] [−π,π] 3 0 3
Définition 1.3.16. Soit D un domaine élémentaire. On dit que D est décomposable en tranches
horizontales de dimension 2 si pour tout z ∈ R,
Dz = {(x, y) ∈ R2 , (x, y, z) ∈ D}
x2 + y 2 ≤ R
h (h − z0 ) car h (h − z0 ) ≤ R). La tranche Dz0 est donc le disque de centre O et de
p R
rayon h (h − z0 ).
R
z0
0 r
alors ZZ Z b
Volume(D) = 1dxdydz = Aire(Dz )dz.
D a
h
h
R2 R2 1 1
Z
Volume(C) = π 2 (h − z) dz = π 2 − (h − z)
2 3
= πR2 h.
0 h h 3 0 3
Pour f = 1, on retrouve la propriété d’additivité des aires par découpage. C’est l’équivalent
de la relation de Chasles en dimension 3.
Remarque 1.3.23. La propriété d’additivité de l’intégrale triple par découpage contient le fait
que le volume d’une surface est nul (à mettre en parallèle avec le fait que l’aire d’une courbe est
nulle).
Définition 1.3.24. Le centre de gravité d’un solide D (qui est un domaine régulier de plan R3 )
de densité ρ (qui est une fonction continue sur D) est le point (xG , yG , zG ) ∈ R3 où
1
ZZZ
xG = xρ(x, y, z)dxdydz
Masse(D) D
1
ZZZ
yG = yρ(x, y, z)dxdydz
Masse(D) D
1
ZZZ
zG = yρ(x, y, z)dxdydz
Masse(D) D
alors
Z v(x,y)
(x, y) 7→ f (x, y, z)dz
u(x,y)
alors
ZZ
z 7→ f (x, y, z)dxdy
Dz
En appliquant ces théorèmes avec f = 1, on retrouve le théorème sur le calcul des aires !
On a
1 2
Masse(C) = πR h.
3
De plus
!
1 1
ZZZ Z h ZZ
zG = zdxdydz = zdxdy dz
Masse(C) C Masse(C) 0 D(O,R(h−z)/h)
!
1
Z h ZZ
= z 1dxdy dz
Masse(C) 0 D(O,R(h−z)/h)
2
1 h
R2
Z
= z π 2 (h − z) dz
Masse(C) 0 h
h
πR2
Z
= 2 (zh2 − 2hz 2 + z 3 )dz
h Masse(C) 0
h
πR2 2hz 3
2 2
z h z4
= 2 − +
h Masse(C) 2 3 4 0
πR2 h4 πR2 h2 3 h
= = = .
h2 Masse(C) 12 12 πR2 h 4
Corollaire 1.3.28. [Cas particulier du théorème de Fubini pour les produits] Soit D = [x1 , x2 ] ×
[y1 , y2 ] × [z1 , z2 ]. Soient g : [x1 , x2 ] → R continue, h : [y1 , y2 ] → R continue et k : [z1 , z2 ] → R
continue. On considère f : D → R définie par f (x, y, z) = g(x)h(y)k(z). Alors f est continue sur
D et ZZZ Z x2 Z y2
Z z2
f (x, y, z)dxdydz = g(x)dx h(y)dy k(z)dz .
D x1 y1 z1
Volume(ϕ(Ch ))
jϕ (x, y, z) = lim .
h→0 Volume(Ch )
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 39
La fonction jϕ est appelée le jacobien de ϕ. Le fait qu’une telle limite existe découle de la définition
d’application C 1 (on admet ce point). Le réel jϕ (x, y, z) mesure l’effet de ϕ sur les volumes au
point (x, y, z).
Proposition 1.3.31. (Changement de variable pour les dilatations) Soit ϕ une dilatation définie
par ϕ(x, y, z) = (λx, µy, νz), soit f : D → R une application continue. Soit ∆ tel que ϕ(∆) = D.
Alors ZZZ ZZZ
f (λx, µy, νz)|λµν|dxdydz = f (u, v, w)dudvdw.
∆ D
Définition 1.3.32. Une isométrie est une application qui préserve les longueurs. Plus précisé-
ment ϕ : R3 → R3 est une isométrie si, pour tous P ∈ R3 et Q ∈ R3
Propriété 1.3.33. Si ϕ est une isométrie alors jϕ (x, y, z) = 1 pour tout (x, y, z) ∈ R3 .
Corollaire 1.3.34. Soit ϕ une isométrie de R3 . Soit f : D → R une application continue avec
D domaine régulier de R3 . Soit ∆ tel que ϕ(∆) = D. Alors
ZZZ ZZZ
f (ϕ(x, y, z))dxdydz = f (u, v, w)dudvdw.
∆ D
Coordonnées cylindriques
On considère l’application ϕ : [0, ∞[ × [−π, π] × R → R3 définie par
Cette application est C 1 . Soit Ω le plan R2 privé de l’axe réel négatif. On admet que l’application
ϕ est une bijection de ]0, ∞[ × ]−π, π[ × R dans Ω × R de réciproque C 1 .
La proposition suivante se déduit de la propriété analogue pour le changement de coordonnées
polaires dans le plan.
Corollaire 1.3.37. Soit f : D → R une fonction continue sur D domaine régulier de R3 . Soit
∆ un domaine régulier tel que ϕ(∆) = D. Alors
ZZZ ZZZ
f (r cos(θ), r sin(θ), z)rdrdθdz = f (x, y, z)dxdydz.
∆ D
Coordonnées sphériques
On considère l’application ψ : [0, ∞[ × [−π, π] × [0, π] → R3 définie par
Proposition 1.3.39. Pour tout (r, θ, φ) ∈ [0, ∞[ × [−π, π] × [0, π], on a jψ (r, θ, φ) = r2 sin(φ).
Corollaire 1.3.40. Soit f : D → R une fonction continue sur D domaine régulier de R3 . Soit
∆ un domaine régulier tel que ψ(∆) = D. Alors
ZZZ ZZZ
f (r cos(θ) sin(φ), r sin(θ) sin(φ), r cos(φ))r sin(φ)drdθdφ =
2
f (x, y, z)dxdydz.
∆ D
Soient →
−
u = (a, b) et →
−
v = (c, d) deux vecteurs de R2 . La norme de →
−
u est
∥→
−
p
u∥= a 2 + b2
et le produit scalaire du →
−
u et →
−
v est
⟨→
−
u,→
−
v ⟩ = ac + bd.
On a, si →
−
u et →
−
v sont non nuls,
⟨→
−
u,→
−
v ⟩ = cos(θ)∥→
−
u ∥ ∥→
−
v∥
→
−
v
2 d
→
−
u
1 b
θ
c a
−2 −1 0 1 2 3 4
−1
−2
On dit que →
−
u et →−v sont orthogonaux si leur produit scalaire est nul. Si →
−
u = (a, b) alors le
→
− →
−
vecteur v = (−b, a) est toujours un vecteur orthogonal pour u .
43
44 CHAPITRE 1. INTÉGRATION
→
−
v
3 a
→
−
u
1 b
−b a
−2 −1 0 1 2 3 4
−1
−2
Opérations
— On peut additionner deux vecteurs de Rn : si →
−
u = (x1 , . . . , xn ) et →
−
v = (y1 , . . . , yn ) alors
→
−
u +→
−
v = (x1 + y1 , . . . , xn + yn ).
λ→
−
u = (λx1 , . . . , λxn ).
Combinaisons linéaires
Soient −
→, . . . , −
u1
→ des vecteurs de Rn . On note
up
→
−
uj = (xj1 , . . . , xjn ).
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 45
λ1 −
→ + ··· + λ − → p
p up = λ1 x1 + · · · + λp x1 , . . . , λ1 xn + · · · + λp xn .
1 1 p
u 1
Les combinaisons linéaires sont un peu plus lisibles en écrivant les vecteurs verticalement
p
λ1 x11 + · · · + λp xp1
1
x1 x1
. . ..
λ1 −
→ + ··· + λ −
u →
p up = λ1 .. + · · · + λp .. = . .
1
x1n xpn λ1 x1n + · · · + λp xpn
Base canonique de Rn
Dans Rn , on a n axes de coordonnées engendrés par
→−
e1 = (1, 0, . . . , 0)
→−
e2 = (0, 1, . . . , 0)
..
.
−
e→n = (0, 0, . . . , 1)
→
−
v = (x1 , . . . xn ) = x1 →
−
e1 + · · · + xn −
e→
n.
Systèmes linéaires
Le but de chapitre est de développer une méthode générale de résolution des systèmes linéaires.
Voici quelques exemples de systèmes linéaires
x1 + x2 + x3 = 1
(S1 ) x1 + 2x2 + x3 = −2
x1 + 2x2 + 3x3 = 2
(
x1 + 7x2 − x23 = 0
(S2 )
x1 + x2 + x3 = π
x1 + x2 = 1
(S3 ) 3x1 − 4x2 = 0
3 + 5 = −3
x1
x2
47
48 CHAPITRE 2. SYSTÈMES LINÉAIRES
On a alors
x = 2
(S) ⇔ y = −2
z=1
On a alors
x + y + z = 0
(Sa ) ⇔ ay = −3
z=2
2.2. SYSTÈMES PARTICULIERS 49
Si a = 0, on obtient
x + y + z = 0
(S0 ) ⇔ 0 = −3
z=2
(Sa ) ⇔ y = − a3 ⇔ y = − a3
z=2 z=2
On a alors
x + y + z = 0
(Sa ) ⇔ ay = 0
′
z = 12
Si a = 0, on obtient
x + y + z = 0 x = − 2 − y
1
(S0′ ) ⇔ 0 = 0 ⇔ 0=0
z = 21 z = 12
1 1
S= − − y, y, ,y ∈ R .
2 2
Si a ̸= 0, on obtient
x + y + z = 0 x = − 2
1
(Sa′ ) ⇔ y = 0 ⇔ y=0
z = 12 z = 21
On remarque que le nombre de solutions dépend du paramètre. Le point crucial est la non-
nullité des coefficients diagonaux !
Définition 2.2.5. Un système linéaire triangulaire est dit de Cramer si tous ses coefficients
diagonaux sont non nuls : aii ̸= 0 pour tout 1 ≤ i ≤ n = p.
Exemple 2.2.9.
x + 2y = 0
( (
x−y+z =1 x−y+z =1
(S1 ) (S2 ) (Sa ) 3y = 1 .
2y + z = 2 z=1
0=a
Définition 2.2.11. Un système linéaire échelonné est compatible s’il n’a pas d’équation de com-
patibilité ou si toutes ses équations de compatibilité sont du type 0 = 0.
Exemple 2.2.12.
— Dans (S1 ), les inconnues principales sont x et y. L’inconnue z est secondaire.
— Dans (S2 ), les inconnues principales sont x et z. L’inconnue y est secondaire.
— Dans (Sa ) les inconnues x et y sont principales. Il n’y a pas d’inconnues secondaires.
— Dans les systèmes de Cramer toutes les inconnues sont principales.
— La dernière ligne de (Sa ) est une équation de compatibilité. Le système (Sa ) est compatible
si et seulement si a = 0.
Proposition 2.2.13.
1. Un système linéaire échelonné possède des solutions si et seulement s’il est compatible.
2. Les solutions d’un système échelonné compatible sont déterminées de manière unique par
les valeurs des inconnues secondaires.
On a (
x=3−z
(S) ⇔
y = 2 − 2z
Cet exemple est particulièrement simple car il y a uns seule inconnue principale par ligne.
Définition 2.2.15. Un système linéaire échelonné est dit réduit si tous ses pivots sont égaux à
1 et si les pivots sont les seuls éléments non nuls de leur colonne.
2.3. SYSTÈMES ÉQUIVALENTS ET TRANSFORMATIONS ÉLÉMENTAIRES 51
Exemple 2.2.16. (
x+z =3
y + 2z = 2
Les systèmes linéaires échelonnés réduits compatibles sont faciles à résoudre : on déplace
toutes les inconnues secondaires dans le second membre, elles sont dites libres et deviennent les
paramètres du système.
Pour résoudre un système échelonné compatible (mais pas forcément réduit), on déplace toutes
les inconnues qui ne sont pas en tête de ligne dans le second membre, puis, en commençant par
la dernière ligne, on remplace les inconnues principales qui ne sont pas en têtes de ligne par le
paramétrage obtenus dans les lignes inférieurs du système.
Exemple 2.2.17. Un premier exemple très simple.
(
x−y =1
(S)
y=1
On a ( (
x=1+y x=2
(S) ⇔ ⇔
y=1 y=1
Exemple 2.2.18. Un exemple avec une infinité de solutions.
(
x−y+z =1
(S)
2y + z = 2
On a ( (
x=1+y−z x=1+1− z
−z =2− 3z
(S) ⇔ ⇔ 2 2 .
y = 1 − z2 y = 1 − z2
Au final, l’ensemble des solutions de (S) est S = {(2 − 3z/2, 1 − z/2, z), z ∈ R}.
Exemple 2.3.2.
x − y + z = 1
−z = −1
x − y + 2z = 2 ⇔L1 →L′1 =L1 −L2 x − y + 2z = 2
x+y+z =3 x+y+z =3
Si la colonne
a11
a21
..
.
an1
est nulle, alors x1 est une inconnue secondaire et il n’y a rien à faire à cette étape. Sinon, il existe
i0 tel que ai0 1 ̸= 0. Si besoin, on intervertit L1 et une autre ligne pour obtenir a11 ̸= 0. Puis, on
utilise L1 pour annuler tous les coefficients devant x1 dans les lignes suivantes : pour tout i ≥ 2,
on pose
ai1
Li → Li − L1 .
a11
On obtient alors un système équivalent de la forme
x 1 + x 2 + x 3 = 1
x1 + x2 + x3 = 1
⇔L3 →L′3 =L3 −L1 x2 = −3 ⇔L′3 →L′′3 =L′3 −L′2 x2 = −3
x2 + 2x3 = −3 0 + 2x3 = 0
2x1 + x2 + 3x3 = 1
2x1 + x2 + 3x3 = 1
⇔L3 →L′3 =L3 +1/2L1 2 x2 − 2 x3 = 2
5 5 3
⇔L′3 →L′′3 =L′3 −L′2 25 x2 − 52 x3 = 23
0 + 25 x2 − 52 x3 = 32 0=0
On obtient un système linéaire échelonné (T ). Une équation de compatibilité est apparue et elle
est satisfaite, notre système admet donc des solutions. Les variables x1 et x2 sont les inconnues
principales de (T ) et x3 est une inconnue secondaire de (T ). On réduit (T )
( ( (
x1 + 21 x2 + 32 x3 = 12 x1 + 2x3 = 51 x1 = −2x3 + 15
(T ) ⇔ ⇔L1 →L1 − 12 L2 ⇔
x2 − x3 = 5 3
x2 − x3 = 5
3
x2 = x3 + 53
54 CHAPITRE 2. SYSTÈMES LINÉAIRES
1 3
S= −2x3 + , x3 + , x3 , x3 ∈ R .
5 5
Dans cet exemple, il aurait été plus efficace de commencer par permuter L1 et L2 pour que le
premier pivot soit 1 (ça évite d’avoir des fractions un peu partout). Ça vaut la peine de réfléchir
avant de commencer à appliquer l’algorithme !
2x1 + x2 + 3x3 = 1
2x1 + x2 + 3x3 = 1
2 x2 − 2 x3 = 2 2 x2 − 2 x3 = 2
5 5 3 5 5 3
⇔L3 →L′3 =L3 +1/2L1 ⇔L′3 →L′′3 =L′3 −L′2
0 + 25 x2 − 52 x3 = 52 0=1
Il y a une équation de compatibilité non satisfaite donc le système n’admet pas de solution. Donc
(S2′ ) n’a pas de solution.
Exemple 2.4.5. On peut aussi appliquer l’algorithme de Gauss-Jordan sur la présentation ma-
tricielle du système.
x1 + 2x2 = 1
(Sa ) x1 + 3x2 = 2
x1 + 4x2 = a
1 2 1
1 3 2 .
1 4 a
On a alors
1 2 1 1 2 1 1 2 1
1 3 2 ⇔ 0 1 1 ⇔ 0 1 1
1 4 a 0 2 a−1 0 0 a−3
La dernière ligne est une équation de compatibilité. Elle est satisfaite si et seulement si a = 3.
Si a ̸= 3, le système est incompatible et (Sa ) n’a pas de solution. Si a = 3, les système linéaire
échelonné équivalent (T ) est compatible. On le met sous forme réduite
1 2 1 1 0
−1
⇔
0 1 1 0 1 1
Théorème 2.5.2. Le rang d’un système ne dépend que des coefficients (aij ) et pas du second
membre (yi ). Le rang d’un système ne dépend pas du système linéaire échelonné équivalent choisi
pour le calculer.
Exemple 2.5.3.
x1 + x2 + x3 = 1
x 1 + x 2 + x 3 = 1
(S1 ) x1 + 2x2 + x3 = −2 ⇔ x2 = −3
x1 + 2x2 + 3x3 = −2 0 + 2x3 = 0
2 1 3
A= 1 3 −1
−1 2 −4
f (λ→
−
u + µ→
−
v ) = f (λx1 + µx2 , λy1 + µy2 , λz1 + µz2 )
= (λx1 + µx2 + λy1 + µy2 , λz1 + µz2 − (λx1 + µx2 ))
= (λx1 + λy1 , λz1 − λx1 ) + (µx2 + µy2 , µz2 − µx2 )
= λ (x1 + y1 , z1 − x1 ) + µ (x2 + y2 , z2 − x2 )
= λf (→
−u ) + µf (→−v ).
f (λ→
−
u + µ→
−
v ) = f (λ→
−
u ) + f (µ→
−
v ) = λf (→
−
u ) + µf (→
−
v ).
f (λ1 −
→ + ··· + λ −
u1
→ −
→ −
→
r ur ) = λ1 f (u1 ) + · · · + λr f (ur ) .
57
58 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
Par linéarité de f , on a
−−→
f (u′r−1 ) = λr−1 f (−
u−→ −
→
r−1 ) + λr (ur ) .
On en déduit
f (λ1 −
→ + ··· + λ −
u1
→ −
→ −
→
r ur ) = λ1 f (u1 ) + · · · + λr f (ur ) .
Démonstration.
→
− →
−
1. f 0 = f (0→
−
u ) = 0f (→
−
u) = 0
2. Soit D→ →
−
u la droite vectorielle engendrée par u un vecteur non nul de R :
− p
→
−
u = {λ u , λ ∈ R} .
D→
−
On a →−v ∈ f (D→ →
− →
− →
− →
−
u ) ⇔ v = f (λ u ) pour un λ ∈ R ⇔ v = λf ( u ) pour un λ ∈ R. Ainsi si
−
→
− →
− →
−
f (→
−
u ) = 0 , on a f (D→ →
−
u ) = 0 . Sinon, f ( u ) ̸= 0 et f (D→
− u ) = Df (→
− u ).
−
— si f (→−u ) et f (→
−v ) ne sont pas colinéaires f P→ v = Pf (→ v ).
−
u ,→
− −u ),f (→
−
f (x1 , . . . , xp ) = x1 −
→ + ··· + x −
u1
→
p up .
3.2. MATRICE D’UNE APPLICATION LINÉAIRE 59
0.5
−0.5 0 0.5 1
−0.5
−1
−1.5
a11 a1p
a21 a2p
f (→
−
e1 ) = −
→=
u .. , . . . , f (→
−
ep ) = −
→=
u ..
1 p
. .
an1 anp
Définition 3.2.1. La matrice de l’application linéaire f dans la base canonique est la matrice
a11 a12 ··· a1p
a21 a22 ··· a2p
A= . .. .. .. .
.. . . .
an1 an2 ··· anp
Pour calculer f (→
−
x ) matriciellement, on part de A la matrice à n lignes et p colonnes associée
à f et de X le vecteur à p lignes et 1 colonne associé à →
−
x
a11 a12 · · · a1p x1
a21 a22 · · · a2p x2
A= . .. .. .. X = . .
.. . . . ..
an1 an2 ··· anp xp
On a
a11 x1 + a12 x2 + · · · + a1p xp
a11 a12 ··· a1p x1
··· x2 a21 x1 + a22 x2 + · · · + a2p xp
a21 a22 a2p
AX = . .. .. .. .. = .. .
.. . . . . .
an1 an2 ··· anp xp an1 x1 + an2 x2 + · · · + anp xp
Exemple 3.3.1. Pour
1
1 3 5
A= X = −1 .
2 4 6
2
On obtient
1
1 3 5 −1 = 8 .
AX =
2 4 6 10
2
Attention : si le nombre de colonnes de A n’est pas égal au nombre de lignes de X, le produit
AX n’est pas défini.
Remarque 3.3.2. Le nombre de lignes de AX est égal au nombre de lignes de A (et son nombre
de colonnes est égal au nombre de colonnes de X, c’est à dire 1). Le produit AX est un cas
particulier de produit entre deux matrices (voir plus loin).
Remarque 3.3.3. L’équation f (→ −
x)=→ −
y s’écrit
pour a, b, c, d ∈ R. On a alors f (→
−
e1 ) = (a, b) et f (→
−
e2 ) = (c, d).
Exemple 3.4.1.
1 0
1. Si A = , l’application linéaire associée est l’identité (f (x, y) = (x, y) pour tout
0 1
(x, y) ∈ R2 ).
λ 0
2. Si A = , l’application linéaire associée f est une dilatation (de paramètres λ et µ),
0 µ
on a f (x, y) = (λx, µy) pour tout (x, y) ∈ R2 .
0 0
3. Si A = , l’application linéaire associée f est la projection orthogonale sur (Oy), on
0 1
a f (x, y) = (0, y) pour tout (x, y) ∈ R2 .
1 0
4. Si A = , l’application linéaire associée f est la symétrie axiale d’axe (Ox), on a
0 −1
f (x, y) = (x, −y) pour tout (x, y) ∈ R2 .
0 1
5. Si A = , l’application linéaire associée f est la symétrie axiale d’axe la première
1 0
bissectrice (c’est à dire la droite d’équation y = x), on a f (x, y) = (y, x) pour tout (x, y) ∈
R2 .
Par conséquent
sλ (x, y) = (ax − by, bx + ay).
En particulier sλ (1, 0) = (a, b) et sλ (0, 1) = (−b, a). L’application sλ est linéaire de matrice dans
la base canonique
a −b
Sλ =
b a
Exemple 3.4.3.
1. Si λ = a ∈ R∗ alors sλ est l’homothétie de rapport a. La matrice associée est
a 0
Sa = .
0 a
62 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
2. Si λ = eiθ = cos(θ) + i sin(θ), Sλ est la rotation d’angle θ (et de centre O). En effet, pour
reiα ∈ C, on a
sλ (reiα ) = rei(θ+α)
On a
cos(θ) − sin(θ)
Sλ =
sin(θ) cos(θ)
et
sλ (x, y) = (cos(θ)x − sin(θ)y, sin(θ)x + cos(θ)y)
pour tout (x, y) ∈ R2 .
3. Dans le cas général, on écrit λ = reiθ . On a alors sλ = sr ◦ seiθ = seiθ ◦ sr , autrement dit,
sλ est la composée d’un rotation d’angle θ et d’une homothétie de rapport r.
Remarque 3.4.4. Une similitude préserve les angles et multiplie les longueurs par r.
Rθ (0, 0, 1) = (0, 0, 1)
3.5.1 Addition
Dans L(Rp , Rn ), on peut additionner deux applications linéaires : si f, g ∈ L(Rp , Rn ) alors
f + g est défini par
(f + g)(→
−u ) = f (→
−
u ) + g(→
−
u)
pour tout →−
u ∈ Rp .
(f + g)(λ→
−
u + µ→
−
v ) = f (λ→
−u + µ→−v ) + g(λ→−u + µ→−v)
= λf ( u ) + µf ( v ) + λg( u ) + µg(→
→
− →
− →
− −
v)
= λ(f (→
−
u ) + g(→
−u )) + µ(f (→
−
v ) + g(→
−
v ))
→
− →
−
= λ(f + g)( u ) + µ(f + g)( v )
Donc f + g préserve les combinaisons linéaires : c’est donc une application linéaire.
On peut également additionner deux matrices A, B ∈ Mn,p (R) : la matrice A + B ∈ Mn,p (R)
est définie par (A + B)ij = aij + bij où A = (aij ) et B = (bij ).
Proposition 3.5.3. Soient f, g ∈ L(Rp , Rn ). On note Mat(f ), Mat(g) et Mat(f +g) les matrices
associées à f , g et f + g dans les bases canoniques. Alors
Démonstration. On écrit Mat(f ) = (ai,j ) et Mat(g) = (bi,j ). Pour obtenir la j-ième colonne de
Mat(f ) + Mat(g), on calcule
+ b1j
a1j b1j a1j
a2j b2j a2j + b2j
(f + g)(→
−
ej ) = f (→
−
ej ) + g(→
−
ej ) = . + . = .. .
.. .. .
anj bnj anj + bnj
1 1 −1 1
Mat(f ) = Mat(g) = .
0 1 1 0
0 2
Mat(f + g) = .
1 1
Enfin
1 1 1 0 2
−1
Mat(f ) + Mat(g) = + =
0 1 1 0 1 1
ce qui était prédit par la proposition.
64 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
(νf )(→
−
u ) = νf (→
−
u)
pour tout →
−
u ∈ Rp .
Proposition 3.5.5. Si f ∈ L(Rp , Rn ) et ν ∈ R, on a νf ∈ L(Rp , Rn ).
Démonstration. Pour tous →
−
u,→
−v ∈ Rp et tous λ, µ ∈ R, on a
(νf )(λ→
−
u + µ→
−
v ) = νf (λ→
−
u + µ→
−
v ) = λνf (→
−
u ) + µνf (→
−
v ) = λ(νf )(→
−
u ) + µ(νf )(→
−
v ).
Mat(νf ) = νMat(f ).
(f ◦ g)(→
−
u ) = f (g(→
−
u ))
pour tout →
−
u ∈ Rp .
Proposition 3.5.7. Si g ∈ L(Rp , Rq ) et f ∈ L(Rq , Rn ), on a f ◦ g ∈ L(Rp , Rn ).
Démonstration. Pour tous →
−
u,→−
v ∈ Rp et tous λ, µ ∈ R, on a
(f ◦ g)(λ→
−
u + µ→
−
v ) = f (g(λ→
−u + µ→−v ))
= f (λg( u ) + µg(→
→
− −
v ))
= λf (g(→
−
u )) + µf (g(→
−
v )))
= λ(f ◦ g)(→
−
u ) + µ(f ◦ g)(→−
v ).
Définition 3.5.8. Soit A = (aij ) ∈ Mn,q (R) et B = (bij ) ∈ Mq,p (R). On définit le produit de A
et B par AB = C = (cij ) ∈ Mn,p (R) par
q
X
cij = ai1 b1j + ai2 b2j + · · · + aiq bqj = ail blj .
l=1
on multiplie
la i-ième ligne de A, c’est à dire (ai1 , ai2 , . . . , aiq ) par la j-ième colonne de B, c’est
b1j
b2j
à dire . .
..
bqj
Exemple 3.5.9. Pour
0
−1
1 3 5
A= B= 2 −1
2 4 6
0 0
on obtient
5
−3
AB = .
6 −4
Proposition 3.5.10. Soient g ∈ L(Rp , Rq ) et f ∈ L(Rq , Rn ). On note Mat(f ), Mat(g) et Mat(f ◦
g) les matrices associées à f , g et f ◦ g dans les bases canoniques. Alors
On a
0 0 1 0
−1 −1
A =
2
= .
0 1 0 1 0 1
Ce qui correspond au fait que s ◦ s = id.
Proposition 3.5.12. Les opérations sur les application linéaires et les matrices vérifient les
propriétés suivantes. On suppose les dimensions choisies pour que les formules aient un sens.
1. (Associativité) (f ◦ g) ◦ h = f ◦ (g ◦ h) ↔ (AB)C = A(BC).
2. (Distributivité par rapport à l’addition)
(f + g) ◦ h = f ◦ h + g ◦ h ↔ (A + B)C = AC + BC
f ◦ (g + h) = f ◦ g + f ◦ h ↔ A(B + C) = AB + AC.
Exemple 3.5.13.
2 2
1 1 1 0 0 1
= +
0 2 0 2 0 0
2 2
1 0 1 0 0 1 0 1 1 0 0 1
= + + +
0 2 0 2 0 0 0 0 0 2 0 0
1 0 0 1 0 2 0 0
= + + +
0 4 0 0 0 0 0 0
1 3
=
0 4
On remarque sur cet exemple que le produit AB n’est pas toujours égal au produit BA et qu’on
peut avoir AB = 0 même si A ̸= 0 et B ̸= 0...
3.6 Endomorphismes
Définition 3.6.1. Si p = n, une application linéaire f : Rp → Rp est appelée un endomorphisme.
On note End(Rp ) l’ensemble des endomorphismes de Rp et Mp (R) l’ensemble des matrices carrées
à p lignes et p colonnes.
On peut toujours multiplier deux matrices carrées de taille p et on peut toujours composer
deux endomorphismes de Rp . L’identité, notée id, est un endomorphisme très particulier de Rp
défini par id(→
−
u) =→
−u pour tout →−u ∈ Rp . Sa matrice associée (dans la base canonique) est
1 0 ... 0
0 1 . . . 0
Id = . . ..
.
. . . .
0 0 ... 1
Proposition 3.6.2.
1. Pour tout f ∈ End(Rp ), on a f ◦ id = id ◦ f = f .
3.7. APPLICATIONS LINÉAIRES INJECTIVES, SURJECTIVES ET BIJECTIVES 67
Définition 3.6.3. On dit que qu’une matrice carrée A est nilpotente s’il existe k ∈ N∗ tel que
Ak = 0.
Exemple 3.6.4.
0 1 0 0 0 1
0 0
0 0 1 0 0 0
1 0
0 0 0 0 0 0
Rappel 3.7.2. Soit f : X → Y . Alors f est bijective si et seulement s’il existe g : Y → X tel
que g(f (x)) = x pour tout x ∈ X et f (g(y)) = y pour tout y ∈ Y .
Démonstration. Soient →
−u et →−
v dans Rn , λ et µ des réels. Soit →−w = λf −1 (→
−
u ) + µf −1 (→
−
v ). On a,
par linéarité de f
f (→
−
w ) = λf (f −1 (→
−
u )) + λf (f −1 (→
−
v )) = λ→
−u + µ→
−
v.
Par définition de f −1 on a donc
f −1 (λ→
−
u + µ→
−
v)=→
−
w = λf −1 (→
−
u ) + µf −1 (→
−
v)
Théorème 3.7.5. Soit f ∈ L(Rp , Rn ). Soit A ∈ Mn,p (R) la matrice associée dans les bases
canoniques. On note r le rang de A.
1. Si f est injective alors p ≤ n et r = p.
2. Si f est surjective alors p ≥ n et r = n.
3. Si f est bijective alors p = n = r.
Théorème 3.7.7. Soit f ∈ End(Rp ). On note A ∈ Mp (R) la matrice associée dans la base
canonique. Alors les affirmations suivantes sont équivalentes
1. f est injective
2. f est surjective
3. f est bijective
4. A est de rang p.
Proposition 3.8.3. La matrice A ∈ Mp (R) est inversible si et seulement si son rang est p.
Proposition 3.8.4. Une matrice A ∈ Mp (R) est inversible si et seulement s’il existe B ∈ Mp (R)
telle que AB = BA = Id
Remarque 3.8.5. Le théorème 3.7.7 nous permet même de ne vérifier qu’une des conditions
ci-dessus (exercice).
A = 1 2 1 .
2 3 2
On vérifie que A est inversible en calculant son rang (en effectuant des opérations sur les lignes)
1 1 0 1 1 0
1 2 1 ↔L2 →L2 −L1 ,L3 →L3 −2L1 0 1 1
2 3 2 0 1 2
1 1 0
x 1 + x 2 = y 1
x1 = y1 − 2y2 + y3
⇔ x2 = −y3 + 2y2 ⇔ x2 = 2y2 − y3
x3 = y3 − y2 − y1 x3 = −y1 − y2 + y3
70 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
On obtient donc
1 1
−2
A−1 = 0 2 −1
−1 −1 1
Présentation matricielle du même calcul
1 1 0 1 0 0 1 1 0 1 0 0 1 1 0 1 0 0
1 2 1 0 1 0 ↔ 0 1 1 −1 1 0 ↔ 0 1 1 −1 1 0
2 3 2 0 0 1 0 1 2 −2 0 1 0 0 1 −1 −1 1
1 1 0 1 0 0 1 0 0 1 −2 1
↔ 0 1 0 0 2 −1 ↔ 0 1 0 0 2 −1
0 0 1 −1 −1 1 0 0 1 −1 −1 1
1
d −c
A−1 = .
det(A) −b a
Démonstration. Pour savoir si A est inversible, on cherche si son rang est égal à 2. Pour déterminer
le rang, on échelonne... Si a ̸= 0
a c a c
↔ .
b d 0 d − bc/a
Dans ce cas A est de rang 2 si et seulement si d−bc/a ̸= 0 c’est à dire si et seulement si det(A) ̸= 0.
Si a = 0, on obtient
0 c
b d
↔ .
b d 0 c
Dans ce cas A est de rang 2 si et seulement si b ̸= 0 et c ̸= 0 c’est à dire si et seulement si
det(A) ̸= 0.
On suppose maintenant que det(A) ̸= 0. On montre alors que
1
d −c
B=
det(A) −b a
1 1
d −c a c ad − bc cd − cd
= = Id
det(A) −b a b d det(A) −ab + ab ad − bc
1 1 ad − bc −ac + ac
a c d −c
= = Id
det(A) b d −b a det(A) bd − bd ad − bc
donc A est inversible et A−1 = B.
3.8. MATRICES INVERSIBLES 71
1 3
A=
2 4
1 4
−3
A−1 = −
2 −2 1
a pour déterminant det(A) = a2 + b2 . Elle est donc inversible si a et b ne sont pas tous les deux
nuls. Dans ce cas, son inverse est
1
a b
A −1
= 2
a + b2 −b a
1 1 a − ib a b
= = 2 = 2 −i 2 .
λ a + ib a + b2 a + b2 a + b2
cos(θ) − sin(θ)
.
sin(θ) cos(θ)
Cette matrice est de déterminant 1. Son inverse est la matrice de la rotation d’angle −θ et de
centre O dans la base canonique
cos(θ) sin(θ)
.
− sin(θ) cos(θ)
Théorème 3.8.11. Soit A ∈ M2 (R). Alors | det(A)| est l’aire du parallélogramme P de côtés
A→
−
e1 , A→
−
e2 .
Démonstration. Soit
a c
A= .
b d
72 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
→
−
v
→
−
u
→
−
w
→
−
On a →
−
u = (a, b), →
−
v = (c, d). On suppose →−
u ̸= 0 . Soit →
−
w le projeté de →
−
v sur la droite orthogonale
→
− →
−′ √
à u passant par l’origine. Cette droite est dirigée par le vecteur u = (−b, a)/ a2 + b2 . On a
Aire(P ) = ∥→
−
u ∥ · ∥→
−
w∥
→
−
∥→
−
p
u∥= a2 + b2 ∥ u′ ∥ = 1
et →
− → −
→
−
w = ⟨→
−
v , u′ ⟩ u′
Ainsi
|ad − bc|
∥→
−
w∥ = √
a2 + b2
et
Aire(P ) = |ad − bc|.
Exemple 3.8.12. Les matrices des isométries sont des matrices déterminant 1.
Le déterminant a à voir avec le jacobien du chapitre sur l’intégration (mais ce n’est pas pour
cette année).
Commençons par un exemple simple. On considère deux secteurs : l’énergie et l’industrie. Ces
deux secteurs produisent respectivement de l’énergie et des biens pour la population mais l’indus-
trie a besoin d’énergie pour fonctionner et produire de l’énergie nécessite des équipements fournis
par l’industrie. On note i la production de l’industrie (en millions d’euros) et e la production
d’énergie (en M€). On suppose que la demande de la population correspond à 1000 M€ pour
l’industrie et 780 M€ pour l’énergie. On suppose également que pour produire 1€ de bien on a
besoin de 0,2€ d’énergie et que pour produire 1€ d’énergie, on a besoin de 0,1€ d’équipement.
On obtient alors (
i = 1000 + 0, 1e
e = 780 + 0, 2i
Il s’agit d’un système. Son unique solution est (i, e) = (1100, 1000).
0, 2i
Industrie, i Énergie, e
0, 1e
1000 780
Population
(Si , pi ) (Sj , pj )
aij pj
ci cj
Population
Soit
c1 p1
..
C=. P = ... .
cn pn
74 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
Les secteurs dépendent les uns des autres : on note aij le réel tel que le secteur Sj consomme aij
€ du secteur Si pour produire 1€ de produit. La matrice (aij ) est appelée tableau entrée sortie
du système. Dans l’exemple précédent :
1000
C=
780
i
P =
e
0 0, 1
A=
0, 2 0
La demande globale est alors
C + AP.
On cherche à produire P tel que
P = C + AP
ou encore P tel que
(Id − A)P = C.
On obtient donc un système à résoudre.
Définition 3.9.1. L’économie est dite productive si pour chaque secteur, la production d’1€
nécessite strictement moins d’1€ de dépense dans les autres secteurs, c’est à dire si, pour tout
1 ≤ j ≤ n,
n
X
a1j + · · · + anj = aij < 1.
i=1
Théorème 3.9.2. Si l’économie est productive, alors la matrice Id − A est inversible. Ainsi
l’équation (Id − A)P = C (d’inconnues p1 , . . . , pn ) admet exactement une solution.
Démonstration. On veut montrer que (Id − A)X = 0 implique que X est le vecteur nul. On
conclut alors, par la caractérisation des applications linéaires injectives que l’application linéaire
f associée à Id − A est injective. On considère donc X tel que (Id − A)X = 0. On en déduit que
AX = X. Et donc, pour tout 1 ≤ i ≤ n
x
X n
X
|xi | = aij xj ≤ aij |xj |.
j=1 j=1
Exemple 4.1.3. L’ensemble des solutions d’un système linéaire homogène à p inconnues et n
équations est un sous-espace vectoriel de Rp . En effet, si b = (b1 , . . . , bp ) et b′ = (b′1 , . . . , b′p ) sont
solution du système
a11 x1 + a12 x2 + · · · + a1p xp = 0
a21 x1 + a22 x2 + · · · + a2p xp = 0
..
.
an1 x1 + an2 x2 + · · · + anp xp = 0
donc λb + µb′ est solution. Donc l’ensemble des solutions est un sous-espace vectoriel de Rp .
75
76 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
Définition 4.1.4. Soit f ∈ L(Rp , Rn ). Soit A la matrice de f dans les bases canoniques.
1. Le noyau de f est l’ensemble
→
−
ker(f ) = {→
−
u ∈ Rp , f (→
−
u) = 0}
im(f ) = {f (→
−
u ), →
−
u ∈ Rp } = {→
−
v ∈ Rn |∃→
−
u ∈ Rp , f (→
−
u) =→
−
v }.
C’est également l’ensemble des Y tels que le système AX = Y admette au moins une
solution. On parle aussi d’image de A.
Remarque 4.1.5. La définition de noyau permet de reformuler le lemme de caractérisation
des applications linéaires injectives : soit f ∈ L(Rp , Rn ) alors f est injective si et seulement si
→
−
ker(f ) = { 0 }.
Proposition 4.1.6. Soit f ∈ L(Rp , Rn ) alors ker(f ) est un sous-espace vectoriel de Rp et im(f )
est un sous-espace vectoriel de Rn .
Démonstration.
1. Le résultat sur le noyau de f est l’équivalent linéaire du résultat sur les solutions d’un
système linéaire homogène. En voici une nouvelle preuve, orientée applications linéaires.
Soient →
−
u,→−v ∈ ker(f ) et λ, µ ∈ R. On a alors
→
−
f (λ→
−
u + µ→
−
v ) = λf (→
−
u ) + µf (→
−
v)= 0.
Donc λ→−u + µ→
−
v ∈ ker(f ) et ker(f ) est un sous-espace vectoriel de Rp .
2. Soient →
−
u,→−
v ∈ im(f ) et λ, µ ∈ R. Il existe →
−
x et →
−
y tels que f (→
−
x)=→ −
u et f (→
−
y)=→
−
v . Alors
f (λ→
−
x + µ→
−
y ) = λf (→
−
x ) + µf (→
−
y ) = λ→
−
u + µ→
−
v
donc λ→
−
u + µ→
−
v ∈ im(f ) et im(f ) est un sous-espace vectoriel de Rn .
λ→
−
u + µ→
−
v = (λλ1 + µµ1 )→
−
v1 + · · · + (λλp + µµp )→
−
vp ∈ Vect(→
−
v1 , . . . , →
−
vp )
im(f ) = Vect(f (→
−
e1 ), . . . , f (→
−
ep )).
Démonstration. Si → −
u = λ1 f (→−
e1 ) + · · · + λp f (→ −
ep ). Alors → −u = f (λ1 →−
e1 + · · · + λ p →
−
ep ) et →
−
u ∈ im(f ).
Donc
Vect(f (→ −
e1 ), . . . , f (→
−
ep )) ⊂ im(f ).
Réciproquement, si → −
u ∈ im(f ) alors → −
u = f (λ1 → −
e1 + · · · + λ p →
−
ep ) pour des λ1 , . . . , λp ∈ R donc
→
− →
− →
− →
− →
− →
−
u = λ f ( e ) + · · · + λ f ( e ) et u ∈ Vect(f ( e ), . . . , f ( e )). On en déduit que
1 1 p p 1 p
im(f ) ⊂ Vect(f (→
−
e1 ), . . . , f (→
−
ep ))
et donc
im(f ) = Vect(f (→
−
e1 ), . . . , f (→
−
ep )).
f (λ→
−
u + µ→
−
v ) = λf (→
−
u ) + µf (→
−
v ).
→
−
v = λ1 →
−
e1 + · · · + λ n −
e→
n
où λ1 , . . . , λn ∈ R.
→
−
v = λ1 →
−
v1 + · · · + λp →
−
vp .
x+y x−y
→
−
w = ,
2 2 B
Plus généralement tout couple de vecteurs non colinéaires de R2 est une base de R2 .
Exemple 4.2.3.
1. Soit →
−u ̸= 0. Alors (→
−u ) est une base de la droite D→ →
−
u . Tout multiple non nul de u est
−
−
→ −→
également une base de D→ u . Par exemple (2u) ou (−u) sont deux autres bases.
−
Comme → −
u et →−
v ne sont pas colinéaires, on obtient que λ − λ′ = 0 et µ − µ′ = 0 et donc
l’unicité de la décomposition.
La condition pour être une base contient deux conditions : l’unicité et l’existence de la dé-
composition. On peut séparer ces conditions pour obtenir deux définitions.
Définition 4.2.4. Soit E un sous-espace vectoriel de Rn . Soit F = (→
−
v ,...,→
−
v ) où →
−
v ,...,→
1
−
v ∈ E.
p 1 p
On dit que F est
— une famille libre (ou que les éléments de F sont indépendants) si toute combinaison linéaire
→
−
nulle est triviale : c’est à dire que si λ1 →
−
v 1 + · · · + λp →
−
vp = 0 alors λ1 = · · · = λp = 0, une
famille qui n’est pas libre est dite liée ;
— une famille génératrice de E si tout élément de E s’écrit comme combinaison linéaire
d’éléments de F.
Une famille libre et génératrice est une base.
Proposition 4.2.5. Une famille libre de Rn de cardinal n est une base de Rn . Une famille
génératrice de Rn de cardinal n est une base de Rn .
Cette proposition sera généralisée par le corollaire 4.5.3 (et on prouvera la version généralisée).
Soit F = (→
−
v1 , . . . , →
−
vp ) une famille de vecteurs Rn . On définit alors l’application LF : Rp → Rn
par
LF (x1 . . . , xp ) = x1 →
−
v1 + · · · + x p →
−
vp .
Proposition 4.2.6.
1. L’application LF est linéaire.
2. L’application LF est injective si et seulement si la famille est libre. Dans ce cas p ≤ n.
3. L’image de L est l’espace vectoriel engendré par (→
F
−
v ,...,→−
v ).
1 p
4. Si (→
−
v1 , . . . , →
−
vp ) est une base de E alors LF : Rp → E est un isomorphisme.
Démonstration.
1. Soient →
−
x = (x1 , . . . , xp ) et →
−
y = (y1 , . . . , yp ) ∈ Rp et λ, µ ∈ R. On a
L(λ→
−
x + µ→
−
y ) = (λx1 + µy1 )→ −
v1 + · · · + (λxp + µyp )→−
vp
= λ(x1 v1 + · · · + xp vp ) + µ(y1 v1 + · · · + yp →
→
− →
− →
− −
vp )
→
− →
−
= λL( x ) + µL( y )
Proposition 4.2.7. Tout sous-espace vectoriel non nul de Rn admet une base. Le nombre de
vecteurs de cette base est majoré par n.
Idée de la preuve. On choisit un vecteur non nul → −
v1 de E. Si E = Vect(→ −
v1 ), on a trouvé une base.
→
− →
− →
− →
−
Sinon, il existe v2 ∈ E \ Vect( v1 ). Si E = Vect( v1 , v2 ), on a trouvé une base. Sinon, la famille
(→
−
v ,→
1
−
v ) est libre par construction et on itère le procédé pour obtenir une famille libre (→
2
−
v ,...,→
1
−v )
p
engendrant E. Le procédé s’arrête en au plus n étapes (car une famille libre a pour cardinal au
plus n).
Exemple 4.3.2.
1. Rn est de dimension n ;
2. une droite est de dimension 1 ;
3. un plan est de dimension 2.
Proposition 4.3.3. La dimension de l’espace vectoriel des solutions d’un système linéaire ho-
mogène à p inconnues et n lignes est le nombre d’inconnues secondaires d’un système échelonné
équivalent. Une base de ce sous-espace vectoriel est composée des solutions du système pour les-
quelles une inconnue secondaire est fixée à 1 et les autres à 0.
Remarque 4.3.4. Cette proposition permet également de décrire le noyau d’une application
linéaire.
Exemple 4.3.5. L’ensemble des solutions de l’équation x + y + z = 0 dans R3 est un sous-espace
vectoriel de dimension 2. C’est cohérent avec ce qui précède : c’est l’équation d’un plan ! Une base
de l’ensemble des solutions est ((−1, 1, 0), (−1, 0, 1))
Exemple 4.3.6. On cherche une base de l’ensemble des solutions du système
(
x+y−z+t+u=0
2x + y + 2z − t + u = 0
On résout le système
( ( (
x+y−z+t+u=0 x+y−z+t+u=0 x + 3z − 2t = 0
⇔ ⇔
2x + y + 2z − t + u = 0 −y + 4z − 3t − u = 0 −y + 4z − 3t − u = 0
80 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
( (
x + 3z − 2t = 0 x = −3z + 2t
⇔ ⇔
y − 4z + 3t + u = 0 y = 4z − 3t − u
Pour z = 1, t = u = 0, on obtient pour solution (−3, 4, 1, 0, 0), pour t = 1, z = u = 0, on obtient
pour solution (2, −3, 0, 1, 0) et pour u = 1, z = t = 0, on obtient pour solution (0, −1, 0, 0, 1). On
obtient donc comme base de l’ensemble des solutions :
et on le réduit. On note j1 , . . . , jm les indices des inconnues secondaires et i1 , . . . ir les indices des
inconnues principales. Le système réduit est de la forme
xi1 = bi1 j1 xj1 + · · · + bi1 jm xjm
..
.
x = b x + · · · + b
x
ir ir j1 j1 ir jm jm
0=0
..
.
0 = 0.
L’espace des solutions est paramétré par les inconnues secondaires (de façon unique). Intuitive-
ment, on obtient que la dimension est le nombre de paramètres indépendants. La fin de la preuve
démontre cette intuition.
−→
Soit fjk la solution de paramètre xjk = 1 et xjl = 0 pour l ̸= k. Montrons que B =
−→ −→
(fj1 , . . . , fjm ) est une base de l’ensemble des solutions du système. Par construction, la il -ième
−→
coordonnée de fjk est bil ,jk , sa jk -ième coordonnée est 1 et sa jl -ième coordonnée est 0 pour l ̸= k.
Ainsi
−→ −→
fjk = ejk + bi1 jk −
e→ −
→
i1 + · · · + bir jk eir .
La famille B est donc génératrice. Il nous reste à montrer qu’elle est libre. Pour cela, on considère
une combinaison linéaire
−→ −→ → −
λj1 fj1 + · · · + λjm fjm = 0 .
−→
On considère la jk -ième coordonnée. Cette coordonnée est non nulle seulement pour fjk . On en
déduit de λjk = 0 pour tout cas. Donc tous les coefficients de la combinaison linéaire sont nuls.
Donc la famille est libre de B est une base de l’ensemble des solutions.
Proposition 4.3.7. Soit A ∈ Mn,p (R). Alors la dimension de l’image de A est le rang de la
matrice A. Une base de l’image est donnée par les colonnes de A donc les indices correspondent
aux indices des inconnues principales du système associé à A.
4.3. DIMENSION D’UN SOUS-ESPACE VECTORIEL ET THÉORÈME DU RANG 81
A = 2 1 2 −1 1
3 2 1 0 2
dans les bases canoniques. Pour cela, on échelonne A
1 1 −1 1 1 1 1 −1 1 1 1 1 1 1
−1
2 1 2 −1 1 ↔ 0 −1 4 −3 −1 ↔ 0 −1 4 −3 −1
3 2 1 0 2 0 −1 4 −3 −1 0 0 0 0 0
Le rang de la matrice est 2 donc l’image de f est de dimension 2. Une base est donnée par les
deux premières colonnes de la matrice ((1, 2, 3), (1, 1, 2)).
Démonstration. Soit f l’application linéaire associée à A. On considère le système associé à A
et on le réduit. Les solutions sont paramétrées de façon unique par les inconnues secondaires.
On note (comme dans la preuve précédente) j1 , . . . jm les indices des inconnues secondaires et
i1 , . . . ir les indices des inconnues principales. On note → −
v1 , . . . , →
−
vp les colonnes de A. L’image de
A est le sous-espace vectoriel engendré par v1 , . . . , vp . On considère B ′ = (−
→
− →
− v→ −
→
i1 . . . vir ). On veut
montrer que B est une base de l’image de A.
′
On commence par montrer que cette famille est libre. Pour cela, on considère une combinaison
linéaire
xi1 −
v→ → →
− −
i1 + · · · + xir vir = 0 .
Par conséquent
→
−
f (−
e→ −
→ −
→
jk ) + bi1 jk f (ei1 ) + · · · + bir jk f (eir ) = 0
et
−
v→ −
→ → →
− −
jk + bi1 jk vi1 + · · · + bir jk vir = 0 .
Ainsi −
v→ −
→ −
→
jk ∈ Vect(vi1 , . . . , vir ). Par conséquent
im(A) = Vect(−
v→ −
→
i1 , . . . , vir ).
Donc B ′ est génératrice, c’est donc une base et la dimension de l’image de A est bien le rang de
A.
82 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
1 0 −1
et on échelonne
1 1 0 1 1 0 1 1 0
1 2 1 0 1 1 0 1 1
↔ ↔
0 1 1 0 1 1 0 0 0
1 0 −1 0 −1 −1 0 0 0
On a deux inconnues principales (d’indices 1 et 2). On obtient donc un espace vectoriel de di-
mension 2 et de base (1, 1, 0, 1), (1, 2, 1, 0).
Même situation, autre problème : on voudrait déterminer un système d’équations décrivant
l’image d’une matrice/d’une application linéaire/d’un sous-espace vectoriel engendré par des vec-
teurs donnés. Notons → −
v1 , . . . , →
−
vp des vecteurs de Rn engendrant l’espace à étudier E. Alors →
−
y ∈E
si et seulement s’il existe (λ1 , . . . , λp ) ∈ R tel que
p
λ1 →
−
v1 + · · · + λp →
−
vp = →
−
y.
On a donc →−
y ∈ E si et seulement si le système associé à λ1 →
−
v1 + · · · + λ p →
−
vp = →
−
y est compatible.
Les équations de compatibilité du système fournissent la description de E cherchée.
Exemple 4.4.2. On reprend la matrice
1 1 0
1 2 1
A=
0
.
1 1
1 0 −1
4.5. CONSÉQUENCES SUR LES FAMILLES LIBRES ET GÉNÉRATRICES 83
On note (y1 , y2 , y3 , y4 ) les coordonnées dans R4 . Pour obtenir un système décrivant l’image de A,
on cherche les équations de compatibilité du système augmenté
1 1 0
y1
1 2 1 y2 .
0 1 1
y3
1 0 −1 y4
1 1 0 1 1 0 1 1 0
y1 y1 y1
1 2 1 y 2
0 1 1 −y1 + y2 0 1 1 −y1 + y2
↔ ↔
0 1 1 0 1 1 0 0 0 y1 − y2 + y3
y3 y3
1 0 −1 y4 0 −1 −1 −y1 + y4 0 0 0 −2y1 + y2 + y4
Remarque 4.4.3. La méthode la plus standard pour déterminer le rang d’une matrice (ou
la dimension de l’image) est de faire des opérations sur les colonnes et de conserver les colonnes
correspondant aux pivots. Les opérations considérées dans ce cas sont l’équivalent sur les colonnes
des opérations qu’on a vu sur les lignes (permutation de deux colonnes, multiplication par un réel
non nul, ajout d’un multiple d’une autre colonne). L’intérêt est que ces opérations ne changent
pas l’image de la matrice... Voir l’an prochain pour plus de détails !
Démonstration. On rappelle que toutes les bases de E ont pour cardinal la dimension de E.
1. On peut compléter une famille libre en une base, une famille libre a donc moins d’éléments
qu’une base.
2. On peut extraire une base de toute famille génératrice, une famille génératrice a donc plus
d’éléments qu’une base.
3. On peut compléter une famille libre en une base. Si cette famille a le cardinal de toute base,
c’est que c’est déjà une base.
4. On peut extraire une base d’une famille génératrice. Si cette famille a le cardinal de toute
base, c’est que c’est déjà une base.
Démonstration. On prend une base de F , c’est une famille libre de E. On a donc dim(F ) ≤
dim(E). Si dim(F ) = dim(E), on a donc une famille libre de cardinal dim(E) c’est donc une base
de E. La famille est donc génératrice de E et F = E.
→
− →
− →
−
λ1 →
−
e1 + · · · + λr →
−
er + µ1 f1 + · · · + µs fs = 0
4.6. ESPACES SUPPLÉMENTAIRES, SOMMES DIRECTES, PROJECTIONS ET SYMÉTRIES85
et
→
− →
− →
−
µ1 f1 + · · · + µs fs = 0 .
Comme les familles BE et BF sont libres, on obtient λ1 = · · · = λr = µ1 = · · · = µs = 0. Donc la
combinaison linéaire est triviale et la famille est libre. Enfin, B est génératrice par définition de
supplémentaire. On en déduit que B est une base et donc que dim(E) + dim(F ) = n.
→
−
Réciproquement, supposons que E ∩ F = { 0 } et dim(E) + dim(F ) = n. Montrons que B est
une base de R . Montrons en premier que B est libre. Soit
n
→
− →
− →
−
λ1 →
−
e1 + · · · + λr →
−
er + µ1 f1 + · · · + µs fs = 0
et
→
− →
− →
−
µ1 f1 + · · · + µs fs = 0 .
Comme les familles BE et BF sont libres, on obtient λ1 = · · · = λr = µ1 = · · · = µs = 0. Donc la
combinaison linéaire est triviale et la famille est libre. Comme dim(E) + dim(F ) = n, la famille
B est de cardinal n. C’est donc une base de Rn . Soit → −
w ∈ Rn . Alors
→
− →
− →
−
w = λ1 →
−
e1 + · · · + λr →
−
er + µ1 f1 + · · · + µs fs
et en posant
→
−
u = λ1 →
−
e1 + · · · + λ r →
−
er ∈ E
et
→
− →
− →
−
v = µ1 f1 + · · · + µs fs ∈ F
on obtient la décomposition →
−
w =→
−
u +→−v cherchée. Cette décomposition est unique car si
→
− →
− → −
w =→
−
u +→
−
v = u′ + v ′
on obtient →
− →
− −
→
−u − u′ = v ′ − →
v.
→
− →
− →
−
Comme E ∩ F = { 0 }, on en déduit que →
−
u = u′ et v ′ = →
−
v . Les sous-espaces vectoriels E et F
sont donc supplémentaires.
⟨→
−
u,→
−
v ⟩ = x1 y1 + · · · + xn yn .
La norme du vecteur →
−
u = (x1 , . . . , xn ) est
q q
∥→−u ∥ = ⟨→ −u,→
−
u ⟩ = x21 + · · · + x2n .
Les vecteurs →
−
u et →
−
v sont dits orthogonaux si ⟨→
−
u,→−v ⟩ = 0.
Théorème 4.7.1. [Théorème de Pythagore] Les vecteurs → −u et →
−
v de Rn sont orthogonaux si et
seulement si
∥→
−u +→−
v ∥2 = ∥→
−u ∥2 + ∥→−
v ∥2
Démonstration. On a
∥→
−
u +→
−
v ∥2 = ⟨→
−
u +→
−
v ,→
−
u +→
−
v ⟩ = ⟨→
−
u,→
−
u ⟩ + 2⟨→
−
u,→
−
v ⟩ + ⟨→
−
v ,→
−
v ⟩ = ∥→
−
u ∥2 + ∥→
−
v ∥2 + 2⟨→
−
u,→
−
v ⟩.
E ⊥ = {→
−
u ∈ Rn , ⟨→
−
u,→
−
v ⟩ = 0 pour tout →
−
v ∈ E}.
∥→
−
v −→
−
u ∥ ≥ ∥pE (→
−
u)−→
−
u ∥.
avec →
−
w ∈ E ⊥ . On écrit alors
→
−
v −→
−
u =→
−
v − pE (→
−
u)−→
−
w
avec
→
−
v − pE (→
−
u ) ∈ E et →
−
w ∈ E⊥.
Par le théorème de Pythagore, on obtient
∥→
−
v −→
−
u ∥2 = ∥→
−
v − pE (→
−
u )∥2 + ∥→
−
w ∥2 .
S=−
→ + ker(f ) = {−
x 0
→+→
x 0
−
u,→
−
u ∈ ker(f )}.
f (−
→+→
x 0
−
u ) = f (−
→) + f (→
x 0
−
u) =→
−
y
donc
−
→ + ker(f ) = {−
x →+→
x −
u , u ∈ ker(f )} ⊂ S
0 0
→
− →
−
Réciproquement, si f ( x ) = y , alors
→
−
f (→
−
x −−
→) = →
x 0
−
y −→
−
y = 0
d’où →
−
x −−
→=→
x 0
−
u ∈ ker(f ) et →
−
x =−
→+→
x 0
−
u.
Exemple 4.8.2. (
x+y−z+t+u=1
2x + y + 2z − t + u = 2
On résout le système
( ( (
x+y−z+t+u=1 x+y−z+t+u=1 x + 3z − 2t = 1
⇔ ⇔
2x + y + 2z − t + u = 2 −y + 4z − 3t − u = 0 −y + 4z − 3t − u = 0
( (
x + 3z − 2t = 1 x = 1 − 3z + 2t
⇔ ⇔
y − 4z + 3t + u = 0 y = 4z − 3t − u
D’où
S = {(1 − 3z + 2t, 4z − 3t − u, z, t, u), z, t, u ∈ R}
On obtient bien une solution particulière (1, 0, 0, 0, 0) et les solutions du système homogène.
4.9.3 Variantes
Les données ne sont pas forcément distribuées le long d’une droite (ça peut se voir sur le dessin
ou en calculant le coefficient de corrélation). Voici quelques exemples de régression pour d’autres
types de courbes
1. Approximation quadratique. On cherche la meilleure approximation sous la forme y =
ax2 + bx + c. On a alors
1
2
x1 x1
a
.. .. .. , C = b .
M = . . .
x2n xn 1 c
1 cos(ωx1 ) sin(ωx1 )
a
M = ... ..
.
..
. , C = b .
1 cos(ωxn ) sin(ωxn ) c
ln(y1 ) 1
x1
.. .. .. , C = a .
ln(Y ) = . , M = . . b
ln(yn ) xn 1
Considérons la matrice
1/2 1/2
A= .
1/2 1/2
On note f l’application linéaire associée dans la base canonique. Soit → −
u = (1, 1) et →
−
v = (−1, 1).
On a
1/2 1/2 1 1 1/2 1/2 0
−1
= et =
1/2 1/2 1 1 1/2 1/2 1 0
→
−
et, par conséquent f (→
−
u) = →−u et f (→−
v ) = 0 . On comprendrait mieux f si on pouvait écrire sa
matrice dans une base qui reflète les propriétés de f au lieu d’utiliser la base canonique. On peut
faire le même constat avec
3/2 1/2
B= .
1/2 3/2
et g l’application linéaire associée dans la base canonique. On a
91
92 CHAPITRE 5. CALCUL MATRICIEL DANS DES BASES QUELCONQUES
La matrice Mat(f ) de l’application linéaire f étudiée dans les chapitres précédents est la
matrice de l’application linéaire dans les bases canoniques !
1 0
MatB,B (f ) =
0 0
et
2 0
MatB,B (g) =
0 1
0 1 0
MatB,B′ (f ) =
1 0 0
LB (x1 , . . . , xp ) = x1 −
→ + ··· + x −
u1
→
p up .
LB′ (y1 , . . . , yn ) = y1 →
−
v1 + · · · + yn −
v→
n.
MatB,B′ (f ) = Mat(L−1
B′ ◦ f ◦ LB ).
Démonstration. On note (→
−
e1 , . . . , →
−
ep ) la base canonique de Rp . On a alors
(L−1 →
− −1 →
−
B′ ◦ f ◦ LB )( ej ) = LB′ (f (uj )).
La matrice PB0 ,B1 est la matrice dont la j-ième colonne est composée des coordonnées du j-ième
vecteur de B1 dans la base B0 .
Proposition 5.1.6. Soient B0 et B1 deux bases de E. La matrice PB0 ,B1 est inversible et PB−1
0 ,B1
=
PB1 ,B0 .
5.2. OPÉRATIONS SUR LES MATRICES 93
p−1 −1
B0 ,B1 = (LB0 ◦ LB1 )
−1
= L−1
B1 ◦ LB0 = pB1 ,B0 .
Proposition 5.1.7. Soient B0 et B1 deux bases de E, B0′ et B1′ deux bases de F . Soit f ∈ L(E, F ).
On a
MatB1 ,B1′ (f ) = PB1′ ,B0′ MatB0 ,B0′ (f )PB0 ,B1 .
Démonstration. On a
= Mat(L−1 −1 −1
B ′ ◦ LB0 ◦ LB ′ ◦ f ◦ LB0 ◦ LB0 ◦ LB1 )
′
1 0
= Mat(L−1
B ′ ◦ f ◦ LB1 )
1
= MatB1 ,B1′ (f ).
Attention aux notations : l’ordre des bases n’est pas forcément intuitif dans cet énoncé !
Exemple 5.1.8. On reprend un des exemples précédents. Soit f : R3 → R2 définie par f (x, y, z) =
(−y + z, x − y). On considère B0 la base canonique de R3 , B1 = ((1, 0, 0), (1, 0, 1), (1, 1, 1)), B0′ la
base canonique de R2 et B1′ = ((1, 1), (0, 1)) . On a alors
0 −1 1
Mat(f ) = MatB0 ,B0′ (f ) =
1 −1 0
1 1 1
PB0 ,B1 = 0 0 1
0 1 1
1 0
PB0′ ,B1′ =
1 1
d’où
1 0
PB1′ ,B0′ =
−1 1
et
1 1 1
1 0 0 −1 1 0 1 0
Mat B1 ,B1′ (f ) = 0 0 1 =
1 1 −1 0 1 0 0
−1
0 1 1
et on retrouve bien le même résultat qu’avant.
Démonstration. On a
MatB,B′′ (f ◦ g) = Mat(L−1
B′′ ◦ f ◦ g ◦ LB )
= Mat(L−1 −1
B′′ ◦ f ◦ LB′ ◦ LB′ ◦ g ◦ LB )
= Mat(L−1 −1
B′′ ◦ f ◦ LB′ )Mat(◦LB′ ◦ g ◦ LB )
= MatB′ ,B′′ (f )MatB,B′ (g).
MatB (f ) = MatB,B (f )
MatB1 (f ) = PB−1
0 ,B1
MatB0 (f )PB0 ,B1
Tr(P −1 AP ) = Tr(A).
Corollaire 5.3.5. Soit f ∈ L(Rp ). Alors Tr(MatB (f )) ne dépend pas de la base B de Rp choisie
pour calculer la trace. Cette valeur est appelée la trace de f .
5.4. APPLICATION 3 : ÉVOLUTION DE SYSTÈMES, MATRICES DE TRANSITION 95
1/2 1/2
A= ,
1/2 1/2
f l’application linéaire associée dans la base canonique B0 et B1 = ((1, 1), (1, −1)). On a
1/2 1/2 1 0
MatB0 (f ) = et MatB1 (f ) =
1/2 1/2 0 0
det(P −1 AP ) = det(A).
0.8
0.7
0.1
Dormir Manger
0.6 0.3
0.1 0.1
Courir
0.3
Définition 5.4.1. La matrice de transition du processus est la matrice M = (aij ) où aij est la
probabilité de passer à l’état i à partir de l’état j.
Dans le cas de Félix, on obtient (pour les état dormir, manger, courir)
M = 0.1 0 0.1
0.1 0.3 0.3
Définition 5.4.2. La liste des états est complète si la somme des éléments de chaque colonne
vaut 1. On dit alors que le système est fermé.
Le système Félix est fermé. On repère l’état de Félix au temps n par le vecteur
d(n)
F (n) = m(n)
c(n)
où d(n) est la probabilité que Félix dorme, m(n) la probabilité qu’il mange et c(n) la probabilité
qu’il courre. Les règles du processus nous donnent que
Exemple 5.4.4. Si Félix dort à 8h, le modèle nous dit que Félix est dans l’état M 12 0 à 9h.
0
Définition 5.4.5. Un vecteur colonne F est un état du système si
5.4. APPLICATION 3 : ÉVOLUTION DE SYSTÈMES, MATRICES DE TRANSITION 97
Définition 5.4.6. Une matrice M ∈ Mp (R) est dite irréductible s’il existe n ≥ 1 tel que tous les
coefficients de M n sont > 0.
0.761...
X = 0.0.90... .
0.147....
En mode stationnaire, Félix passe donc 76% de son temp à dormir, 9% de son temps à manger
et 15% de son temps à courir.
Si le système n’est pas fermé, la théorie précédente ne s’applique pas mais on peut quand-même
chercher des situations stables.
Voici les règles de fonctionnement d’un club sportif
— chaque année, le club recrute 15 nouveaux joueurs et ces joueurs sont affectés à l’équipe B
— un membre du club a 25% de chance d’arrêter de pratiquer ce sport en club
— un membre de l’équipe B a 50% de chance de passer en équipe A à la fin de la saison
— un membre de l’équipe A a 25% de chance de changer de club à la fin de la saison.
On obtient le graphe suivant
98 CHAPITRE 5. CALCUL MATRICIEL DANS DES BASES QUELCONQUES
50%
Équipe A
25% 25%
+15 25%
Équipe B
25%
xA
Le système est repéré par X = les effectifs des équipes A et B. La matrice de transition
xB
est
1/2 1/2
M= .
0 1/4
L’évolution du système est décrite par
0
X(n + 1) = M X(n) + .
15
Le terme constant traduit l’apparition de joueurs, les colonnes de la matrice n’ont pas pour somme
1 (il y a disparition de joueurs). Une situation stable est décrite par la condition
0
X = MX +
15
Intégration
Résultats pouvant faire l’objet d’une question de cours
— propriétés élémentaires de l’intégrale en 1d, 2d et 3d (1.1.5, 1.2.16 et 1.3.9) et inégalité
triangulaire (1.2.19 et 1.3.11)
— définition de l’aire d’un domaine régulier (1.2.20), définition du volume d’un domaine
régulier (1.3.12)
— définition du centre de gravité d’un domaine régulier 2d (1.2.33) et 3d (1.3.24)
— théorèmes de Fubini pour les produits (1.2.40 et 1.3.28)
— définition d’une dilatation en 2d et 3d (1.2.47 et 1.3.30)
— définition d’une isométrie en 2d et 3d (1.2.53 et 1.3.32)
— passage en coordonnées polaires (1.2.60) et cylindriques (1.3.37) (ça comprend la définition
de ϕ !)
Méthodes importantes
— savoir calculer une intégrale sur un segment (en particulier par calcul de primitive, inté-
gration par partie et changement de variable 1.1.12)
— savoir reconnaître un domaine élémentaire (2d et 3d), savoir décomposer un domaine
régulier en domaines élémentaires (2d)
— savoir tracer un domaine régulier (2d)
— savoir déterminer un centre de gravité en 2d et 3d, par exemple en utilisant la formule
d’additivité (1.2.35)
— savoir déterminer l’image d’un domaine régulier par une dilatation ou une isométrie
100 CHAPITRE 5. CALCUL MATRICIEL DANS DES BASES QUELCONQUES
Rn
Résultats pouvant faire l’objet d’une question de cours
— définition de vecteurs colinéaires (1.3.42)
— définition d’une droite vectorielle (1.3.44), d’un plan vectoriel (1.3.46)
— définition de la base canonique de Rn (1.3.49)
Méthodes importantes
— addition de deux vecteurs, multiplication d’un vecteur par un réel
— à partir de vecteurs générateurs, déterminer un système d’équations décrivant une droite
ou un plan
— à partir d’un système d’équations décrivant une droite ou un plan déterminer des vecteurs
générateurs
Systèmes linéaires
Résultats pouvant faire l’objet d’une question de cours
— définition d’inconnue principale, secondaire, d’équation de compatibilité et de système
compatible (2.2.10 et 2.2.11)
— définition du rang d’un système linéaire (2.5.1)
Méthodes importantes
— passer d’une représentation d’un système linéaire à une autre (sous forme d’un système,
d’une matrice augmentée, d’une combinaison linéaire)
— reconnaître le type d’un système linéaire (triangulaire, échelonné, réduit, de Cramer, ho-
mogène)
— reconnaitre les inconnues principales et secondaires d’un système échelonné
— déterminer le rang d’un système linéaire ou d’une matrice
— mettre un système sous forme échelonnée, réduite ou résoudre en appliquant l’algorithme
du pivot de Gauss
— savoir gérer un système à paramètre
Méthodes importantes
— déterminer la matrice d’une application linéaire
— retrouver la matrice d’une rotation, d’une homothétie, d’une symétrie et d’une projection
par rapport aux axes en dimension 2
— reconnaitre la matrice d’une rotation, d’une homothétie, d’une symétrie et d’une projection
par rapport aux axes en dimension 2
— calculer matriciellement l’image d’une vecteur par une application linéaire
— savoir additionner, multiplier par un réel, multiplier des matrices
— déterminer si une matrice est inversible
— calculer l’inverse d’une matrice inversible (cas général et cas particulier de la dimension 2)
Méthodes importantes
— savoir reconnaître un espace vectoriel défini comme une image, un noyau, un espace vec-
toriel engendré par une famille de vecteurs
— déterminer la dimension et une base d’un espace vectoriel défini comme un noyau/ensemble
de solutions d’un système linéaire homogène ou comme une image/sous-espace vectoriel
engendré par une famille de vecteurs
— extraire une base d’une famille génératrice
— déterminer un système d’équations linéaires homogènes décrivant une image/un sous-
espace vectoriel engendré par une famille de vecteurs
— montrer qu’une famille de vecteurs est une base, déterminer les coordonnées d’un vecteur
dans cette base
— montrer que deux espaces sont supplémentaires, déterminer un supplémentaire dans des
cas simple
Méthodes importantes
— déterminer une matrice de passage
— déterminer la matrice d’une application linéaire dans des bases quelconques
— déterminer la matrice d’une application linéaire après un changement de base