0% ont trouvé ce document utile (0 vote)
50 vues88 pages

Maths S2

Ce document présente un cours sur l'intégration, incluant des rappels sur l'intégration des fonctions d'une variable, ainsi que des concepts d'intégrales doubles et triples. Il aborde les sommes de Riemann, les propriétés de l'intégrale, ainsi que la relation entre intégrales, dérivées et primitives. Enfin, le document traite de l'intégration des fonctions de deux variables.

Transféré par

lesennzu
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
50 vues88 pages

Maths S2

Ce document présente un cours sur l'intégration, incluant des rappels sur l'intégration des fonctions d'une variable, ainsi que des concepts d'intégrales doubles et triples. Il aborde les sommes de Riemann, les propriétés de l'intégrale, ainsi que la relation entre intégrales, dérivées et primitives. Enfin, le document traite de l'intégration des fonctions de deux variables.

Transféré par

lesennzu
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Mathématiques 2 - PEIP

Anne Vaugon
d’après les notes de Rémi Leclercq et Michel Rumin

16 mars 2023
2

Ce cours reprend des notes de cours manuscrites de Rémi Leclercq qui doivent beaucoup au
cours de Michel Rumin.
Chapitre 1

Intégration

Ce cours comprend des rappels sur l’intégration des fonctions définies sur un intervalle (voir
S1), une présentation de l’intégrale double (pour les fonctions de deux variables) et de l’intégrale
triple (pour les fonctions de trois variables).

1.1 Rappels de dimension 1

Soit f : [a, b] → R une fonction définie sur l’intervalle [a, b]. On rappelle que le graphe de f
est le sous-ensemble de R2 défini par

{(x, f (x)), x ∈ [a, b]} .

1.1.1 Sommes de Riemann

On considère f : [a, b] → R une fonction continue. Soit n ≥ 1. On échantillonne I = [a, b] en


considérant les points de la forme k/n où k ∈ Z contenus dans I. On note xk = k/n. Par exemple
pour n = 3 et I = [1/2, 2], les points considérés dans l’échantillonnage sont x2 = 2/3, x3 = 1,
x4 = 4/3, x5 = 5/3 et x6 = 2. Sur l’intervalle [xk , xk+1 [, on approche f par sa valeur en xk , c’est
à dire f (xk ). On obtient ainsi une fonction en escalier, notée fn . Dans l’exemple précédent, f3
est définie sur l’intervalle [2/3, 7/3[. Lorsque n → ∞ le pas d’échantillonnage converge vers 0 et
fn est une approximation de f de plus en plus fine.

Définition 1.1.1. La somme de Riemann de f associée à l’échantillonnage {xk } de pas 1


n est

1 X
Sn (f ) = f (xk ).
n
{xk ∈I}

3
4 CHAPITRE 1. INTÉGRATION

f (x4 ) f (x5 ) f (x6 )


f (x3 )

f (x2 )

x2 x3 x4 x5 x6
0.5 1 1.5 2

Toujours avec l’exemple précédent, on obtient

1 2 4 5
       
S3 (f ) = f + f (1) + f +f + f (2) .
3 3 3 3

Géométriquement, Sn (f ) est l’aire algébrique entre l’axe des abscisses et le graphe de fn :


— si f (xk ) ≥ 0, alors f (xk )/n est l’aire du rectangle [xk , xk+1 [ × [0, f (xk )] ;
— si f (xk ) < 0, alors f (xk )/n est l’opposé de l’aire du rectangle [xk , xk+1 [ × [f (xk ), 0].
On parle d’aire algébrique car l’aire des rectangles sous l’axe des abscisses est comptée négative-
ment.

Théorème 1.1.2. Soit f : [a, b] → R continue, alors les sommes de Riemann Sn (f ) convergent
vers un nombre réel quand n → ∞. On appelle cette limite l’intégrale de f sur [a, b] et on la note
Z b
f (t)dt.
a

1.1.2 Interprétation : intégrale et aire


Comme Sn (f ) est l’aire entre l’axe des abscisses et le graphe de fn , que fn est une approxi-
Rb Rb
mation de f et que a f (t)dt = limn→∞ Sn (f ), le réel a f (t)dt est l’aire algébrique entre l’axe
des abscisses et le graphe de f . Comme précédemment, on compte l’aire avec signe
Rb
1. si f ≥ 0 sur [a, b], a f (t)dt = Aire (x, y) ∈ R2 , a ≤ x ≤ b, 0 ≤ y ≤ f (x) ;
 
Rb
2. si f ≤ 0 sur [a, b], a f (t)dt = −Aire (x, y) ∈ R2 , a ≤ x ≤ b, 0 ≤ y ≤ f (x) ;
 

3. si f change de signe, on découpe [a, b] en sous-intervalles sur lesquels f est de signe constant.
1.1. RAPPELS DE DIMENSION 1 5

Remarque 1.1.3. La notion d’aire pour une partie de R2 n’est pas facile à définir en général (ce
n’est même pas toujours possible), l’intégrale permet ici de définir l’aire entre l’axe des abscisses
et le graphe d’une fonction continue (on verra plus tard comment traiter des cas plus généraux).
La notion d’aire obtenue ici coïncide avec la notion d’aire que vous connaissez déjà (pour un
rectangle, un triangle...) mais ce n’est pas évident : il faut prouver ce résultat !
Remarque 1.1.4. L’interprétation de l’intégrale à l’aide de la notion d’aire est un bon point de
vue pour l’intuition, la compréhension de propriétés et la généralisation aux dimensions 2 et 3.
Ce point du vue est rarement utilisé pour faire des calculs (sauf pour les fonctions constantes).
En fait, c’est plutôt l’inverse : on utilise usuellement l’intégrale pour calculer des aires !

1.1.3 Interprétation : intégrale et masse


On pense à I comme à une barre constituée d’un matériau dont la densité est ρ (la densité
est ici la masse par unité de longueur). Alors
Z b
Masse(I) = ρ(t)dt.
a

Intuition
X
Masse(I) = Masse I|[xk ,xk+1 [


k
X 1 X
≃n→∞ f (xk )Longueur([xk , xk+1 [) = ρ(xk ) = Sn (f ).
n
k,xk ∈I k,xk ∈I

1.1.4 Propriétés élémentaires de l’intégrale


Proposition 1.1.5.
Rb Rb
1. (Croissance) Si f, g : [a, b] → R sont continues et f ≤ g alors a f (t)dt ≤ a g(t)dt ;
2. (Additivité – Relation de Chasles) Si a ≤ b ≤ c et f : [a, c] → R est continue alors
Z c Z b Z c
f (t)dt = f (t)dt + f (t)dt.
a a b
Rb
3. (Normalisation) a 1dt = (b − a)
4. (Linéarité) Si f, g : [a, b] → R sont continues et α ∈ R alors
Z b Z b Z b
(f (t) + g(t))dt = f (t)dt + g(t)dt
a a a
Z b Z b
αf (t)dt = α f (t)dt.
a a

Par convention, si f : [a, b] → R est continue, on pose


Z a Z b
f (t)dt = − f (t)dt
b a

On obtient alors la relation de Chasles sous une forme plus générale Si a, b, c ∈ I et f : I → R est
continue alors Z c Z b Z c
f (t)dt = f (t)dt + f (t)dt.
a a b
6 CHAPITRE 1. INTÉGRATION

Rb
Remarque 1.1.6. La croissance de l’intégrale garantit que si f ≥ 0 alors a f (t)dt ≥ 0 (on
parle parfois de positivité de l’intégrale). Plus généralement, cette propriété permet d’encadrer
des intégrales. Par exemple, pour tout 1 ≤ t ≤ 2, on a 12 ≤ 1t ≤ 1. On en déduit
1 1 1
Z 2 Z 2 Z 2
= dt ≤ dt ≤ 1dt = 1.
2 1 2 1 t 1

et donc
0, 5 ≤ ln(2) ≤ 1
(en fait ln(2) ≃ 0, 69).

1.1.5 Intégrales, dérivées et primitives


Définition 1.1.7. Soit f : [a, b] → R une fonction. Une primitive de f sur [a, b] est une fonction
F : [a, b] → R dérivable telle que F ′ = f .
Théorème 1.1.8 (Théorème fondamental de l’analyse). Soit f : [a, b] → R une fonction continue.
1. Alors la fonction F : [a, b] → R définie par
Z x
F (x) = f (t)dt
a

est dérivable sur [a, b] de dérivée F ′ = f . De plus F (a) = 0.


2. Soit G une autre primitive de f sur [a, b], alors G = F + G(a).
La fonction F est donc une primitive de f . C’est la primitive de F qui s’annule en a.
Remarquons que, dans le théorème fondamental de l’analyse, comme f est supposée continue,
F est automatiquement de classe C 1 .

Exemple 1.1.9. On considère f : [0, ∞[ → R définie par f (t) = t. Alors, pour tout x ≥ 0, on
a
2
Z x√
tdt = x2/3
0 3
et x 7→ 23 x2/3 est la primitive de f qui s’annule en 0.
Le théorème fondamental de l’analyse nous dit que si on sait calculer une primitive, on sait
calculer des intégrales. En effet, pour x = b et G une primitive de f , on obtient
Z b
f (t)dt = G(b) − G(a).
a

Exemple 1.1.10.
1. Soit 0 < a ≤ b et soit k ̸= −1, alors
Z b  k+1 b
t bk+1 ak+1
tk dt = = − .
a k+1 a k+1 k+1
2. Soit a ≤ b, alors
Z b
b
cos(t)dt = [sin(t)]a = sin(b) − sin(a).
a
Cas particulier : a = 0 et b = 2π, on obtient
Z 2π
cos(t)dt = 0
0

sur le dessin les aires au-dessus et en dessous de l’axe des abscisses se compensent.
1.1. RAPPELS DE DIMENSION 1 7

−1 0 1 2 3 4 5 6

−1

−2

3. Soit 0 < a ≤ b alors


b
1
Z
b
dt = [ln(t)]a = ln(b) − ln(a)
a t
4. Soit a ≤ b < 0 alors
b
1
Z
b
dt = [ln(|t|)]a = ln(|b|) − ln(|a|)
a t
Corollaire 1.1.11.
1. (Intégrale d’une dérivée) Si f : [a, b] → R est de classe C 1 , alors
Z b
f ′ (t)dt = f (b) − f (a).
a

2. (Intégration par parties) Soient f, g : [a, b] → R de classe C 1 , alors


Z b Z b
b
f ′ (t)g(t)dt = [f (t)g(t)]a − f (t)g ′ (t)dt.
a a

3. (Changement de variables) Soient ϕ : [a, b] → R de classe C 1 et f : ϕ([a, b]) → R continue,


alors Z b Z ϕ(b)
f (ϕ(x)) ϕ′ (x)dx = f (y)dy
a ϕ(a)

Démonstration.
1. La fonction f est une primitive de f ′ et on applique le théorème fondamental de l’analyse.
2. Soit h = f g alors h′ = f ′ g + f g ′ . On en déduit
Z b Z b
h′ (t)dt = (f ′ (t)g(t) + f (t)g ′ (t)dt.
a a

Par le point précédent et la linéarité de l’intégrale, on obtient


Z b Z b
b
[f (t)g(t)]a = f ′ (t)g(t)dt + f (t)g ′ (t)dt
a a

qui est la formule cherchée.


3. Soit F une primitive de f . On considère la fonction ψ : [a, b] → R définie par

ψ(x) = F (ϕ(x)) − F (ϕ(a)).


8 CHAPITRE 1. INTÉGRATION

Notons que ψ(a) = 0. Alors, par le théorème fondamental de l’analyse, on a


Z ϕ(b)
ψ(b) = F (ϕ(b)) − F (ϕ(a)) = f (y)dy.
ϕ(a)

Mais, ψ est de classe C 1 comme composée de fonctions C 1 . Pour tout x ∈ [a, b], on a

ψ ′ (x) = ϕ′ (x)f (ϕ(x)).

On applique alors le premier point pour obtenir


Z b
ψ(b) − ψ(a) = ϕ′ (x)f (ϕ(x))dx
a

et donc
Z ϕ(b) Z b
f (y)dy = ψ(b) = ϕ′ (x)f (ϕ(x))dx
ϕ(a) a

ce qu’on voulait.

1.2 Intégration des fonctions de deux variables


1.2.1 Fonctions de deux variables
Une fonction de deux variables est une fonction f : D → R où D, le domaine de définition de
f , est un sous-ensemble de R2 . Le graphe de f est le sous-ensemble de R3 défini par

graphe(f ) = {(x, y, f (x, y)), (x, y) ∈ D} .

Cette notion généralise la notion de graphe d’une fonction en une variable.

Exemple 1.2.1. Les fonction (x, y) 7→ x2 +y 2 définie sur R2 , (x, y) 7→ 1


x2 +y 2 définie sur R2 \{(0, 0}
et (x, y) 7→ x + y définie sur R2 sont des fonctions de deux variables.
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 9

Comme dans le cas des fonctions en une variable, on va intégrer des fonctions continues.
Définition 1.2.2. Soit D ⊂ R2 , soit f : D → R. On dit que f est continue sur D si pour tout
(x0 , y0 ) ∈ D, f (x, y) → f (x0 , y0 ) quand (x, y) → (x0 , y0 ) dans D.
Comme pour les fonctions en une variable, on utilise rarement la définition pour montrer
qu’une fonction est continue. Les propriétés suivantes sont l’outil principal pour montrer la conti-
nuité.
Propriété 1.2.3.
1. La classe des fonctions continue est stable par les opérations usuelles : si f, g : D → R sont
continues et α ∈ R alors f + g, αf et f · g sont continues.
2. Si I ⊂ R et f : D → I et g : I → R sont continues alors g ◦ f est continue (rappel : pour
(x, y) ∈ D, (g ◦ f )(x, y) = g(f (x, y))).
3. Les polynômes en les coordonnées x et y sont continus.
Exemple 1.2.4.
— Les fonctions de l’exemple précédent sont continues sur leur domaine de définition (découle
de la continuité des polynômes et de la fonction inverse sur R∗ ).
— La fonction (x, y) 7→ sin(x2 + y 2 ) + ex+cos(y) est continue sur R2 (découle de la continuité
des polynômes sur R2 et des fonctions cos, sin et exp sur R).
— La fonction qui vaut 1 en (0, 0) et 0 ailleurs n’est pas continue sur R2 .
10 CHAPITRE 1. INTÉGRATION

1.2.2 Domaines réguliers de R2

On ne peut pas intégrer des fonctions sur n’importe quel domaine de R2 . Dans ce cours, tous
les domaines sont définis pas des inéquations

D = (x, y) ∈ R2 , f1 (x, y) ≥ 0, f2 (x, y) ≥ 0, . . . , fn (x, y) ≥ 0 .




Remarque 1.2.5. Toutes les inégalités peuvent être mises sous la forme précédente (le sens des
inégalités, la présence de constantes, de membre des deux côtés de l’inégalité ne posent pas de
problème) : par exemple x2 + y 2 ≤ 1 équivaut à 1 − x2 − y 2 ≥ 0 ou encore x + 2 ≥ 2y équivaut à
x + 2 − 2y ≥ 0.

Pour tracer un domaine D défini par des inégalités

1. On trace les courbes correspondant aux cas d’égalité.

2. Pour chacun des courbes précédentes, on détermine quel côté nous intéresse (par exemple
en testant des points).

3. On garde l’intersection de toutes ces zones.

Exemple 1.2.6.

1.

D = (x, y) ∈ R2 , 0 ≤ y, 0 ≤ x ≤ 3, x + 2 ≥ 2y .


2.

D = (x, y) ∈ R2 , 1 ≤ x2 + y 2 ≤ 4, x + y ≥ 0 .

1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 11

La condition précédente sur D autorise encore des domaines trop compliqués. Pour intégrer,
on va se restreindre à la classe des domaines réguliers.

Définition 1.2.7. Un domaine D est un domaine élémentaire vertical s’il est de la forme

D = (x, y) ∈ R2 , a ≤ x ≤ b, f (x) ≤ y ≤ g(x)




où f, g : [a, b] → R sont continues et vérifient f ≤ g.

4
g

3
D

2
f

a b

−1 0 1 2 3 4 5

−1

Exemple 1.2.8.

x+2
 
D = (x, y) ∈ R2 , 0 ≤ y, 0 ≤ x ≤ 3, x + 2 ≥ 2y = (x, y) ∈ R2 , 0 ≤ x ≤ 3, 0 ≤ y ≤

.
2
12 CHAPITRE 1. INTÉGRATION

n p o
D = (x, y) ∈ R2 , x2 + y 2 ≤ 4, y ≥ 0 = (x, y) ∈ R2 , −2 ≤ x ≤ 2, 0 ≤ y ≤ 4 − x2 .


Un domaine élémentaire vertical est naturellement découpé en tranches verticales : la tranche


verticale associée à x0 ∈ [a, b] est

{(x0 , y), f (x0 ) ≤ y ≤ g(x0 )} .

Définition 1.2.9. Un domaine D est un domaine élémentaire horizontal s’il est de la forme

D = (x, y) ∈ R2 , a ≤ y ≤ b, f (y) ≤ x ≤ g(y)




où f, g : [a, b] → R sont continues et vérifient f ≤ g.


1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 13

b
4

3
f
D
2
g
a
1

−2 −1 0 1 2 3 4 5 6 7

−1

Exemple 1.2.10.
n p o
D = (x, y) ∈ R2 , x2 + y 2 ≤ 4, x ≤ 0 = (x, y) ∈ R2 , −2 ≤ y ≤ 2, − 4 − y 2 ≤ x ≤ 0 .


Un domaine élémentaire horizontal est naturellement découpé en tranches horizontales : la


tranche horizontale associée à y0 ∈ [a, b] est

{(x, y0 ), f (y0 ) ≤ x ≤ g(y0 )} .

Définition 1.2.11. Un domaine D est dit régulier s’il est décomposable en une union finie de
domaines élémentaires horizontaux ou verticaux.

Exemple 1.2.12. On considère D comme sur la figure. Pour décomposer D, on découpe D en


deux rectangles.
14 CHAPITRE 1. INTÉGRATION

Remarque 1.2.13. Un domaine régulier est toujours borné.

1.2.3 Définition de l’intégrale double


Soit D un domaine régulier. Soit f : D → R continue.
Comme en dimension 1, on échantillonne. Ici, on va découper en petits carrés. Soit n ≥ 1.
Pour k, l ∈ Z, on pose xk = nk , yl = nl , on définit le point Mk,l = (xk , yl ) et Ck,l le carré

k k+1 l l+1
   
Ck,l = , × , .
n n n n

Le point Mk,l est le point inférieur gauche du carré Ck,l . Le carré Ck,l est de taille 1
n × n1 .

Ck,l
Mk,l

On considère l’ensemble des carrés Ck,l tels que Mk,l ∈ D. Sur chacun de ces carrés on
approche f par f (Mk,l ). On obtient ainsi une fonction fn qui approche f .
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 15

Définition 1.2.14. Soit D un domaine régulier de R2 . Soit f : D → R. Soit n ≥ 1. La somme


de Riemann de f associée à l’échantillonnage de pas 1/n est
1 X
Sn (f ) = 2 f (Mk,l ).
n
(k,l),Mk,l ∈D

Théorème 1.2.15. Soit D une domaine régulier de R2 . Soit f : D → R une fonction continue.
Alors les sommes de Riemann Sn (f ) convergent vers un nombre réel quand n → ∞. Cette limite
est l’intégrale double de f sur D notée
ZZ
f (x, y)dxdy.
D

En dimension 1, l’intégrale d’une fonction correspond à l’aire algébrique sous le graphe de


la fonction. En dimension 2, l’intégrale correspond au volume algébrique sous le graphe de la
fonction.

1.2.4 Premières propriétés de l’intégrale double


Proposition 1.2.16. Soit D un domaine régulier de R2 .
1. (Croissance) Si f, g : D → R sont continues et f ≤ g alors D f (x, y)dxdy ≤ D g(x, y)dxdy ;
RR RR

2. (Normalisation) Si D = [a, b] × [c, d], D 1dxdy = (b − a)(d − c) (c’est l’aire du pavé D).
RR

3. (Linéarité) Si f, g : D → R sont continues et α ∈ R alors


ZZ ZZ ZZ
(f (x, y) + g(x, y))dxdy = f (x, y)dxdy + g(x, y)dxdy
D D D
ZZ ZZ
αf (x, y)dxdy = α f (x, y)dxdy.
D D
4. (Croissance par rapport au domaine) Si D1 ⊂ D2 sont des domaines réguliers et f : D2 → R
est continue et positive alors
ZZ ZZ
f (x, y)dxdy ≤ f (x, y)dxdy.
D1 D2

Remarque 1.2.17. Une généralisation de la relation de Chasles sera vue un peu plus loin (mais
la situation est plus compliquée qu’en dimension 1).
Remarque 1.2.18. Comme en dimension 1, la croissance implique la positivité : si f ≥ 0 alors
f (x, y)dxdy ≥ 0.
RR
D
Idée de la preuve. Toutes les propriétés hors normalisation sont vraies pour les sommes de Rie-
mann et elles passent à la limite. Détaillons la première propriété de linéarité. Soient f, g : D → R
continues. Alors, pour tout n ≥ 1,
1 X 1 X 1 X
Sn (f + g) = 2 f (Mk,l ) + g(Mk,l ) = 2 f (Mk,l ) + 2 g(Mk,l )
n n n
(k,l),Mk,l ∈D (k,l),Mk,l ∈D (k,l),Mk,l ∈D

= Sn (f ) + Sn (g).
En passant à la limite n → ∞, on obtient
ZZ ZZ ZZ
(f (x, y) + g(x, y))dxdy = f (x, y)dxdy + g(x, y)dxdy.
D D D

On admet la propriété de normalisation (voir plus loin).


16 CHAPITRE 1. INTÉGRATION

Corollaire 1.2.19. (Inégalité triangulaire) Soit D un domaine régulier. Soit f : D → R une


fonction continue. Alors
ZZ ZZ
f (x, y)dxdy ≤ |f (x, y)|dxdy
D D

Démonstration. Pour tout (x, y) ∈ D, on a

−|f (x, y)| ≤ f (x, y) ≤ |f (x, y)|

et on applique la propriété de croissance de l’intégrale.

1.2.5 Intégrale double et aire


Rb
En dimension 1, on a a 1dx = b − a (par normalisation de l’intégrale) et b − a est la longueur
de l’intervalle [a, b]. Ce résultat se généralise en dimension 2.

Définition 1.2.20. Soit D un domaine régulier de R2 . On définit l’aire de D comme


ZZ
Aire(D) = 1dxdy.
D

Théorème 1.2.21. La définition d’aire ci-dessus est compatible avec les calculs d’aires des figures
géométriques usuelles (rectangles, triangles, parallélogrammes, disques...).

L’intuition derrière la définition d’aire est la suivante. On a, pour tout n ≥ 1,

1 X
Sn (1) = 1 = Aire ∪(k,l),Mk,l ∈D Ck,l .

n2
(k,l),Mk,l ∈D

Et, d’une part, ∪(k,l),Mk,l ∈D Ck,l approche D et d’autre part limn→∞ Sn (1) → 1dxdy.
RR
D

Théorème 1.2.22. Soit D un domaine élémentaire.

1. Si D est décomposable en tranches verticales

D = (x, y) ∈ R2 , a ≤ x ≤ b, f (x) ≤ y ≤ g(x)




alors
ZZ Z b Z b
Aire(D) = 1dxdy = (g(x) − f (x))dx = longueur(Dx )dx
D a a

où Dx = {(x, y), f (x) ≤ y ≤ g(x)} est la tranche verticale associée à x.


1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 17

g(x)
6

Dx

f (x)
4

a b x

−2 0 2 4 6

2. Si D est décomposable en tranches horizontales


D = (x, y) ∈ R2 , a ≤ y ≤ b, f (y) ≤ x ≤ g(y)


alors ZZ Z b Z b
Aire(D) = 1dxdy = (g(y) − f (y))dy = longueur(Dy )dy
D a a
où Dy = {(x, y), f (y) ≤ x ≤ g(y)} est la tranche horizontale associée à y.
Définition 1.2.23. On appelle courbe dans R2 l’image d’une application [a, b] → R2 de classe
C1.
Théorème 1.2.24. Soit D un domaine régulier tel que D = D1 ∪ D2 avec D1 et D2 domaines
réguliers et D1 ∩ D2 contenu dans une courbe γ. Alors
Aire(D) = Aire(D1 ) + Aire(D2 ).
Les deux théorèmes précédents sont des cas particuliers du théorème de Fubini et de la pro-
priété d’additivité de l’intégrale double (voir sections suivantes).
Ces deux théorèmes nous permettent de calculer l’aire d’un domaine régulier en le décomposant
en domaines élémentaires.
Exemple 1.2.25. Soit f : [a, b] → R une fonction continue positive. Soit
D = (x, y) ∈ R2 , a ≤ x ≤ b, 0 ≤ y ≤ f (x) .


Alors Z b Z b
Aire(D) = (f (x) − 0)dx = f (x)dx.
a a
Et on retrouve bien que l’intégrale calcule l’aire sous la courbe représentative de f (quand f ≥ 0).
18 CHAPITRE 1. INTÉGRATION

Exemple 1.2.26. Soit

D = (x, y) ∈ R2 , −2 ≤ y ≤ 1, y 2 + 2y ≤ x ≤ y + 2 .


Alors
1
1 1
9
 3
y2
Z Z
y
Aire(D) = (y + 2 − y − 2y)dy =
2
−y − y + 2dy = − −
2
+ 2y = .
−2 −2 3 2 −2 2

On pourrait aussi décomposer en tranche verticales mais c’est plus difficile ! Bien réfléchir
avant de se lancer dans les calculs !

1.2.6 Majorants, minorants et encadrement d’intégrales


Rappel 1.2.27. Soit E ⊂ R alors
1. a est un minorant de E si a ≤ x pour tout x ∈ E ;
2. la borne inférieure de E, notée inf(E) est le plus grand des minorants de E
3. si inf(E) ∈ E, on parle de minimum de E et on note min(E) le minimum de E.
Rappel 1.2.28. Soit E ⊂ R alors
1. b est un majorant de E si x ≤ b pour tout x ∈ E ;
2. la borne supérieure de E, notée sup(E) est le plus petit des majorants de E
3. si sup(E) ∈ E, on parle de maximum de E et on note max(E) le maximum de E.
Proposition 1.2.29. Soit D un domaine régulier. Soit f : D → R continue. Alors minD (f ) =
min({f (x, y), (x, y) ∈ D}) et maxD (f ) = max({f (x, y), (x, y) ∈ D}) existent toujours (autrement
dit, les bornes inférieures sont des minimums et les bornes supérieures des maximums).
Par définition de minimum et maximum, pour tout (x, y) ∈ D, on a

min(f ) ≤ f (x, y) ≤ max(f ).


D D

La croissance de l’intégrale double nous permet d’obtenir le corollaire suivant.


Corollaire 1.2.30. Soit D un domaine régulier. Soit f : D → R continue. Alors
ZZ
min(f )Aire(D) ≤ f (x, y)dxdy ≤ max(f )Aire(D)
D D D
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 19

1.2.7 Additivité de l’intégrale par découpage


Théorème 1.2.31 (Additivité de l’intégrale par découpage). Soit D un domaine régulier tel que
D = D1 ∪ D2 avec D1 et D2 domaines réguliers et D1 ∩ D2 contenu dans une courbe γ. Soit
f : D → R une fonction continue. Alors
ZZ ZZ ZZ
f (x, y)dxdy = f (x, y)dxdy + f (x, y)dxdy.
D D1 D2

Pour f = 1, on retrouve la propriété d’additivité des aires par découpage. C’est l’équivalent
de la relation de Chasles en dimension 2.

Idée de la preuve. On passe par les sommes de Riemann : pour tout n ≥ 1, on a

Sn (f, D1 ) + Sn (f, D2 ) = Sn (f, D) + Sn (f, D1 ∩ D2 ).

Si on peut prouver que Sn (f, γ) → 0 quand n → ∞ alors, par passage à la limite dans l’égalité
ci-dessus, on obtient le résultat voulu.
On commence par traiter le cas où γ est le graphe d’une fonction ϕ : [a, b] → R, plus précisé-
ment γ = {x, ϕ(x)), x ∈ [a, b]}. Dans ce cas, pour tout xk , il y a au plus un carré Ck,l pour l ∈ Z
tel que Mk,l ∈ γ. On a donc au plus n(b − a) carrés Ck,l à prendre en compte dans le calcul de
la somme de Riemann. Ainsi

1 X 1 X
|Sn (f, γ)| = f (Mk,l ) ≤ |f (Mk,l )|
n2 n2
(k,l),Mk,l ∈γ (k,l),Mk,l ∈γ

1 X b−a
≤ max |f | ≤ max |f | →n→∞ 0.
n2 γ n γ
(k,l),Mk,l ∈γ

Et on obtient bien le résultat voulu pour un graphe horizontal. La même preuve s’applique pour
un graphe vertical. Pour conclure, on découpe γ en courbe qui sont des graphes (horizontaux ou
verticaux).

Remarque 1.2.32. On vient de montrer que l’aire d’une courbe est nulle (ce qui est raisonnable).
Plus généralement, on dit qu’un domaine est négligeable si son aire est nulle.

1.2.8 Densité, masse et centre de gravité


En dimension 1, on a vu que si [a, b] est vu comme une barre de densité ρ alors la masse de
la barre est Z b
Masse(I) = ρ(t)dt.
a

Cette propriété se généralise en dimension 2 : on considère maintenant un domaine régulier D


qu’on voit comme une plaque de densité ρ. Alors
ZZ
Masse(D) = ρ(x, y)dxdy.
D

En particulier, si la densité est constante égale à 1, on obtient


ZZ
Masse(D) = 1dxdy.
D
20 CHAPITRE 1. INTÉGRATION

Le théorème d’additivité de l’intégrale par découpage est intuitif dans ce contexte. Si D =


D1 ∪ D2 avec D1 ∩ D2 contenu dans une courbe (moralement les plaques D1 et D2 se rencontrent
uniquement le long que leur bord) alors

Masse(D) = Masse(D1 ) + Masse(D2 ).

Définition 1.2.33. Le centre de gravité (ou centre de masse) d’une plaque D (qui est un domaine
régulier de plan R2 ) de densité ρ (qui est une fonction continue sur D) est le point (xG , yG ) ∈ R2

1
ZZ
xG = xρ(x, y)dxdy
Masse(D) D

1
ZZ
yG = yρ(x, y)dxdy
Masse(D) D

Intuition : le centre de gravité de N points (x1 , y1 ), . . . , (xN , yN ) de masses m1 , . . . mN est le


point (xG , yG ) ∈ R2 où

1
xG = (m1 x1 + . . . mN xN )
m1 + · · · + mN

1
yG = (m1 y1 + . . . mN yN ).
m1 + · · · + mN
En résumé, on somme en pondérant par la masse. Dans le cas d’une plaque D, on échantillonne :
on approche la plaque par les points Mk,l de D avec Mk,l de masse n12 × ρ(Mk,l ) (ici n12 est l’aire
du carré Ck,l et la densité du carré est supposée constante de valeur ρ(Mk,l )). On obtient alors
pour valeur approchée de xG

1 X xk ρ(Mk,l )
.
ρ(Mk,l ) n2
P
(k,l),Mk,l ∈D n2 (k,l),Mk,l ∈D

On reconnaît la somme de Riemann de ρ au dénominateur et la somme de Riemann de la fonction


(x, y) → xρ(x, y) au numérateur. En passant à la limite, on retrouve

1
ZZ
xG = RR xρ(x, y)dxdy
D
ρ(x, y)dxdy D

ce qu’on voulait.

Exemple 1.2.34. Le centre de gravité d’un disque homogène est son centre (voir plus loin pour
les calculs).

Le théorème d’additivité de l’intégrale par découpage se traduit de la façon suivante pour les
calculs de centre de gravité.

Proposition 1.2.35. Soit D = D1 ∪ D2 avec D1 ∩ D2 contenu dans une courbe et D, D1 et D2


des domaines régulier. On note ρ la densité de la plaque D. Soit xG l’abscisse du centre de gravité
de D, xG (D1 ) l’abscisse du centre de gravité de D1 et xG (D2 ) l’abscisse du centre de gravité de
D2 . Alors
1
xG = (Masse(D1 )xG (D1 ) + Masse(D2 )xG (D2 ))
Masse(D)
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 21

Démonstration. Par additivité de l’intégrale par découpage


ZZ ZZ ZZ
xρ(x, y)dxdy = xρ(x, y)dxdy + xρ(x, y)dxdy
D D1 D2
Masse(D1 ) Masse(D2 )
ZZ ZZ
= xρ(x, y)dxdy + xρ(x, y)dxdy.
Masse(D1 ) D1 Masse(D2 ) D2

Ainsi ZZ
xρ(x, y)dxdy = Masse(D1 )xG (D1 ) + Masse(D2 )xG (D2 )
D
et on obtient la formule voulue.
Remarque 1.2.36. Il existe une formule analogue pour yG . On peut également généraliser cette
formule pour un découpage D = D1 ∪ D2 · · · ∪ DN .
Exemple 1.2.37. Soit C le disque de centre (0, 0) et de rayon R = 3, C ′ le disque de centre
(1, 0) et de rayon r = 1 et D = C \ C ′ . On voit D comme une plaque homogène de densité 1. On
veut calculer son centre de gravité.

Par la proposition précédente (on considère C comme une plaque homogène de densité 1)
1
xG (C) = (Masse(D)xG (D) + Masse(C ′ )xG (C ′ )) .
Masse(C)
On a
1. Masse(C) = Aire(C) = πR2 = 9π ;
2. Masse(C′ ) = Aire(C ′ ) = πr2 = π ;
3. Masse(D) = Masse(C) − Masse(D) = 8π.
De plus, comme le centre de gravité d’un disque homogène est son centre, on obtient xG (C) = 0
et xG (C ′ ) = 1. On en déduit
0 = π(R2 − r2 )xG (D) + πr2
et donc
r2 1
xG (D) = − =− .
2
R −r 2 8
De plus, comme yG (C) = yG (C ′ ) = 0, on a yG (D) = 0 (par la même méthode).
22 CHAPITRE 1. INTÉGRATION

Remarque 1.2.38. Le polygone de sustentation est le plus petit polygone qui contient l’ensemble
des points sur lequel un corps repose sur un plan horizontal. Un corps est dit stable si son centre
de gravité est au-dessus du polygone de sustentation (autrement dit si l’abscisse de son centre de
gravité est contenue dans le polygone de sustentation).

1.2.9 Théorème de Fubini pour l’intégrale double


Le théorème de Fubini permet de calculer des intégrales doubles en ramenant les calculs à des
calculs d’intégrales en une variable.

ψ(x)
6

ϕ(x)
4

a b x

−2 0 2 4 6

Théorème 1.2.39. Soit D un domaine élémentaire. Soit f : D → R continue.


1. Si D est décomposable en tranches verticales

D = (x, y) ∈ R2 , a ≤ x ≤ b, ϕ(x) ≤ y ≤ ψ(x)




alors la fonction
Z ψ(x)
x 7→ f (x, y)dy
ϕ(x)

est continue sur le segment [a, b] et on a


!
ZZ Z b Z ψ(x)
f (x, y)dxdy = f (x, y)dy dx.
D a ϕ(x)

2. Si D est décomposable en tranches horizontales

D = (x, y) ∈ R2 , a ≤ y ≤ b, ϕ(y) ≤ x ≤ ψ(y)



1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 23

alors la fonction
Z ψ(y)
x 7→ f (x, y)dx
ϕ(y)

est continue sur le segment [a, b] et on a


!
ZZ Z b Z ψ(y)
f (x, y)dxdy = f (x, y)dx dy.
D a ϕ(y)

Remarque 1.2.40. Par définition de domaine élémentaire ϕ et ψ sont continues.


En appliquant ce théorème avec f = 1, on retrouve le théorème sur le calcul des aires !
Corollaire 1.2.41 (Cas particulier du théorème de Fubini pour les produits). Soit D = [a, b] ×
[c, d]. Soient g : [a, b] → R continue et h : [c, d] → R continue. On considère f : D → R définie
par f (x, y) = g(x)h(y). Alors f est continue sur D et
Z b ! Z !
ZZ d
f (x, y)dxdy = g(x)dx h(y)dy .
D a c

Démonstration. On applique le théorème de Fubini à f et D en découpant en tranches verticales


ZZ Z b Z d !
f (x, y)dxdy = g(x)h(y)dy dx
D a c

(dans notre cas, ϕ est la fonction constante c et ψ la fonction constante d). Par linéarité de
l’intégrale (appliquée pour les deux égalités), on obtient
Z b Z d ! Z d ! Z !
ZZ b
f (x, y)dxdy = g(x) h(y)dy dx = h(y)dy g(x)dx .
D a c c a

Exemple 1.2.42. Soit D = [0, 2] × [0, 3]. Calculons


ZZ
(x + y)2 dxdy.
D

Par linéarité de l’intégrale


ZZ ZZ ZZ ZZ ZZ
(x + y)2 dxdy = (x2 + 2xy + y 2 )dxdy = x2 dxdy + 2xydxdy + y 2 dxdy.
D D D D D

On applique le théorème de Fubini pour calculer chacun des termes (les fonctions à intégrer sont
polynomiales donc continues). On obtient
8
ZZ Z 2  Z 3 
x dxdy =
2 2
x dx 1dy = · 3 = 8
D 0 0 3
27
ZZ Z 2  Z 3 
y 2 dxdy = 1dx y 2 dy = 2 · = 18
D 0 0 3
4 9
ZZ Z 2  Z 3 
xydxdy = xdx ydy = · = 9.
D 0 0 2 2
On en déduit ZZ
(x + y)2 dxdy = 8 + 2 · 9 + 18 = 44.
D
24 CHAPITRE 1. INTÉGRATION

Exemple 1.2.43. Soit


3
 
D= (x, y) ∈ R , 0 ≤ x ≤ 2, 0 ≤ y ≤ − x + 3 .
2
2

On calcule ZZ
x2 dxdy.
D
La fonction (x, y) 7→ x2 est continue car polynomiale et D est un domaine élémentaire. On peut
donc appliquer le théorème de Fubini (avec tranches verticales). On obtient
ZZ Z 2 Z − 32 x+3 !
x2 dxdy = x2 dy dx
D 0 0
!
Z 2 Z − 32 x+3
= x 2
dy dx
0 0
2
2
3 3
Z   
= x2 − x + 3 dx = − x4 + x3 = −6 + 8 = 2
0 2 8 0

Exercice 1.2.44. Reprendre le calcul précédent avec des tranches horizontales.


Vague idée pour la preuve du théorème de Fubini. Comme d’habitude, on échantillonne. On ob-
tient
1 X 1 X
Sn (f ) = 2 f (xk , yl ) = 2 f (xk , yl )
n n
(k,l),(xk ,yl )∈D (k,l),a≤xk ≤b,ϕ(xk )≤yl ≤ψ(xk )
1 X 1 X
= f (xk , yl )
n n
k,a≤xk ≤b l,ϕ(xk )≤yl ≤ψ(xk )

Pour k fixé,
1 X
f (xk , yl )
n
l,ϕ(xk )≤yl ≤ψ(xk )

est une somme de Riemann pour y 7→ f (xk , y). En passant à la limite à xk fixé (attention, c’est
plus subtil qu’on pourrait le croire en première lecture), on obtient
Z ψ(xk )
f (xk , y)dy = g(xk ).
ϕ(xk )
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 25

On obtient alors
1 X
Sn (f ) ≃ g(xk )
n
k,a≤xk ≤b

qui est encore une somme de Riemann. En passant à la limite (même remarque que ci-dessus),
on obtient ZZ Z b
f (x, y)dxdy = g(x)dx
D a
ce qu’on voulait.

1.2.10 Changement de variables


Cas général
Rappel 1.2.45. L’application ϕ : A → B est une bijection si pour tout b ∈ B il existe un
unique a ∈ A tel que ϕ(a) = b. Si ϕ est une bijection, on peut définir son application réciproque
ϕ−1 : B → A.
On va généraliser la formule de changement de variable en dimension 1. Voici le résultat qu’on
va adapter (pour rendre la généralisation possible, les hypothèses sur ϕ sont plus fortes quand
dans l’énoncé vu précédemment). Soit ϕ : [a, b] → [c, d] une bijection C 1 et de réciproque C 1 . Soit
f : [c, d] → R une application continue. Alors
Z b Z ϕ(b)
f (ϕ(x))ϕ (x)dx =

f (u)du.
a ϕ(a)

Dans cette formule le terme ϕ (x) est là pour prendre en compte l’influence de ϕ sur les longueurs.

La dérivée d’une fonction mesure bien l’effet de cette fonction sur les longueurs car
ϕ(x + h) − ϕ(x)
ϕ′ (x) = lim
h→0 h
et dans cette formule ϕ(x + h) − ϕ(x) donne la longueur (algébrique) ϕ([x, x + h]) alors que h est
la longueur de l’intervalle [x, x + h].
Dans le cas de l’intégrale double, on va considérer ϕ : ∆ → D une bijection C 1 et de réciproque
C . La notion de classe C 1 pour les fonctions de deux variables n’est pas au programme de ce
1

cours. Dans ce cours, on admet qu’on peut généraliser la définition en dimension 1. On appliquera
seulement la formule du changement de variable dans les cas très particulier qui sont détaillés
plus loin (et où il ne sera pas nécessaire de connaître la définition d’application C 1 ). Notons que
les applications polynomiales sont toujours C 1 .
Soit ϕ : ∆ → R2 une application C 1 . Pour tout (x, y) ∈ ∆, on pose Ch = [x, x + h] × [y, y + h]
et
Aire(ϕ(Ch ))
jϕ (x, y) = lim .
h→0 Aire(Ch )

La fonction jϕ est appelée le jacobien de ϕ. Le fait qu’une telle limite existe découle de la définition
d’application C 1 (on admet donc ce point). Le réel jϕ (x, y) mesure l’effet de ϕ sur les aires au
point (x, y).
Théorème 1.2.46. Soit ϕ : ∆ → D une bijection C 1 et de réciproque C 1 entre domaines réguliers
de R2 . Soit f : D → R une application continue. Alors
ZZ ZZ
f (ϕ(x, y))jϕ (x, y)dxdy = f (u, v)dudv.
∆ D

Remarque 1.2.47. Il existe une formule permettant de calculer jϕ (x, y) en dérivant ϕ, elle est
hors programme de ce cours, mais vous la rencontrerez dans les années à venir...
26 CHAPITRE 1. INTÉGRATION

Cas des dilatations


Définition 1.2.48. Une dilatation de R2 est une application ϕ : R2 → R2 de la forme ϕ(x, y) =
(λx, µy) avec λ, µ ∈ R∗ .
 
Les dilatations sont des bijections. On a ϕ−1 (u, v) = λu , µv . Les applications ϕ et ϕ−1 sont
C1.
Exemple 1.2.49.
1. Si λ = µ, ϕ est l’homothétie de rapport λ.
2. Cas λ = −1, µ = 1. Alors ϕ est la symétrie axiale d’axe (Oy).
3. Cas λ = 1, µ = −1. Alors ϕ est la symétrie axiale d’axe (Ox).
4. Cas λ = µ = −1. Alors ϕ est la symétrie centrale de centre O.
Proposition 1.2.50. (Changement de variable pour les dilatations) Soit ϕ une dilatation définie
par ϕ(x, y) = (λx, µy), soit f : D → R une application continue. Soit ∆ tel que ϕ(∆) = D. Alors
ZZ ZZ
f (ϕ(x, y))|λµ|dxdy = f (u, v)dudv.
∆ D

Démonstration. On montre que jϕ (x, y) = |λµ|. La formule s’obtient alors directement par la
formule générale du changement de variables. On traite le cas λ > 0 et µ > 0. Soient (x, y) ∈ R2
et h > 0. Soit Ch = [x, x + h] × [y, y + h]. Alors

ϕ(Ch ) = [λx, λx + λh] × [µy, µy + µh].

On a donc Aire(ϕ(Ch )) = λνh2 . Comme Aire(Ch ) = h2 , on en déduit que jϕ (x, y) = λµ. On


traite maintenant le cas λ < 0 et µ > 0. Alors (comme λx + λh ≤ λx)

ϕ(Ch ) = [λx + λh, λx] × [µy, µy + µh].

On a donc Aire(ϕ(Ch )) = |λ|νh2 . Et on conclut comme dans le cas précédent. Les autres cas sont
laissés en exercice.
Les changements de variables permettent d’exploiter les symétries du problème.
Exemple 1.2.51. Soit D le disque de centre O et de rayon 1, soit D+ de demi-disque contenu
dans le demi-plan supérieur et D− le demi-disque contenu dans le demi-plan inférieur. Alors
ZZ ZZ ZZ
y 2 dxdy = y 2 dxdy + y 2 dxdy
D D+ D−

par linéarité de l’intégrale par découpage. Soit ϕ la symétrie axiale d’axe (Ox). On a ϕ(D− ) =
D+ . Par conséquent, par la formule du changement de variable appliqué à ϕ : D− → D+ et à
l’application f : (x, y) 7→ y 2 ,
ZZ ZZ
f (x, −y)dxdy = f (u, v)dudv.
D− D+

On en déduit ZZ ZZ
y 2 dxdy = v 2 dudv
D− D+

et donc ZZ ZZ ZZ
y 2 dxdy = 2 y 2 dxdy = 2 y 2 dxdy
D D+ D−
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 27

Exemple 1.2.52. On va montrer que le centre de gravité du disque homogène D de densité 1


de centre O et de rayon R est l’origine. On traite seulement le cas xG = 0 (la preuve de yG = 0
est similaire). Par définition, on a

1
ZZ
xG = xdxdy.
Masse(D) D

Soit ϕ la symétrie axiale d’axe (Oy). Comme ϕ(D) = D, par la formule du changement de variable
appliqué à ϕ : D → D et à l’application f : (x, y) 7→ x, on obtient
ZZ ZZ
f (−x, y)dxdy = f (u, v)dudv.
D D

On en déduit ZZ ZZ ZZ ZZ
− xdxdy = −xdxdy = ududv = xdxdy
D D D D
et donc ZZ
2 xdxdy = 0.
D
Ainsi xG = 0.
Exemple 1.2.53. Soit ϕ l’homothétie de rapport R > 0. Soit D le disque de centre 0 et de
rayon 1. Alors (x, y) ∈ ϕ(D) ⇔ (x, y) = (Ru, Rv) avec (u, v) ∈ D ⇔ (x, y) = (Ru, Rv) avec
x 2 y 2
u2 + v 2 = 1 ⇔ R + R ≤ 1 ⇔ x2 + y 2 ≤ R2 ⇔ (x, y) est dans le disque DR de centre 0 et de
 

rayon R. On vient de montrer que ϕ(D) = DR . Appliquons la formule de changement de variable


à ϕ et à l’application constante 1, on obtient
ZZ ZZ
R2 dxdy = 1dudv.
D DR

Autrement dit
R2 Aire(D) = Aire(DR )
et on retrouve bien le lien entre l’aire d’un disque de rayon 1 et d’un disque de rayon R !

Isométries
Définition 1.2.54. Une isométrie est une application qui préserve les longueurs. Plus précisé-
ment ϕ : R2 → R2 est une isométrie si, pour tous P ∈ R2 et Q ∈ R2

Distance(ϕ(P ), ϕ(Q)) = Distance(P, Q)

Propriété 1.2.55. Si ϕ est une isométrie alors jϕ (x, y) = 1 pour tout (x, y) ∈ R2 .
Corollaire 1.2.56. Soit ϕ une isométrie. Soit f : D → R une application continue avec D
domaine régulier. Soit ∆ tel que ϕ(∆) = D. Alors
ZZ ZZ
f (ϕ(x, y))dxdy = f (u, v)dudv.
∆ D

Exemple 1.2.57. Quelques exemples d’isométries du plan


1. les dilatations telles que |λ| = |µ| = 1
2. les translations
28 CHAPITRE 1. INTÉGRATION

3. les rotations
4. les symétries axiales
5. la composée de deux isométries est une isométrie.
Exemple 1.2.58. Le centre de gravité d’un disque homogène de densité 1 est son centre (on a
déjà traité le cas d’un disque centré en l’origine). Soit D′ le disque de centre (a, b) et de rayon R.
Soit ϕ la translation de vecteur (a, b), c’est-à-dire l’application définie par (x, y) 7→ (x + a, y + b).
Les translations sont des isométries. De plus ϕ(D) = D′ où D est le disque de centre (0, 0) et de
rayon R. On applique la formule du changement de variable à ϕ et la fonction (u, v) 7→ u sur D′
pour obtenir
ZZ ZZ ZZ ZZ
ududv = (x + a)dxdy = xdxdy + adxdy = 0 + aAire(D).
D′ D D D

Comme la plaque est homogène de densité 1, sa masse est donnée par son aire. On obtient donc
1
xG (D′ ) = aAire(D) = a
Aire(D)
et l’abscisse du centre de gravité est bien l’abscisse du centre du disque. On fait un raisonnement
analogue pour l’ordonnée...

Coordonnées polaires
On considère l’application ϕ : [0, ∞[ × [−π, π] → R2 définie par

ϕ(r, θ) = (r cos(θ), r sin(θ)).

Cette application est C 1 . Soit Ω le plan R2 privé de l’axe réel négatif. On admet que l’application
ϕ est une bijection de ]0, ∞[ × ]−π, π[ dans Ω de réciproque C 1 .
Proposition 1.2.59. Soit C = [r1 , r2 ] × [θ1 , θ2 ] ⊂ [0, ∞[ × [−π, π]. Alors
1 2
Aire(ϕ(C)) = (r − r12 )(θ2 − θ1 ).
2 2
Démonstration. L’aire de la couronne de rayons compris entre r1 et r2 est πr22 −πr12 . On considère
une portion de couronne d’angle θ2 − θ1 . On obtient comme aire
θ2 − θ1 1
(πr22 − πr12 ) = (r22 − r12 )(θ2 − θ1 ).
2π 2

Corollaire 1.2.60. Pour tout (r, θ) ∈ [0, ∞[ × [−π, π], on a jϕ (r, θ) = r.


Démonstration. On applique la proposition précédente à Ch = [r, r + h] × [θ, θ + h]. On obtient

h 2rh2 + h3
Aire(ϕ(Ch )) = ((r + h)2 − r2 ) = .
2 2
On a Aire(Ch ) = h2 et donc
Aire(ϕ(Ch )) h
= r + →h→0 r.
Aire(Ch ) 2
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 29

Corollaire 1.2.61. Soit f : D → R une fonction continue sur D domaine régulier de R2 . Soit
∆ un domaine régulier tel que ϕ(∆) = D. Alors
ZZ ZZ
f (r cos(θ), r sin(θ))rdrdθ = f (x, y)dxdy.
∆ D

Exemple 1.2.62. Soit D le disque de centre 0 et de rayon R. On a


ZZ ZZ ZZ
(x2 + y 2 )dxdy = (r2 cos2 (θ) + r2 sin2 (θ))rdrdθ = r3 drdθ.
D [0,R]×[−π,π] [0,R]×[−π,π]

On applique le théorème de Fubini (pour les fonctions séparables sur un pavé) et on obtient
Z R ! Z
π
R4 πR4
ZZ 
(x + y )dxdy =
2 2 3
r dr dθ = 2π = .
D 0 −π 4 2

1.3 Intégration des fonctions de trois variables


On reprend la stratégie mis en place pour les fonctions de deux variables.

1.3.1 Fonctions de trois variables


Une fonction de trois variables est une fonction f : D → R où D, le domaine de définition de
f , est un sous-ensemble de R3 .
Définition 1.3.1. Soit D ⊂ R3 , soit f : D → R. On dit que f est continue sur D si pour tout
(x0 , y0 , z0 ) ∈ D, f (x, y, z) → f (x0 , y0 , y0 ) quand (x, y, z) → (x0 , y0 , z0 ) dans D.
Les propriétés suivantes sont l’outil principal pour montrer la continuité.
Propriété 1.3.2.
1. La classe des fonctions continue est stable par les opérations usuelles : si f, g : D → R sont
continues et α ∈ R alors f + g, αf et f · g sont continues.
2. Si I ⊂ R et f : D → I et g : I → R sont continues alors g ◦ f est continue.
3. Les polynômes en les coordonnées x, y et z sont continus.

1.3.2 Domaines réguliers de R3


Comme en dimension 2, on ne va considérer que des domaines définis par des inéquations.

D = (x, y, z) ∈ R3 , f1 (x, y, z) ≥ 0, f2 (x, y, z) ≥ 0, . . . , fn (x, y, z) ≥ 0 .




Et on ne va considérer que des domaines réguliers.


Définition 1.3.3. Un domaine D est un domaine élémentaire s’il est de la forme

D = (x, y, z) ∈ R3 , (x, y) ∈ ∆, f (x, y) ≤ z ≤ g(x, y)




ou
D = (x, y, z) ∈ R3 , (x, z) ∈ ∆, f (x, z) ≤ y ≤ g(x, z)


ou
D = (x, y, z) ∈ R3 , (y, z) ∈ ∆, f (y, z) ≤ z ≤ g(y, z)


où ∆ est un domaine régulier de R2 et f, g : ∆ → R sont continues et vérifient f ≤ g.


30 CHAPITRE 1. INTÉGRATION

Un domaine élémentaire est naturellement découpé en tranches verticales. Dans le premier


cas, la tranche associée à (x0 , y0 ) ∈ D est

{(x0 , y0 , z), f (x0 , y0 ) ≤ z ≤ g(x0 , y0 )} .

Les tranches sont des segments (comme en dimension 2).


Exemple 1.3.4.
1. Le pavé
[x1 , x2 ] × [y1 , y2 ] × [z1 , z2 ]
est un domaine élémentaire (pour toutes les décompositions).
2. La boule unité
B = {(x, y, z) ∈ R3 , x2 + y 2 + z 2 ≤ 1}
est un domaine élémentaire (pour toutes les décompositions également). En effet
n p p o
B = (x, y, z) ∈ R3 , (x, y) ∈ D, − 1 − x2 − y 2 ≤ z ≤ 1 − x2 − y 2

où D est le disque de centre O et de rayon 1 dans R2 .

3. Le cône C de sommet (0, 0, h) et de base le disque D de centre O et de rayon R est un


domaine élémentaire
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 31

En effet, en coupe on obtient le dessin suivant.

(0, h)

(R, 0)

Dans les coordonnées (r, z), le triangle a pour description


 
h
(r, z) ∈ R , 0 ≤ r ≤ R, 0 ≤ z ≤ h − r .
2
R
On en déduit que
 
hp 2
C= (x, y, z) ∈ R , (x, y) ∈ D, 0 ≤ z ≤ h −
3
x +y .
2
R
Définition 1.3.5. Un domaine D est dit régulier s’il est décomposable en une union finie de
domaines élémentaires.
Remarque 1.3.6. Un domaine régulier est toujours borné.

1.3.3 Définition de l’intégrale triple


Soit D un domaine régulier de R3 . Soit f : D → R continue.
Comme en dimensions 1 et 2, on échantillonne. Cette fois, on découpe en petits cubes. Soit
n ≥ 1. Pour k, l, m ∈ Z, on pose xk = nk , yl = nl et zm = m n . On définit le point Mk,l,m =
(xk , yl , zm ) et Ck,l,m le cube
1 1 1
     
k k l l m m
Ck,l,m = , + × , + × , + .
n n n n n n n n n
Le cube Ck,l,m est de taille n1 × n1 × n1 .
On considère l’ensemble des cubes Ck,l,m tels que Mk,l,m ∈ D. Sur chacun de ces carrés on
approche f par f (Mk,l,m ). On obtient ainsi une fonction fn qui approche f .
Définition 1.3.7. Soit D un domaine régulier de R3 . Soit f : D → R. Soit n ≥ 1. La somme de
Riemann de f associée à l’échantillonnage de taille 1/n est
1 X
Sn (f ) = 3 f (Mk,l,m ).
n
(k,l,m),Mk,l,m ∈D

Théorème 1.3.8. Soit D une domaine régulier de R3 . Soit f : D → R une fonction continue.
Alors les sommes de Riemann Sn (f ) convergent vers un nombre réel quand n → ∞. Cette limite
est l’intégrale triple de f sur D notée
ZZZ
f (x, y, z)dxdydz.
D
32 CHAPITRE 1. INTÉGRATION

1.3.4 Premières propriétés de l’intégrale triple


On retrouve les mêmes propriétés que pour l’intégrale double.
Proposition 1.3.9. Soit D un domaine régulier de R3 .
Si f, g : D → R sont continues et f ≤ g alors f (x, y, z)dxdydz ≤
RRR
1. (Croissance)
RRR D
D
g(x, y, z)dxdydz ;
2. (Normalisation) Si D = [x1 , x2 ]×[y1 , y2 ]×[z1 , z2 ], 1dxdydz = (x2 −x1 )(y2 −y1 )(z2 −z1 ).
RRR
D
3. (Linéarité) Si f, g : D → R sont continues et α ∈ R alors
ZZZ ZZZ ZZZ
(f (x, y, z) + g(x, y, z))dxdydz = f (x, y, z)dxdydz + g(x, y, z)dxdydz
D D D
ZZZ ZZZ
αf (x, y, z)dxdydz = α f (x, y; z)dxdydz.
D D

4. (Croissance par rapport au domaine) Si D1 ⊂ D2 sont des domaines réguliers et f : D2 → R


est continue et positive alors
ZZZ ZZZ
f (x, y, z)dxdydz ≤ f (x, y, z)dxdydz.
D1 D2

Remarque [Link] Comme en dimension 1 et en dimension 2, la croissance implique la positi-


vité : si f ≥ 0 alors D
f (x, y)dxdy ≥ 0.
Corollaire 1.3.11. (Inégalité triangulaire) Soit D un domaine régulier. Soit f : D → R une
fonction continue. Alors
ZZZ ZZZ
f (x, y, z)dxdydz ≤ |f (x, y, z)|dxdydz.
D D

1.3.5 Intégrale triple et volume


Définition 1.3.12. Soit D un domaine régulier de R3 . On définit le volume de D comme
ZZZ
Volume(D) = 1dxdydz.
D

Théorème 1.3.13. La définition de volume est compatible avec les calculs de volume des figures
géométriques usuelles (pavés, cylindres, cônes...).
Théorème 1.3.14. Soit D un domaine élémentaire. Si D est décomposable en tranches verticales

D = (x, y, z) ∈ R3 , (x, y) ∈ ∆, f (x, y) ≤ z ≤ g(x, y)




alors
ZZZ ZZ ZZ
Volume(D) = 1dxdydz = (g(x, y) − f (x, y))dxdy = Longueur(Ix,y )dxdy
D ∆ ∆

où Ix,y = {(x, y, z), f (x, y) ≤ z ≤ g(x, y)} est la tranche verticale associée à (x, y) ∈ D.
Exemple 1.3.15. Calculons le volume de la boule de rayon R. On a
n p p o
B = (x, y, z) ∈ R3 , (x, y) ∈ D, − R2 − x2 − y 2 ≤ z ≤ R2 − x2 − y 2

où D est le disque de centre O et de rayon R dans R2 .


1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 33

Par conséquent ZZ p
Volume(B) = 2 R2 − x2 − y 2 dxdy.
D
On passe en coordonnées polaires dans le disque 2 pour obtenir
ZZ p
Volume(B) = 2 R2 − r2 rdrdθ.
[0,R]×[−π,π]

On applique maintenant le théorème de Fubini (pour l’intégrale double). Il vient


! Z !
1 3/2 R 4
Z p  
Volume(B) = 2 2 2
R − r rdr dθ = 2 − R2 − r2 2π = πR3 .
[0,R] [−π,π] 3 0 3

Définition 1.3.16. Soit D un domaine élémentaire. On dit que D est décomposable en tranches
horizontales de dimension 2 si pour tout z ∈ R,
Dz = {(x, y, z), (x, y, z) ∈ D}
est un domaine régulier de R .
2

Exemple 1.3.17. Le cône C de sommet (0, 0, h) et de base le disque D de centre O et de rayon


R est un domaine élémentaire décomposable en tranches horizontales (et ces tranches sont des
disques).
34 CHAPITRE 1. INTÉGRATION

Théorème 1.3.18. Soit D un domaine élémentaire. Si D est décomposable en tranches horizon-


tales de dimension 2
D = (x, y, z) ∈ R3 , z ∈ [a, b], (x, y, z) ∈ Dz


alors ZZ Z b
Volume(D) = 1dxdydz = Aire(Dz )dz.
D a

Exemple 1.3.19. Calculons le volume du cône C de sommet (0, 0, h) et de base le disque D


de centre O et de rayon R. Pour z ∈ / [0, h], la tranche Dz est vide. Pour z ∈ [0, h], la tranche
h (h − z). En effet, en appliquant le
horizontale Dz est le disque de centre (0, 0, z) et de rayon R
théorème de Thalès dans le triangle obtenue en coupe (voir figure), on obtient
r h−z
=
R h

0 r

Pour montrer ce résultat, on aurait également pu utiliser la description du triangle


 
h
(r, z) ∈ R2 , 0 ≤ r, 0 ≤ z, z ≤ h − r .
R
2
La tranche Dz a donc pour aire π R
h2 (h − z) . On en déduit
2

h
1 1
Z h
R2 R2

Volume(C) = π 2 (h − z) dz = π 2 − (h − z)
2 3
= πR2 h.
0 h h 3 0 3
Et on retrouve bien la formule usuelle !
Définition 1.3.20. On appelle surface dans R3 l’image d’une application ∆ → R3 de classe C 1 .
Théorème 1.3.21. Soit D un domaine régulier de R3 tel que D = D1 ∪ D2 avec D1 et D2
domaines réguliers et D1 ∩ D2 contenu dans une surface. Alors
Volume(D) = Volume(D1 ) + Volume(D2 ).

1.3.6 Additivité de l’intégrale par découpage


Théorème 1.3.22 (Additivité de l’intégrale par découpage). Soit D un domaine régulier de R3
tel que D = D1 ∪ D2 avec D1 et D2 domaines réguliers et D1 ∩ D2 contenu dans une surface.
Soit f : D → R une fonction continue. Alors
ZZZ ZZZ ZZZ
f (x, y, z)dxdydz = f (x, y, z)dxdydz + f (x, y, z)dxdydz.
D D1 D2
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 35

Pour f = 1, on retrouve la propriété d’additivité des aires par découpage. C’est l’équivalent
de la relation de Chasles en dimension 3.
Remarque 1.3.23. La propriété d’additivité de l’intégrale triple par découpage contient le fait
que le volume d’une surface est nul (à mettre en parallèle avec le fait que l’aire d’une courbe est
nulle).

1.3.7 Densité, masse et centre de gravité


On considère maintenant un domaine régulier D qu’on voit comme un solide de densité ρ.
Alors ZZZ
Masse(D) = ρ(x, y, z)dxdydz.
D
En particulier, si la densité est constante égale à 1, on obtient
ZZZ
Masse(D) = 1dxdydz.
D

Le théorème d’additivité de l’intégrale par découpage est intuitif dans ce contexte. Si D =


D1 ∪ D2 avec D1 ∩ D2 contenu dans une surface alors

Masse(D) = Masse(D1 ) + Masse(D2 ).

Définition 1.3.24. Le centre de gravité d’un solide D (qui est un domaine régulier de plan R3 )
de densité ρ (qui est une fonction continue sur D) est le point (xG , yG , zG ) ∈ R2 où
1
ZZZ
xG = xρ(x, y, z)dxdydz
Masse(D) D

1
ZZZ
yG = yρ(x, y, z)dxdydz
Masse(D) D
1
ZZZ
zG = yρ(x, y, z)dxdydz
Masse(D) D

Le théorème d’additivité de l’intégrale par découpage se traduit de la façon suivante pour les
calculs de centre de gravité.
Proposition 1.3.25. Soit D = D1 ∪ D2 ⊂ R3 avec D1 ∩ D2 contenu dans une surface et D,
D1 et D2 des domaines régulier de R3 . On note ρ la densité de la plaque D. Soit xG l’abscisse
du centre de gravité de D, xG (D1 ) l’abscisse du centre de gravité de D1 et xG (D2 ) l’abscisse du
centre de gravité de D2 . Alors
1
xG = (Masse(D1 )xG (D1 ) + Masse(D2 )xG (D2 ))
Masse(D)

1.3.8 Théorème de Fubini pour l’intégrale triple


Théorème 1.3.26. Soit D un domaine élémentaire de R3 . Soit f : D → R continue. Si D est
décomposable en tranches verticales

D = (x, y, z) ∈ R3 , (x, y) ∈ ∆, ϕ(x, y) ≤ z ≤ ψ(x, y)




alors Z ψ(x,y)
(x, y) 7→ f (x, y, z)dz
ϕ(x,y)
36 CHAPITRE 1. INTÉGRATION

est continue sur ∆ et


!
ZZZ ZZ Z ψ(x,y
f (x, y, z)dxdydz = f (x, y, z)dz dxdy
D ∆ ϕ(x,y)

Théorème 1.3.27. Soit D un domaine régulier de R3 . Soit f : D → R continue. Si D est


décomposable en tranches horizontales de dimension 2

D = (x, y, z) ∈ R3 , z ∈ [a, b], (x, y) ∈ Dz




alors
ZZ
z 7→ f (x, y, z)dxdy
Dz

est continue sur [a, b] et

ZZZ Z b Z Z 
f (x, y, z)dxdydz = f (x, y, z)dxdy dz.
D a Dz

En appliquant ces théorèmes avec f = 1, on retrouve le théorème sur le calcul des aires !

Exemple 1.3.28. Calculons la coordonnées zG du centre de gravité du cône C de sommet (0, 0, h)


et de base le disque D de centre O et de rayon R que l’on suppose homogène de densité 1.

On a
1 2
Masse(C) = πR h.
3
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 37

De plus
!
1 1
ZZZ Z h ZZ
zG = zdxdydz = zdxdy dz
Masse(C) C Masse(C) 0 D(O,R(h−z)/h)
!
1
Z h ZZ
= z dxdy dz
Masse(C) 0 D(O,R(h−z)/h)
2
1 h
R2
Z 
= z π 2 (h − z) dz
Masse(C) 0 h
h
πR2
Z
= 2 (zh2 − 2hz 2 + z 3 )dz
h Masse(C) 0
h
πR2 2hz 3
 2 2
z h z4
= 2 − +
h Masse(C) 2 3 4 0
πR2 h4 h
= = .
h Masse(C) 12
2 4

Corollaire 1.3.29 (Cas particulier du théorème de Fubini pour les produits). Soit D = [x1 , x2 ]×
[y1 , y2 ] × [z1 , z2 ]. Soient g : [x1 , x2 ] → R continue, h : [y1 , y2 ] → R continue et k : [z1 , z2 ] → R
continue. On considère f : D → R définie par f (x, y, z) = g(x)h(y)k(z). Alors f est continue sur
D et ZZZ Z x2
 Z y2
 Z z2
f (x, y, z)dxdydz = g(x)dx h(y)dy k(z)dz .
D x1 y1 z1

1.3.9 Changement de variables


Soit ∆ un domaine régulier de R3 . Soit ϕ : ∆ → R3 une application C 1 . Pour tout (x, y, z) ∈ ∆,
on pose Ch = [x, x + h] × [y, y + h] × [z, z + h] et

Volume(ϕ(Ch ))
jϕ (x, y, z) = lim .
h→0 Volume(Ch )

La fonction jϕ est appelée le jacobien de ϕ. Le fait qu’une telle limite existe découle de la définition
d’application C 1 (on admet ce point). Le réel jϕ (x, y, z) mesure l’effet de ϕ sur les volumes au
point (x, y, z).

Théorème 1.3.30. Soit ϕ : ∆ → D une bijection C 1 et de réciproque C 1 entre domaines réguliers


de R3 . Soit f : D → R une application continue. Alors
ZZZ ZZZ
f (ϕ(x, y, z))jϕ (x, y, z)dxdydz = f (u, v, w)dudvdw.
∆ D

Définition 1.3.31. Une dilatation de R3 est une application ϕ : R3 → R3 de la forme ϕ(x, y, z) =


(λx, µy, νz) avec λ, µ, ν ∈ R∗ .

Proposition 1.3.32. (Changement de variable pour les dilatations) Soit ϕ une dilatation définie
par ϕ(x, y, z) = (λx, µy, νz), soit f : D → R une application continue. Soit ∆ tel que ϕ(∆) = D.
Alors ZZZ ZZZ
f (ϕ(x, y, z))|λµν|dxdydz = f (u, v, w)dudvdw.
∆ D
38 CHAPITRE 1. INTÉGRATION

Définition 1.3.33. Une isométrie est une application qui préserve les longueurs. Plus précisé-
ment ϕ : R3 → R3 est une isométrie si, pour tous P ∈ R3 et Q ∈ R3
Distance(ϕ(P ), ϕ(Q)) = Distance(P, Q)
Propriété 1.3.34. Si ϕ est une isométrie alors jϕ (x, y, z) = 1 pour tout (x, y, z) ∈ R3 .
Corollaire 1.3.35. Soit ϕ une isométrie de R3 . Soit f : D → R une application continue avec
D domaine régulier de R3 . Soit ∆ tel que ϕ(∆) = D. Alors
ZZZ ZZZ
f (ϕ(x, y, z))dxdydz = f (u, v, w)dudvdw.
∆ D

Exemple 1.3.36. Quelques exemples d’isométries de l’espace


1. les dilatations telles que |λ| = |µ| = |ν| = 1
2. les translations
3. les rotations par rapport à un axe
4. les symétries par rapport à un plan
5. la composée de deux isométries est une isométrie.
Exemple 1.3.37. Soit B le boule de centre O et de rayon R, soit B+ la demi-boule contenu dans
le demi-espace supérieur (c’est à dire) {z ≥ 0}) et B− la demi-boule contenue dans le demi-espace
inférieur (c’est à dire {z ≤ 0}). Alors
ZZZ ZZZ ZZZ
1dxdydz = 1dxdydz + dxdydz
B B+ B−

par linéarité de l’intégrale par découpage. Soit ϕ la symétrie axiale de plan (Oxy) (on a ϕ(x, y, z) =
(x, y, −z)). On a ϕ(B− ) = B+ . Par conséquent, par la formule du changement de variable appliqué
à ϕ et à l’application constante 1,
ZZZ ZZZ
dxdydz = dudvdw
B− B+

et donc
1
Volume(B− ) = Volume(B+ ) = Volume(B).
2

Coordonnées cylindriques
On considère l’application ϕ : [0, ∞[ × [−π, π] × R → R3 définie par
ϕ(r, θ, z) = (r cos(θ), r sin(θ), z).
Cette application est C 1 . Soit Ω le plan R2 privé de l’axe réel négatif. On admet que l’application
ϕ est une bijection de ]0, ∞[ × ]−π, π[ × R dans Ω × R de réciproque C 1 .
La proposition suivante se déduit de la propriété analogue pour le changement de coordonnées
polaires dans le plan.
Proposition 1.3.38. Pour tout (r, θ, z) ∈ [0, ∞[ × [−π, π] × R, on a jϕ (r, θ, z) = r.
Corollaire 1.3.39. Soit f : D → R une fonction continue sur D domaine régulier de R3 . Soit
∆ un domaine régulier tel que ϕ(∆) = D. Alors
ZZZ ZZZ
f (r cos(θ), r sin(θ), z)rdrdθdz = f (x, y, z)dxdydz.
∆ D
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 39

Exemple 1.3.40. Calculons le volume du cylindre C de base le disque D de centre O et de rayon


R et de hauteur h. On a
C = ϕ ([0, R] × [−π, π] × [0, h]) .
Par passage en coordonnées cylindriques, on obtient donc
ZZZ
Volume(C) = rdrdθdz.
[0,R]×[−π,π]×[0,h]

En appliquant le théorème de Fubini, il vient


Z R ! Z !
π h
R2
 Z
Volume(C) = rdr dθ dz = 2πh = πR2 h.
0 −π 0 2

Coordonnées sphériques
On considère l’application ψ : [0, ∞[ × [−π, π] × [0, π] → R3 définie par
ψ(r, θ, φ) = (r cos(θ) sin(φ), r sin(θ) sin(φ), r cos(φ)).
Cette application est C 1 .

Proposition 1.3.41. Pour tout (r, θ, φ) ∈ [0, ∞[ × [−π, π] × [0, π], on a jψ (r, θ, φ) = r2 sin(φ).
Corollaire 1.3.42. Soit f : D → R une fonction continue sur D domaine régulier de R3 . Soit
∆ un domaine régulier tel que ψ(∆) = D. Alors
ZZZ ZZZ
f (r cos(θ) sin(φ), r sin(θ) sin(φ), r cos(φ))r2 sin(φ)drdθdφ = f (x, y, z)dxdydz.
∆ D
40 CHAPITRE 1. INTÉGRATION

Exemple 1.3.43. Recalculons le volume de la boule B de centre O et de rayon R. On a

B = ψ ([0, R] × [−π, π] × [0, π]) .

Par passage en coordonnées sphériques, on obtient donc


ZZZ
Volume(C) = r2 sin(φ)drdθdφ.
[0,R]×[−π,π]×[0,π]

En appliquant le théorème de Fubini, il vient


! Z
4
Z R π π
R3
 Z 
Volume(C) = 2
r dr dθ sin(φ)dφ = 2π2 = πR3 .
0 −π 0 3 3
Interlude - Rn

Définition
On généralise R, R2 et R3 :
— un élément de R2 est un couple (x, y) où x, y ∈ R ;
— un élément de R3 est un triplet (x, y, z) où x, y, z ∈ R ;
— un élément de Rn est un n-uplet (x1 , . . . , xn ) où x1 , . . . , xn ∈ R.
On note souvent → −
v = (x1 , . . . , xn ). Les éléments de Rn sont appelés vecteurs (de Rn ). L’entier n


est la dimension de Rn . Le vecteur nul de Rn est le vecteur 0 = (0, . . . , 0). On écrit parfois les
vecteurs verticalement (on parle de notation matricielle)
 
x1
 x2 

−v =  . .
 
 .. 
xn

Opérations
— On peut additionner deux vecteurs de Rn : si →

u = (x1 , . . . , xn ) et →

v = (y1 , . . . , yn ) alors


u +→

v = (x1 + y1 , . . . , xn + yn ).

— On peut multiplier un vecteur par un réel : si →



u = (x1 , . . . , xn ) et λ ∈ R alors

λ→

u = (λx1 , . . . , λxn ).

Interprétation géométrique des opérations


— Le vecteur λ→
−u s’obtient à partir de →

u par homothétie de centre O et de rapport λ.
— Le vecteur u + v est la diagonale d’un parallélogramme de côtés →

− →
− −
u et →−
v.

Combinaisons linéaires
Soient −
→, . . . , −
u1
→ des vecteurs de Rn . On note
up



uj = (xj1 , . . . , xjn ).

Soient λ1 , . . . , λp des réels. La combinaison linéaire des vecteurs − →, . . . , −


u 1
→ de coefficients λ , . . . , λ
up 1 p
est le vecteur

λ1 −
→ + ··· + λ − → p
p up = λ1 x1 + · · · + λp x1 , . . . , λ1 xn + · · · + λp xn .
1 1 p

u1

41
42 CHAPITRE 1. INTÉGRATION

Les combinaisons linéaires sont un peu plus lisibles en écrivant les vecteurs verticalement
 p 
x11 λ1 x11 + · · · + λp xp1
  
x1
 .   .   ..
λ1 −
→ + ··· + λ −
u →
p up = λ1  ..  + · · · + λp  ..  =  . .

1
x1n xpn λ1 x1n + · · · + λp xpn

Définition 1.3.44. Les vecteurs →



u et →

v sont colinéaires s’il existe ν ∈ R tel que →

v = ν→

u ou


u =νv.→

Proposition 1.3.45. Les vecteurs →



u et →

v sont colinéaires si et seulement s’il existe λ, µ ∈ R
avec (λ, µ) ̸= (0, 0) tels que


λ→−
u + µ→

v = 0

− →

Démonstration. Si →−v = ν→
−u alors ν →

u −→
−v = 0 et si →
−u = ν→ −v alors −→−
u + ν→ −
v = 0 . Passons



− →
− →

maintenant à la réciproque. On suppose λ u + µ v = 0 . Si λ ̸= 0, on obtient u = − µλ →

v . Sinon

− λ→

µ ̸= 0 et v = − µ u .

Droites et plans vectoriels


On veut décrire les droites et le plans à l’aide de vecteurs (plutôt qu’à l’aide d’équations).

Définition 1.3.46. Soit →



v un vecteur non nul. La droite vectorielle engendrée par →

v est la
droite
D = {λ→−
v , λ ∈ R}

La droite D engendrée par →



v est l’ensemble des vecteurs colinéaires à →

v.

Proposition 1.3.47. On se place dans R2 . Alors la droite engendrée par →



v = (a, b) a pour
équation −bx + ay = 0.

Idée de la preuve. Le vecteur (−b, a) est orthogonal au vecteur (a, b). L’ensemble des vecteurs
colinéaires à (a, b) est exactement l’ensemble des vecteurs orthogonaux à (−b, a). Enfin (x, y) est
orthogonal à (−b, a) si et seulement si −bx + ay = 0. Ce qu’on voulait.

Définition 1.3.48. Soit →



u et →

v deux vecteurs non colinéaires. Le plan vectoriel engendré par

− →

u et v est le plan
P = {λ→
−u + µ→−
v , λ, µ ∈ R}.

On note P = Vect(→

u,→

v)

Attention : un même plan est défini par plusieurs vecteurs générateurs. Par exemple, le plan
horizontal {z = 0} dans R3 est engendré par les vecteurs (1, 0, 0) et (0, 1, 0) mais aussi par les
vecteurs (1, 2, 0) et (3, 1, 0).
Attention : une droite est aussi définie par plusieurs vecteurs générateurs. Par exemple les
vecteurs (1, 1, 1) et (2, 2, 2) engendrent la même droite de R3 .

Exercice 1.3.49. Vérifier que (1, 2, 0) et (3, 1, 0) ne sont pas colinéaires.


1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 43

Base canonique de Rn
Dans Rn , on a n axes de coordonnées engendrés par
→−
 e1 = (1, 0, . . . , 0)
→−

e2 = (0, 1, . . . , 0)


..


 .
−
e→n = (0, 0, . . . , 1)

Tout vecteur de Rn s’écrit de façon unique comme une combinaison linéaire de →



e1 , . . . , −
e→
n . Ainsi



v = (x1 , . . . xn ) = x1 →

e1 + · · · + xn −
e→
n.

La famille (→

e1 , . . . , −
e→
n ) est la base canonique de R .
n
44 CHAPITRE 1. INTÉGRATION
Chapitre 2

Systèmes linéaires

Le but de chapitre est de développer une méthode générale de résolution des systèmes linéaires.
Voici quelques exemples de systèmes linéaires

x1 + x2 + x3 = 1

(S1 ) x1 + 2x2 + x3 = −2
x1 + 2x2 + 3x3 = 2


(
x1 + 7x2 − x23 = 0
(S2 )
x1 + x2 + x3 = π

x1 + x2 = 1

(S3 ) 3x1 − 4x2 = 0
3 + 5 = −3
 x1
 x2

Ici résoudre veut dire :


— déterminer si le système admet des solutions
— dans ce cas, déterminer toutes les solutions.

2.1 Présentations d’un système linéaire


Dans ce cours, on a s’intéresser à des systèmes généraux à n équations et p inconnues.

a11 x1 + a12 x2 + · · · + a1p xp = y1




a21 x1 + a22 x2 + · · · + a2p xp = y2


(S) ..


 .
an1 x1 + an2 x2 + · · · + anp xp = yn

La i-ième ligne du système est


ai1 x1 + ai2 x2 + · · · + aip xp = yi .
Sa j-ième colonne est  
a1j xj
 a2j xj 
 ..  .
 
 . 
anj xj

45
46 CHAPITRE 2. SYSTÈMES LINÉAIRES

Systèmes linéaires et combinaisons linéaires


Résoudre un système linéaire c’est déterminer toutes les combinaisons linéaires (si elles existent)
de p vecteurs de Rn valant un vecteur fixé. On pose pour tout 1 ≤ j ≤ p
   
a1j y1
 a2j   y2 
vj =  .  et →

−   −
y =  . .
 
 ..   .. 
anj yn
On a alors
(S) ⇔ x1 →

v1 + x 2 →

v 2 + · · · + xp →

vp = →

y.

Codage matriciel d’un système linéaire


Voici la présentation de système (S) sous forme matricielle augmentée
 
a11 a12 · · · a1p y1
 a21 a22 · · · a2p y2 
 .. .. .. .. ..  .
 
 . . . . . 
an1 an2 · · · anp yn

2.2 Systèmes particuliers


2.2.1 Systèmes triangulaires
Définition 2.2.1. Un système linéaire (S) est triangulaire si
— n = p (autrement dit (S) au autant d’équations que d’inconnues) ;
— les coefficients en dessous de la diagonale sont nuls : aij = 0 si i > j.
Exemple 2.2.2. 
x + y + z = 1

(S) y + 2z = 0
z=1

On a alors 
x = 2

(S) ⇔ y = −2
z=1

et le système a pour unique solution (2, −2, 1).


Exemple 2.2.3. Soit a un paramètre réel.

x + y + z = 0

(Sa ) ay + 2z = 1
z=2

On a alors 
x + y + z = 0

(Sa ) ⇔ ay = −3
z=2


2.2. SYSTÈMES PARTICULIERS 47

Si a = 0, on obtient

x + y + z = 0

(S0 ) ⇔ 0 = −3
z=2

et le système n’a pas de solutions. Si a ̸= 0, on obtient


 
x + y + z = 0 x = a − 2
  3

(Sa ) ⇔ y = − a3 ⇔ y = − a3
z=2 z=2

 

et le système a exactement une solution 3


− 2, − a3 , 2 .

a

Exemple 2.2.4. Soit a un paramètre réel.



x + y + z = 0

(Sa′ ) ay + 2z = 1
z = 21

On a alors 
x + y + z = 0

(Sa ) ⇔ ay = 0

z = 12

Si a = 0, on obtient
 
x + y + z = 0 x = − 2 − y
  1

(S0′ ) ⇔ 0 = 0 ⇔ 0=0
z = 21 z = 12

 

le système admet une infinité de solutions : l’ensemble des solutions est

1 1
  
S= − − y, y, ,y ∈ R .
2 2

Si a ̸= 0, on obtient
 
x + y + z = 0 x = − 2
  1

(Sa′ ) ⇔ y = 0 ⇔ y=0
z = 12 z = 21

 

et le système a exactement une solution − 12 , 0, 21 .




On remarque que le nombre de solutions dépend du paramètre. Le point crucial est la non-
nullité des coefficients diagonaux !

Définition 2.2.5. Un système linéaire triangulaire est dit de Cramer si tous ses coefficients
diagonaux sont non nuls : aii ̸= 0 pour tout 1 ≤ i ≤ n = p.

Proposition 2.2.6. Un système de Cramer admet une unique solution.


48 CHAPITRE 2. SYSTÈMES LINÉAIRES

2.2.2 Systèmes échelonnés


Définition 2.2.7. Un système linéaire (S) à p inconnues et n équations est dit échelonné si
chaque ligne de coefficients commence par davantage de 0 que la ligne précédente.

Exemple 2.2.8. Les systèmes de Cramer sont échelonnés.

Exemple 2.2.9.

x + 2y = 0
( (
x−y+z =1 x−y+z =1

(S1 ) (S2 ) (Sa ) 3y = 1 .
2y + z = 2 z=1
0=a

Définition 2.2.10. Dans un système linéaire échelonné


1. le premier coefficient non-nul d’une ligne est un pivot du système ;
2. les inconnues associées à un coefficient pivot sont les inconnues principales ;
3. les inconnues non principales sont appelées inconnues secondaires ;
4. une équation de compatibilité est une ligne du type 0 = yi .

Définition 2.2.11. Un système linéaire échelonné est compatible s’il n’a pas d’équation de com-
patibilité ou si toutes ses équations de compatibilité sont du type 0 = 0.

Exemple 2.2.12.
— Dans (S1 ), les inconnues principales sont x et y. L’inconnue z est secondaire.
— Dans (S2 ), les inconnues principales sont x et z. L’inconnue y est secondaire.
— Dans (Sa ) les inconnues x et y sont principales. Il n’y a pas d’inconnues secondaires.
— Dans les systèmes de Cramer toutes les inconnues sont principales.
— La dernière ligne de (Sa ) est une équation de compatibilité. Le système (Sa ) est compatible
si et seulement si a = 0.

Proposition 2.2.13.
1. Un système linéaire échelonné possède des solutions si et seulement s’il est compatible.
2. Les solutions d’un système échelonné compatible sont déterminées de manière unique par
les valeurs des inconnues secondaires.

Exemple 2.2.14. Commençons par un exemple simple.


(
x+z =3
(S)
y + 2z = 2

On a (
x=3−z
(S) ⇔
y = 2 − 2z

L’ensemble des solutions de (S) est S = {(3 − z, 2 − 2z, z), z ∈ R}

Cet exemple est particulièrement simple car il y a uns seule inconnue principale par ligne.

Définition 2.2.15. Un système linéaire échelonné est dit réduit si tous ses pivots sont égaux à
1 et si les pivots sont les seuls éléments non nuls de leur colonne.
2.3. SYSTÈMES ÉQUIVALENTS ET TRANSFORMATIONS ÉLÉMENTAIRES 49

Exemple 2.2.16. (
x+z =3
y + 2z = 2
Les systèmes linéaires échelonnés réduits compatibles sont faciles à résoudre : on dépalce
toutes les inconnues secondaires dans le second membre, elles sont dites libres et deviennent les
paramètres du système.
Pour résoudre un système échelonné compatible (mais pas forcément réduit), on déplace toutes
les inconnues qui ne sont pas en tête de ligne dans le second membre, puis, en commençant par
la dernière ligne, on remplace les inconnues principales qui ne sont pas en têtes de ligne par le
paramétrage obtenus dans les lignes inférieurs du système.
Exemple 2.2.17. Un premier exemple très simple.
(
x−y =1
(S)
y=1

On a ( (
x=1+y x=2
(S) ⇔ ⇔
y=1 y=1
Exemple 2.2.18. Un exemple avec une infinité de solutions.
(
x−y+z =1
(S)
2y + z = 2

On a ( (
x=1+y−z x=1+1− z
−z =2− 3z
(S) ⇔ ⇔ 2 2 .
y = 1 − z2 y = 1 − z2
Au final, l’ensemble des solutions de (S) est S = {(2 − 3z/2, 1 − z/2, z), z ∈ R}.

2.2.3 Systèmes linéaires homogènes


Définition 2.2.19. Un système linéaire est homogène si la colonne des seconds membres est
nulle.
Définition 2.2.20. Les système linéaire associé à un système linéaire est obtenu en remplaçant
tous les yi par 0.
Un système linéaire homogène échelonné est toujours compatible (et a donc toujours au moins
une solution) !

2.3 Systèmes équivalents et transformations élémentaires


Définition 2.3.1. Les systèmes linéaires (S) et (S ′ ) sont équivalents s’ils possèdent le même
ensemble de solutions.
Si (S) et (S ′ ) sont équivalents alors (S) et (S ′ ) n’ont pas de solution ou leurs solutions sont
les mêmes.
Pour résoudre un système, on voudrait le transformer en un système équivalent plus simple
à résoudre. Pour cela, on va faire des opérations élémentaires sur les lignes. Voici les opérations
élémentaires possibles :
50 CHAPITRE 2. SYSTÈMES LINÉAIRES

1. Intervertir les lignes Li et Lj , notation : Li ↔ Lj ;


2. Remplacer la ligne Li par elle même + un multiple d’une autre ligne Lj , notation Li →
Li + λLj avec λ ∈ R et i ̸= j ;
3. Multiplier la ligne Li par une réel λ non nul, notation Li → λLi .
Attention : ces opérations sont à effectuer successivement (et non simultanément).
Exemple 2.3.2.
  
x − y + z = 1
 −z = −1
 −z = −1

x − y + 2z = 2 ⇔L1 →L′1 =L1 −L2 x − y + 2z = 2 ⇔L2 →L′2 =L2 −L3 −2y + z = −1
x+y+z =3 x+y+z =3 x+y+z =3

 
 

Et on obtient donc (le dernier système devient échelonné quand on permute les lignes)

z = 1

y=1
x=1

2.4 Algorithme de pivot de Gauss-Jordan


Théorème 2.4.1. Tout système linéaire (S) est équivalent à un système linéaire échelonné (S ′ )
via une suite d’opérations élémentaires.
On peut demander que le système (S ′ ) soit réduit.
Pour résoudre un système linéaire, il suffit de déterminer quelles opérations effectuer pour se
ramener à un système échelonné : c’est l’algorithme de Gauss-Jordan. Décrivons cet algorithme.
On part d’un système linéaire.
a11 x1 + a12 x2 + · · · + a1p xp = y1 (L1 )



a21 x1 + a22 x2 + · · · + a2p xp = y2 (L2 )


(S) .. .. .. .


 . . .
an1 x1 + an2 x2 + · · · + anp xp = yn (Ln )

Si la colonne  
a11
 a21 
 .. 
 
 . 
an1
est nulle, alors x1 est une inconnue secondaire et il n’y a rien à faire à cette étape. Sinon, il existe
i0 tel que ai0 1 ̸= 0. Si besoin, on intervertit L1 et une autre ligne pour obtenir a11 ̸= 0. Puis, on
utilise L1 pour annuler tous les coefficients devant x1 dans les lignes suivantes : pour tout i ≥ 2,
on pose
ai1
Li → Li − L1 .
a11
On obtient alors un système équivalent de la forme
a11 x1 + a12 x2 + · · · + a1p xp = y1 (L1 )



a′22 x2 + · · · + a′2p xp = y2′ (L′2 )



.. .. .. .


 . . .
a′n2 x2 + · · · + a′np xp = yn′ (L′n )


2.4. ALGORITHME DE PIVOT DE GAUSS-JORDAN 51

En effet, on a

ai1 x1 + ... + aip xp = yi  (Li ) 


ai1
a11 x1 + ... + ai1
a1p xp = ai1
y1 ai1
a11 L1
 a11   a11   a11   
ai1 − aa11
i1
a11 x1 + ... + aip − aa11
i1
a1p xp = yi − aa11
i1
y1 Li − ai1
a11 L1 .

Et on recommence la procédure avec le système



a′ x + · · · + a′2p xp = y2′ (L′2 )
 22 2


.. .. ..
. . . .

a′ x + · · · + a′ x = y ′ (L′ )

n2 2 np p n n

Ce nouveau système a une ligne de moins. L’algorithme finit donc par s’arrêter et quand il s’arrête,
on obtient un système échelonné.
Si on veut obtenir un système échelonné réduit, on commence par re normaliser les colonnes
pour obtenir 1 comme pivot
1
Li → Li
aij0
où aij0 est le pivot de la ligne Li . Puis on procède comme à l’étape précédente en partant de la
dernière ligne et en utilisant les pivots pour annuler tous les autres éléments de la colonne.

Exemple 2.4.2.
 
x 1 + x 2 + x 3 = 1
 x1 + x2 + x3 = 1

(S1 ) x1 + 2x2 + x3 = −2 ⇔L2 →L′2 =L2 −L1 0 + x2 + 0 = −3
x1 + 2x2 + 3x3 = −2 x1 + 2x2 + 3x3 = −2

 

 
x 1 + x 2 + x 3 = 1
 x1 + x2 + x3 = 1

⇔L3 →L′3 =L3 −L1 x2 = −3 ⇔L′3 →L′′3 =L′3 −L′2 x2 = −3
x2 + 2x3 = −3 0 + 2x3 = 0

 

On a obtenu un système échelonné (S1′ ). On réduit ce système.


  
x 1 + x 2 + x 3 = 1
 x1 + x2 = 1
 x 1 = 4

(S1 ) ⇔L3 →L′3 =1/3L3 x2 = −3

⇔L1 →L′1 =L1 −L′3 x2 = −3 ⇔L′1 →L′1 −L2 x2 = −3
x3 = 0 x3 = 0 x3 = 0

 
 

Le système (S1 ) a pour unique solution (4, −3, 0).

Exemple 2.4.3.
 
2x1 + x2 + 3x3 = 1
 2x1 + x2 + 3x3 = 1

(S2 ) x1 + 3x2 − x3 = 2 ⇔L2 →L′2 =L2 −1/2L1 0 + 52 x2 − 25 x3 = 32
−x1 + 2x2 − 4x3 = 1 −x1 + 2x2 − 4x3 = 1

 

 
2x1 + x2 + 3x3 = 1
 2x1 + x2 + 3x3 = 1

2 x2 − 2 x3 = 2 2 x2 − 2 x3 = 2
5 5 3 5 5 3
⇔L3 →L′3 =L3 +1/2L1 ⇔L′3 →L′′3 =L′3 −L′2
0 + 25 x2 − 52 x3 = 32 0=0

 

52 CHAPITRE 2. SYSTÈMES LINÉAIRES

On obtient un système linéaire échelonné (T ). Une équation de compatibilité est apparue et elle
est satisfaite, notre système admet donc des solutions. Les variables x1 et x2 sont les inconnues
principales de (T ) et x3 est une inconnue secondaire de (T ). On réduit (T )
( ( (
x1 + 21 x2 + 32 x3 = 12 x1 + 2x3 = 51 x1 = −2x3 + 15
(T ) ⇔ ⇔L →L − 1
L ⇔
x2 − x3 = 35 1 1 2 2
x2 − x3 = 35 x2 = x3 + 53

L’ensemble des solutions du système est dont

1 3
  
S= −2x3 + , x3 + , x3 , x3 ∈ R .
5 5

Dans cet exemple, il aurait été plus efficace de commencer par permuter L1 et L2 pour que le
premier pivot soit 1 (ça évite d’avoir des fractions un peu partout). Ça vaut la peine de réfléchir
avant de commencer à appliquer l’algorithme !

Exemple 2.4.4. Changeons le dernier coefficient constant du système précédent.


 
2x1 + x2 + 3x3 = 1
 2x1 + x2 + 3x3 = 1

(S2 ) x1 + 3x2 − x3 = 2

⇔L2 →L2 =L2 −1/2L1 0 + 52 x2 − 25 x3 = 32

−x1 + 2x2 − 4x3 = 2 −x1 + 2x2 − 4x3 = 2



 

 
2x1 + x2 + 3x3 = 1
 2x1 + x2 + 3x3 = 1

2 x2 − 2 x3 = 2 2 x2 − 2 x3 = 2
5 5 3 5 5 3
⇔L3 →L′3 =L3 +1/2L1 ⇔L′3 →L′′3 =L′3 −L′2
0 + 25 x2 − 52 x3 = 52 0=1

 

Il y a une équation de compatibilité non satisfaite donc le système n’admet pas de solution. Donc
(S2′ ) n’a pas de solution.

Exemple 2.4.5. On peut aussi appliquer l’algorithme de Gauss-Jordan sur la présentation ma-
tricielle du système. 
x1 + x2 = 1

(Sa ) x1 + 3x2 = 2
x1 + 4x2 = a

On obtient pour représentation matricielle

1 2 1
 
 1 3 2 .
1 4 a

On a alors
1 2 1 1 2 1 1 2 1
     
 1 3 2 ⇔ 0 1 1 ⇔ 0 1 1 
1 4 a 0 2 a−1 0 0 a−3
La dernière ligne est une équation de compatibilité. Elle est satisfaite si et seulement si a = 3.
Si a ̸= 3, le système est incompatible et (Sa ) n’a pas de solution. Si a = 3, les système linéaire
échelonné équivalent (T ) est compatible. On le met sous forme réduite

1 2 1 1 0
   
−1

0 1 1 0 1 1
2.5. LA NOTION DE RANG 53

Le système (S3 ) est donc équivalent au système


(
x1 = −1
x2 = 1
On obtient que S3 a pour unique solution (−1, 1).

2.5 La notion de rang


Définition 2.5.1. Le rang d’un système linéaire est le nombre d’inconnues principales d’un
système linéaire échelonné équivalent.
Théorème 2.5.2. Le rang d’un système ne dépend que des coefficients (aij ) et pas du second
membre (yi ). Le rang d’un système ne dépend pas du système linéaire échelonné équivalent choisi
pour le calculer.
Exemple 2.5.3.
 
x1 + x2 + x3 = 1
 x 1 + x 2 + x 3 = 1

(S1 ) x1 + 2x2 + x3 = −2 ⇔ x2 = −3
x1 + 2x2 + 3x3 = −2 0 + 2x3 = 0

 

et est donc de rang 3.


 
2x1 + x2 + 3x3 = 1
 2x1 + x2 + 3x3 = 1

(S2 ) x1 + 3x2 − x3 = 2 ⇔ 25 x2 − 52 x3 = 32
−x1 + 2x2 − 4x3 = 1 0=0

 

et est donc de rang 2.


Définition 2.5.4. Par extension, le rang de la matrice A = (aij ) est le rang d’un système linéaire
associé, par exemple (A|0)
Théorème 2.5.5. Le rang ne dépend pas du système linéaire associé choisi pour le calculer.
Exemple 2.5.6. Le rang de la matrice
2 1 3
 

A= 1 3 −1
−1 2 −4
est 2 (c’est la matrice associée à (S2 )).
Théorème 2.5.7. Soit r le rang d’un système linéaire à p inconnue et n équations. Alors r ≤ n
et r ≤ p. De plus
r=p r<p
r=n solution unique infinité de solution
r<n 0 ou 1 solution 0 ou infinité de solution
Quelques commentaires sur le tableau...
1. Si r = n, il n’y a pas d’équation de compatibilité et il y a donc toujours des solutions.
2. Si r < n, il y a des équations de compatibilités (et le système est potentiellement incompa-
tible).
3. Si r = p, toutes les inconnues sont principales (donc il y a au plus une solution).
4. Si r < p, il y a des inconnues secondaires (donc s’il existe des solutions il y en a une
infinité).
54 CHAPITRE 2. SYSTÈMES LINÉAIRES
Chapitre 3

Matrices et applications linéaires

3.1 Applications linéaire de Rp dans Rn


Idée : une application linéaire est une application compatible avec les combinaisons linéaires.

Définition 3.1.1. Une application f : Rp → Rn est linéaire si pour tous →



u,→

v ∈ Rp et tous
λ, µ ∈ R, on a
f (λ→

u + µ→−v ) = λf (→

u ) + µf (→

v ).

Exemple 3.1.2. L’application f : R3 → R2 définie par f (x, y, z) = (x + y, z − x) est linéaire. En


effet, pour tous →

u = (x1 , y1 , z1 ), →

v = (x2 , y2 , z2 ), λ ∈ R et µ ∈ R, on a

f (λ→

u + µ→

v ) = f (λx1 + µx2 , λy1 + µy2 , λz1 + µz2 )
= (λx1 + µx2 + λy1 + µy2 , λz1 + µz2 − (λx1 + µx2 ))
= (λx1 + λy1 , λz1 − λx1 ) + (µx2 + µy2 , µz2 − µx2 )
= λ (x1 + y1 , z1 − x1 ) + µ (x2 + y2 , z2 − x2 )
= λf (→
−u ) + µf (→−v ).

Proposition 3.1.3. L’application f : Rp → Rn est linéaire si et seulement si pour tous →



u,→

v ∈
p
R et tout λ ∈ R
f (→

u +→ −v ) = f (→

u ) + f (→

v ) et f (λ→

u ) = λf (→
−u).

Démonstration. Si f est linéaire, la première égalité de la proposition vient avec λ = µ = 1 et la


seconde avec µ = 0. Supposons maintenant les égalités de la proposition vérifiées, on obtient par
application de la première égalité puis de la seconde

f (λ→

u + µ→

v ) = f (λ→

u ) + f (µ→

v ) = λf (→

u ) + µf (→

v ).

Et on a bien montré que f est linéaire.

Proposition 3.1.4. Si f : Rp → Rn est linéaire alors, pour tous −


→, . . . , −
u1
→ ∈ Rp et tous
ur
λ1 , . . . , λr ∈ R, on a

f (λ1 −
→ + ··· + λ −
u1
→ −
→ −

r ur ) = λ1 f (u1 ) + · · · + λr f (ur ) .

Démonstration. Montrons le résultat par récurrence sur r.


— Pour r = 2, c’est la définition d’application linéaire.

55
56 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES

— On se donne r > 2 et on suppose le résultat vrai au rang r − 1. On pose alors λ′r−1 = 1


−−→ −−→ −− →
et u′r−1 = λr−1 − u−→ −
→ −

r−1 + λr ur . On applique l’hypothèse de récurrence à u1 , . . . , ur−2 , ur−1 et

λ1 , . . . , λr−2 , λ′r−1 pour obtenir


−− →
f (λ1 −
→ + ··· + λ −
u1
→ −
→ −−→
r ur ) = λ1 f (u1 ) + · · · + λr−2 f (ur−2 ) + f (ur−1 ).

Par linéarité de f , on a
−−→
f (u′r−1 ) = λr−1 f (−
u−→ −

r−1 ) + λr (ur ) .

On en déduit
f (λ1 −
→ + ··· + λ −
u1
→ −
→ −

r ur ) = λ1 f (u1 ) + · · · + λr f (ur ) .

Proposition 3.1.5. Soit f : Rp → Rn linéaire. Alors


→
− → −
1. f 0 = 0 ;


2. l’image par f d’une droite vectorielle est 0 ou une droite vectorielle ;


3. l’image par f d’un plan vectoriel est 0 ou une droite vectorielle ou un plan vectoriel.

Démonstration.
→
− →

1. f 0 = f (0→

u ) = 0f (→

u) = 0
2. Soit D→ →

u la droite vectorielle engendrée par u un vecteur non nul de R :
− p



u = {λ u , λ ∈ R} .
D→

On a →−v ∈ f (D→ →
− →
− →
− →

u ) ⇔ v = f (λ u ) pour un λ ∈ R ⇔ v = λf ( u ) pour un λ ∈ R. Ainsi si


− →
− →

f (→

u ) = 0 , on a f (D→ →

u ) = 0 . Sinon, f ( u ) ̸= 0 et f (D→
− u ) = Df (→
− u ).

3. Soient u et v non colinéaires. On note P u , v le plan vectoriel engendré par →



− →
− →− →


u et →

v . On a


w ∈ f P→ − →

− →
− →
− →
− →

− ⇔ w = f (λ u + µ v ) pour un λ ∈ R et un µ ∈ R ⇔ w = λf ( u ) + µf ( v )
 →

u,v
pour un λ ∈ R et un µ ∈ R. Par conséquent 

− →
− →

— si f (→−u ) = 0 et f (→ −v ) = 0 alors f P→ − v = 0 ;
u ,→

— si f (→−u ) et f (→

v ) sont colinéaires et non tous les deux nuls, on obtient f P→ v = Df (→


u ,→
− −
u)

− →

si f ( u ) ̸= 0 et f P→ v = Df (→ v ) sinon ;

−u ,→
− −

— si f (→−u ) et f (→
−v ) ne sont pas colinéaires f P→ v = Pf (→ v ).


u ,→
− −u ),f (→

Rappel : la base canonique de Rp est (→



e1 , . . . , →

ep ) où


e1 = (1, 0, . . . , 0), →

e2 = (0, 1, . . . , 0), . . . , →

ep = (0, 0, . . . , 1.)

Théorème 3.1.6. Soient −


→, . . . , −
u1
→ ∈ Rn alors il existe une unique application linéaire f : Rp →
up
n
R telle que
f (→

e1 ) = −
→, . . . , f (→
u1

ep ) = −
→.
up

L’application f est définie par

f (x1 , . . . , xp ) = x1 −
→ + ··· + x −
u1

p up .
3.2. MATRICE D’UNE APPLICATION LINÉAIRE 57

Exemple 3.1.7. La base canonique de R2 est (→ −


e1 , →

e2 ) avec →

e1 = (1, 0) et →

e2 = (0, 1). Posons

u1 = (1, 1) et u2 = (1, −1). Alors l’unique application g : R → R telle que g (→
→ −
→ 2 2 −
e1 ) = −→ et
u1

− −

g ( e2 ) = u2 est définie par
g(x1 , x2 ) = x1 (1, 1) + x2 (1, −1) = (x1 + x2 , x1 − x2 ).

0.5

−0.5 0 0.5 1

−0.5

−1

−1.5

3.2 Matrice d’une application linéaire


On a vu dans la section précédente qu’il suffisait de connaître f (→ −
e1 ) , . . . , f (→

ep ) pour décrire
une application linéaire f : R → R . On écrit
p n
   
a11 a1p
 a21   a2p 
f (→
−e1 ) = −
→=
u  ..  , . . . , f (→

ep ) = −
→=
u  .. 
 
1 p
 .   . 
an1 anp
Définition 3.2.1. La matrice de l’application linéaire f dans la base canonique est la matrice
 
a11 a12 · · · a1p
 a21 a22 · · · a2p 
A= . .. .. ..  .
 
 .. . . . 
an1 an2 · · · anp
La matrice A a n lignes et p colonnes. On la note parfois A = (− →|−
u → | . . . |−
u 1
→).
u
2 p

Soit →

x = (x1 , . . . , xp ) et →

y = (y1 , . . . , yn ). On a
   
a11 a1p
 a21   a2p 
f (→

x ) = x1 f (→

e1 ) + · · · + xp f (→

ep ) = x1 −
→ + ··· + x −
u →
p up = x1  .  + · · · + xp  . 
   
 ..   .. 
1

an1 anp
a11 x1 + a12 x2 + · · · + a1p xp
 
 a21 x1 + a22 x2 + · · · + a2p xp 
= ..
 
.

 
an1 x1 + an2 x2 + · · · + anp xp
58 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES

L’équation f (→

x)=→

y s’écrit

a11 x1 + a12 x2 + · · · + a1p xp = y1




a21 x1 + a22 x2 + · · · + a2p xp = y2


..


 .
an1 x1 + an2 x2 + · · · + anp xp = yn

Et on retrouve un système linéaire de matrice A (et matrice augmentée (A|→



y )) !

3.3 Calcul matriciel de l’image d’un vecteur


On a vu que si f : Rp → Rn linéaire vérifie

f (→

e1 ) = −
→, . . . , f (→
u 1

ep ) = −
→.
up

alors
f (x1 , . . . , xp ) = x1 −
→ + ··· + x −
u1

p up .

On voudrait calculer f (→

x ) matriciellement. On part de A une matrice à n lignes et p colonnes et
X un vecteur à p lignes et 1 colonne
   
a11 a12 · · · a1p x1
 a21 a22 · · · a2p   x2 
A= . .. .. ..  X =  . .
   
 .. . . .   .. 
an1 an2 · · · anp xp

On a
a11 x1 + a12 x2 + · · · + a1p xp
    
a11 a12 ··· a1p x1
···  x2   a21 x1 + a22 x2 + · · · + a2p xp 
 a21 a22 a2p     
AX =  . .. .. ..   ..  =  .. .

 .. . . .  .   . 
an1 an2 ··· anp xp an1 x1 + an2 x2 + · · · + anp xp
Exemple 3.3.1. Pour
1
 
1 3 5
 
A= X = −1 .
2 4 6
2
On obtient
1
 
1 3 5 −1 = 8 .
   
AX =
2 4 6 10
2
Attention : si le nombre de colonnes de A n’est pas égal au nombre de lignes de X, le produit
AX n’est pas défini.
Remarque 3.3.2. Le nombre de lignes de AX est égal au nombre de lignes de A (et son nombre
de colonnes est égal au nombre de colonnes de X, c’est à dire 1). Le produit AX est un cas
particulier de produit entre deux matrices (voir plus loin).
Remarque 3.3.3. Si A est écrite sous forme de colonnes A = (C1 | . . . |Cp ) alors

AX = x1 C1 + · · · + xp Cp .
3.4. EXEMPLES D’APPLICATIONS LINÉAIRES 59

3.4 Exemples d’applications linéaires


3.4.1 Similitudes du plan
Définition 3.4.1. Une similitude du plan est une application sλ : C → C de la forme z 7→ λz
avec λ ∈ C∗ .

On commence par écrire sλ comme une application de R2 → R2 . Pour cela on écrit z = x + iy


et λ = a + ib. On obtient

sλ (z) = sλ (x + iy) = (a + ib)(x + iy) = ax − by + i(bx + ay).

Par conséquent
sλ (x, y) = (ax − by, bx + ay).
En particulier sλ (1, 0) = (a, b) et sλ (0, 1) = (−b, a). L’application sλ est linéaire de matrice dans
la base canonique  
a −b
Sλ =
b a

Exemple 3.4.2.
1. Si λ = a ∈ R∗ alors sλ est l’homothétie de rapport a. La matrice associée est

a 0
 
Sa = .
0 a

2. Si λ = eiθ = cos(θ) + i sin(θ), Sλ est la rotation d’angle θ (et de centre O). En effet, pour
reiα ∈ C, on a
sλ (reiα ) = rei(θ+α)
On a
cos(θ) − sin(θ)
 
Sλ =
sin(θ) cos(θ)
et
sλ (x, y) = (cos(θ)x − sin(θ)y, sin(θ)x + cos(θ)y)
pour tout (x, y) ∈ R .
2

3. Dans le cas général, on écrit λ = reiθ . On a alors sλ = sr ◦ seiθ = seiθ ◦ sr , autrement dit,
sλ est la composée d’un rotation d’angle θ et d’une homothétie de rapport r.

Remarque 3.4.3. Une similitude préserve les angles et multiplie les longueurs par r.

3.4.2 Applications linéaires de R2


Les matrices des applications linéaires de R2 sont les matrices
 
a c
b d

pour a, b, c, d ∈ R. On a alors f (→

e1 ) = (a, b) et f (→

e2 = (c, d). En général, une telle application ne
préserve pas les angles ou les distances. On peut même avoir f (→ −
e1 ) = (0, 0) !

Exemple 3.4.4.
60 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES

1. Si
1 0
 
A=
0 1
l’application linéaire associée est l’identité (f (x, y) = (x, y) pour tout (x, y) ∈ R2 ).
2. Si
λ 0
 
A=
0 µ
l’application linéaire associée est une dilatation (de paramètres λ et µ).
3. Si
0 0
 
A=
0 1
l’application linéaire associée est la projection orthogonale sur (Oy).
4. Si
1 0
 
A=
0 −1
l’application linéaire associée est la symétrie axiale d’axe (Ox). Si

0 1
 
A=
1 0

l’application linéaire associée est la symétrie axiale d’axe la première bissectrice (c’est à dire
la droite d’équation y = x).

3.4.3 Rotations dans R3 d’axe (Oz)


On considère Rθ la rotation d’axe (Oz) et d’angle θ. On a alors

Rθ (0, 0, 1) = (0, 0, 1)

Rθ (1, 0, 0) = (cos(θ), sin(θ), 0)


Rθ (0, 0, 1) = (− sin(θ), cos(θ), 0).
On obtient donc pour matrice
cos(θ) − sin(θ) 1
 
 sin(θ) cos(θ) 0
0 0 1
On reconnaît une matrice de rotation en dimension 2 dans le bloc en haut à gauche.

3.5 Opérations sur les matrices et sur les applications li-


néaires
On note
L(Rp , Rn )
l’ensemble des applications linéaires de Rp dans Rn . On note

Mn,p (R)

l’ensemble des matrices à n lignes et p colonnes (et à coefficients dans R. Par ce qui précède
L(Rp , Rn ) et Mn,p (R) sont en bijection.
3.5. OPÉRATIONS SUR LES MATRICES ET SUR LES APPLICATIONS LINÉAIRES 61

3.5.1 Addition
Dans L(Rp , Rn ), on peut additionner deux applications linéaires : si f, g ∈ L(Rp , Rn ) alors
f + g est défini par
(f + g)(→
−u ) = f (→

u ) + g(→

u)


pour tout u ∈ Rp .
Proposition 3.5.1. On a f + g ∈ L(Rp , Rn ).
Démonstration. Pour tous →

u,→−v ∈ Rp et tous λ, µ ∈ R, on a
(f + g)(λ→
−u + µ→
−v ) = f (λ→

u + µ→−v ) + g(λ→

u + µ→

v)
= λf (→
−u ) + µf (→
−v ) + λg(→
−u ) + µg(→−v)

− →
− →
− →

= λ(f ( u ) + g( u )) + µ(f ( v ) + g( v ))
= λ(f + g)(→

u ) + µ(f + g)(→

v)
Donc f + g préserve les combinaisons linéaires : c’est donc une application linéaire.
On peut également additionner deux matrices A, B ∈ Mn,p (R) : la matrice A + B ∈ Mn,p (R)
est définie par (A + B)ij = aij + bij où A = (aij ) et B = (bij ).
Exemple 3.5.2. Pour
1 3 5 0 1
   
−1
A= B=
2 4 6 2 −8 2
on obtient
0 3 6
 
A+B = .
4 −4 8
Proposition 3.5.3. Soient f, g ∈ L(Rp , Rn ). On note Mat(f ), Mat(g) et Mat(f +g) les matrices
associées à f , g et f + g. Alors
Mat(f + g) = Mat(f ) + Mat(g).
Démonstration. on écrit Mat(f ) = (ai,j ) et Mat(g) = (bi,j ). Pour obtenir la j-ième colonne de
Mat(f ) + Mat(g), on calcule
a1j + b1j
     
a1j b1j
 a2j   b2j   a2j + b2j 
(f + g)(→−
ej ) = f (→

ej ) + g(→

ej ) =  .  +  .  =  .. .
     
 ..   ..   . 
anj bnj anj + bnj
Et on obtient bien la j-ième colonne de Mat(f + g)
Exemple 3.5.4. On considère les applications linéaires f : R2 → R2 et g : R2 → R2 définies par
f (x, y) = (x + y, y) et g(x, y) = (−x + y, x) pour tout (x, y) ∈ R2 . On a alors
1 1 −1 1
   
Mat(f ) = Mat(g) = .
0 1 1 0
Pour tout (x, y) ∈ R2 , on a (f + g)(x, y) = (2y, x + y). Par conséquent
0 2
 
Mat(f + g) = .
1 1
Enfin
1 1 1 0 2
     
−1
Mat(f ) + Mat(g) = + =
0 1 1 0 1 1
ce qui était prédit par la proposition.
62 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES

3.5.2 Multiplication par un réel


Pour f ∈ L(Rp , Rn ) et ν ∈ R on définit νf par

(νf )(→

u ) = νf (→

u)

pour tout →

u ∈ Rp .
Proposition 3.5.5. On a νf ∈ L(Rp , Rn ).
Démonstration. Pour tous →

u,→

v ∈ Rp et tous λ, µ ∈ R, on a

(νf )(λ→

u + µ→

v ) = νf (λ→

u + µ→

v ) = λνf (→

u ) + µνf (→

v ) = λ(νf )(→

u ) + µ(νf )(→

v ).

Par conséquent νf est linéaire.


On peut également multiplier une matrice par un réel : soit A ∈ Mn,p (R) et ν ∈ R : la matrice
νA ∈ Mn,p (R) est définie par (νA)ij = νaij où A = (aij ).
Proposition 3.5.6. Soient f ∈ L(Rp , Rn ) et ν ∈ R. On note Mat(f ) et Mat(νf ) les matrices
associées à f et νf . Alors
Mat(νf ) = νMat(f ).
Démonstration. On note Mat(f ) = (aij ) et Mat(νf ) = (cij ) Soit 1 ≤ j ≤ p, on a
     
a1j νa1j c1j
νf (ej ) = ν  ...  =  ...  =  ... 
     

anj νanj cnj

Par conséquent pour tout 1 ≤ i ≤ n et tout 1 ≤ j ≤ p, on a cij = νaij . Donc C = νA.


On peut donc effectuer des combinaisons linéaires dans L(Rp , Rn ) et Mn,p (R). On dit que
ces espaces sont des espaces vectoriels. De plus, les opérations dans L(Rp , Rn ) et Mn,p (R) sont
compatibles. On obtient ainsi

L(Rp , Rn ) ≃ Mn,p (R) ≃ Rnp .

3.5.3 Composition d’applications linéaires et produit de matrices


Soit g ∈ L(Rp , Rq ) et f ∈ L(Rq , Rn ). On définit f ◦ g par

(f ◦ g)(→

u ) = f (g(→

u ))

pour tout →

u ∈ Rp .
Proposition 3.5.7. On a f ◦ g ∈ L(Rp , Rn ).
Démonstration. Pour tous →

u,→

v ∈ Rp et tous λ, µ ∈ R, on a

(f ◦ g)(λ→

u + µ→

v ) = f (g(λ→
−u + µ→−v ))
= f (λg( u ) + µg(→

− −
v ))
= λf (g(→

u )) + µf (g(→
−v )))
= λ(f ◦ g)( u ) + µ(f ◦ g)(→

− −
v ).

Donc f ◦ g est linéaire.


3.5. OPÉRATIONS SUR LES MATRICES ET SUR LES APPLICATIONS LINÉAIRES 63

Définition 3.5.8. Soit A = (aij ) ∈ Mn,q (R) et B = (bij ) ∈ Mq,p (R). On définit le produit de A
et B par AB = C = (cij ) ∈ Mn,p (R) par
q
X
cij = ai1 b1j + ai2 b2j + · · · + aiq bqj = ail blj .
l=1

Pour obtenir le coefficient cij dans le produit matriciel


    
a11 a12 · · · a1q b11 b12 · · · b1p c11 c12 ··· c1p
 a21 a22 · · · a2q  b21 b22 · · · b2p   c21 c22 ··· c2p 
 .. .. .. ..   .. .. .. ..  =  .. .. .. .. 
    
 . . . .   . . . .   . . . . 
an1 an2 · · · anq bq1 bq2 · · · bqp cn1 cn2 ··· cnp

on multiplie
 la i-ième ligne de A, c’est à dire (ai1 , ai2 , . . . , aiq ) par la j-ième colonne de B, c’est
b1j
b2j 
à dire  . .
 
 .. 
bqj
Exemple 3.5.9. Pour
0
 
−1
1 3 5
 
A= B= 2 −1
2 4 6
0 0
on obtient
5
 
−3
AB = .
6 −4
Proposition 3.5.10. Soient g ∈ L(Rp , Rq ) et f ∈ L(Rq , Rn ). On note Mat(f ), Mat(g) et Mat(f ◦
g) les matrices associées à f , g et f ◦ g. Alors

Mat(f ◦ g) = Mat(f )Mat(g).



− →

Démonstration. On note (→ −
e1 , . . . , →

ep ) la base canonique de Rp et ( e′1 , . . . , e′q ) la base canonique
de Rq . On a, pour tout 1 ≤ j ≤ p
     
b1j a11 a1q
b2j  →
− →
− a21  a2q 
(f ◦ g)(→

ej ) = f  .  = b1j f ( e′1 ) + · · · + bqj f ( e′q ) = b1j  .  + · · · + bqj  .  .
     
 ..   ..   .. 
bqj ap1 apq

Ainsi
b1j a11 + · · · + bqj a1q
 
b1j a21 + · · · + bqj a2q 
(f ◦ g)(→

ej ) =  ..
 
.

 
b1j ap1 + · · · + bqj apq
et le coefficient de la j-ième ligne est bien le coefficient annoncé.
Exemple 3.5.11. Soit s la symétrie d’axe (Oy) dans R2 . La matrice de s dans la base canonique
est
−1 0
 
A=
0 1
64 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES

On a
0 0 1 0
    
−1 −1
A2 = = .
0 1 0 1 0 1
Ce qui correspond au fait que s ◦ s = id.

Proposition 3.5.12. Les opérations sur les application linéaires et les matrices vérifient les
propriétés suivantes. On suppose les dimensions choisies pour que les formules aient un sens.
1. (Associativité) (f ◦ g) ◦ h = f ◦ (g ◦ h) ↔ (AB)C = A(BC).
2. (Distributivité par rapport à l’addition)

(f + g) ◦ h = f ◦ h + g ◦ h ↔ (A + B)C = AC + BC

f ◦ (g + h) = f ◦ g + f ◦ h ↔ A(B + C) = AB + AC.

Démonstration. L’associativité et la distributivité découlent directement de la définition de la


composition de deux applications. Les énoncé pour les matrices se déduisent des résultats pour
les applications linéaires.

Exemple 3.5.13.
2  2
1 1 1 0 0 1
  
= +
0 2 0 2 0 0
2  2
1 0 1 0 0 1 0 1 1 0 0 1
      
= + + +
0 2 0 2 0 0 0 0 0 2 0 0
1 0 0 1 0 1 0 0
       
= + + +
0 4 0 0 0 0 0 0
1 2
 
=
0 4

On remarque sur cet exemple que le produit AB n’est pas toujours égal au produit BA et qu’on
peut avoir AB = 0 même si A ̸= 0 et B ̸= 0...

3.6 Endomorphismes
Définition 3.6.1. Si p = n, une application linéaire f : Rp → Rp est appelée un endomorphisme.
On note End(Rp ) l’ensemble des endomorphismes de Rp et Mp (R) l’ensemble des matrices carrées
à p lignes et p colonnes.

Remarquons qu’on peut toujours multiplier deux matrices carrées de taille p et qu’on peut
toujours composer deux endomorphismes de Rp .
L’identité, notée id, est un endomorphisme très particulier de Rp défini par id(→

u) = →

u pour


tout u ∈ R . Sa matrice associée (dans la base canonique) est
p

1 0 ... 0
 
0 1 . . . 0
Id =  . . .. 
 
 .. .. .
0 0 ... 1

Proposition 3.6.2.
3.7. APPLICATIONS LINÉAIRES INJECTIVES, SURJECTIVES ET BIJECTIVES 65

1. Pour tout f ∈ End(Rp ), on a f ◦ id = id ◦ f = f .


2. Pour tout M ∈ Mp (R), on a M · Id = Id · M = M .
Démonstration. Soit → −
u ∈ Rp , on a f (id(→

u )) = f (→

u ) et id(f (→

u )) = f (→

u ).
L’énoncé sur les matrices découle directement du lien entre le composition des applications
linéaires et le produit de matrices.
Définition 3.6.3. On dit que qu’une matrice carrée A est nilpotente s’il existe k ∈ N∗ tel que
Ak = 0.
Exemple 3.6.4.
0 1 0 0 0 1
   
0 0
 
0 0 1 0 0 0
1 0
0 0 0 0 0 0

3.7 Applications linéaires injectives, surjectives et bijec-


tives
Rappel 3.7.1. Soit f : X → Y une application. Alors
1. y est l’image de x par f si f (x) = y
2. x est un antécédent de y par f si f (x) = y
3. f est injective si tout y ∈ Y admet au plus un antécédent par f
4. f est surjective si tout y ∈ Y a au moins un antécédent
5. f est bijective si elle est injective et surjective c’est à dire si tout élément de Y admet
exactement un antécédent. Une application bijective f : X → Y admet une application
réciproque f −1 : Y → X définie par f −1 (y) = x où x est l’unique élément de X tel que
f (x) = y.
Rappel 3.7.2. Soit f : X → Y . Alors f est bijective si et seulement s’il existe g : Y → X tel
que g(f (x)) = x pour tout x ∈ X et f (g(y)) = y pour tout y ∈ Y .
Proposition 3.7.3. Si f est linéaire et bijective alors f −1 est linéaire.
Démonstration. Soient →
−u et →−
v dans Rn , λ et µ des réels. Soit →−w = λf −1 (→

u ) + µf −1 (→

v ). On a,
par linéarité de f
f (→

w ) = λf (f −1 (→

u )) + λf (f −1 (→

v )) = λ→
−u + µ→

v.
Par définition de f −1 on a donc

f −1 (λ→

u + µ→

v)=→

w = λf −1 (→

u ) + µf −1 (→

v)

et f −1 est bien linéaire.


Lemme 3.7.4 (Caractérisation des applications linéaires injectives). Soit f : Rp → Rn linéaire.

− →

Alors f est injective si et seulement {→

x ∈ Rp , f (→

x ) = 0 } = { 0 }.

− →
− →

Démonstration. Si f est injective, 0 a un unique antécédent par f et comme f ( 0 ) = 0 cet


antécédent est forcément 0 .

− →

Réciproquement supposons que 0 soit le seul antécédent de 0 . Soit →−
y ∈ Rn , on suppose


que f (−
→) = f (−
x 1
→) = →
x 2

y . Par linéarité, on obtient f (−
→−−
x 1
→) = 0 .
x 2 Par hypothèse, on obtient

→ −
→ →
− −
→ −
→ →

x1 − x2 = 0 . Et donc x1 = x2 . Donc y a un unique antécédent et f est injective.
66 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES

Théorème 3.7.5. Soit f : Rp → Rn linéaire. Soit A ∈ Mn,p (R) la matrice associée dans les
bases canoniques. On note r le rang de A.
1. Si f est injective alors p ≤ n et r = p.
2. Si f est surjective alors p ≥ n et r = n.
3. Si f est bijective alors p = n = r.

Définition 3.7.6. Une application linéaire bijective est appelée un isomorphisme.

Démonstration.


1. Le système d’équation f (→−
u ) = 0 est un système homogène à p inconnues et n équation.
Comme ce système est homogène, il est compatible. Si p > n ou p > r, il y a des inconnues
secondaires et comme le système est compatible, il a une infinité de solution. La fonction f
ne peut donc pas être injective.


2. On considère le système f (→
−u ) = 0 . Si p < n ou r < n, il y a des équations de compatibi-
lités après échelonnement du système. On considère la première ligne de compatibilité qui
apparaît. On note i0 son indice et on considère le système f (→−u) = −e→
i0 . On échelonne ce
nouveau système. La ligne de compatibilité i0 devient 0 = 1. Le système n’a pas de solution
et f n’est pas surjective.
3. Si f est bijective, elle est injective et surjective. Les points précédents montrent donc que
n = p.

Théorème 3.7.7. Soit f ∈ End(Rp ). On note A ∈ Mp (R) la matrice associée dans la base
canonique. Alors les affirmations suivantes sont équivalentes
1. f est injective
2. f est surjective
3. f est bijective
4. A est de rang p.

Démonstration. On note r le rang de A. Alors, si r = p, le système f (→ −x) = → −


y a toujours
exactement une solution (voir le tableau de description du nombre de solutions en fonction du
rang d’un système pour p = n). Dans ce cas f est injective, surjective et bijective.
On suppose maintenant r < p, alors, par le théorème précédent f n’est ni injective, ni surjec-
tive, ni bijective.

3.8 Matrices inversibles


3.8.1 Definition
Définition 3.8.1. Une matrice carrée A est inversible si c’est la matrice d’un isomorphisme f .
Dans ce cas on note A−1 la matrice associée à f −1 . On dit que A−1 est la matrice inverse de A.

Proposition 3.8.2. Soit A ∈ Mp (R) inversible. Alors


1. pour tout Y ∈ Rp , l’équation AX = Y admet une unique solution
2. pour X et Y dans Rp , AX = Y si et seulement si X = A−1 Y
3. A · A−1 = A−1 · A = Id.
3.8. MATRICES INVERSIBLES 67

Démonstration. Soit f l’application linéaire associée à A. On a f ◦ f −1 = f −1 ◦ f = id. On en


déduit que
Mat(f ) · Mat(f −1 ) = Mat(f −1 ) · Mat(f ) = Mat(id)
et donc A · A−1 = A−1 · A = Id.
L’équation matricielle AX = Y est équivalente à l’équation f (→

x) = →

y . Elle admet donc un
unique solution car f est bijective.
On a AX = Y ⇒ A−1 AX = A−1 Y ⇒ X = A−1 Y . Réciproquement X = A−1 Y ⇒ AX =
AA−1 Y ⇒ AX = Y .
Proposition 3.8.3. La matrice A ∈ Mp (R) est inversible si et seulement si son rang est p.
Démonstration. C’est une application directe du théorème 3.7.7.
Proposition 3.8.4. Une matrice A ∈ Mp (R) est inversible si et seulement s’il existe B ∈ Mp (R)
telle que AB = BA = Id
Démonstration. Si A est inversible, B = A−1 convient. Réciproquement, on considère l’applica-
tion linéaire g associée à B. On a alors g ◦ f = f ◦ g = id. Donc f est un isomorphisme et A est
inversible.
Remarque 3.8.5. Le théorème 3.7.7 nous permet même de ne vérifier qu’une des conditions
ci-dessus (exercice).

3.8.2 Calcul de l’inverse d’une matrice inversible


Principe général : écrire les solutions de AX = Y en fonction des coordonnées de Y (pour
obtenir X = A−1 Y ). Il s’agit donc de résoudre un système (avec les coordonnées de Y comme
paramètres).
Exemple 3.8.6. On considère
1 1 0
 

A = 1 2 1 .
2 3 2
On vérifie que A est inversible en calculant son rang (en effectuant des opérations sur les lignes)

1 1 0 1 1 0
   
1 2 1 ↔L2 →L2 −L1 ,L3 →L3 −2L1 0 1 1
2 3 2 0 1 2

1 1 0
 

↔L3 →L3 −L2 0 1 1


0 0 1
donc la matrice est de rang 3 et est donc inversible. Calculons son inverse. On considère le système
  
x 1 + x 2 = y 1
 x1 + x2 = y1
 x1 + x2 = y1

x1 + 2x2 + x3 = y2 ⇔ x2 + x3 = y2 − y1 ⇔ x2 + x3 = y2 − y1
2x1 + 3x2 + 2x3 = y3 x2 + 2x3 = y3 − 2y1 x3 = y3 − y2 − y1

 
 

 
x 1 + x 2 = y 1
 x1 = y1 − 2y2 + y3

⇔ x2 = −y3 + 2y2 ⇔ x2 = 2y2 − y3
x3 = y3 − y2 − y1 x3 = −y1 − y2 + y3

 

68 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES

On obtient donc
1 1
 
−2
A−1 = 0 2 −1
−1 −1 1
Présentation matricielle du même calcul

1 1 0 1 0 0 1 1 0 1 0 0 1 1 0 1 0 0
     
 1 2 1 0 1 0 ↔ 0 1 1 −1 1 0 ↔ 0 1 1 −1 1 0 
2 3 2 0 0 1 0 1 2 −2 0 1 0 0 1 −1 −1 1

1 1 0 1 0 0 1 0 0 1 −2 1
   

↔ 0 1 0 0 2 −1  ↔  0 1 0 0 2 −1 
0 0 1 −1 −1 1 0 0 1 −1 −1 1

3.8.3 Cas particulier des matrices 2 × 2


Théorème 3.8.7. Soit  
a c
A= .
b d

Alors A est inversible si et seulement si det(A) = ad − bc ̸= 0. Dans ce cas

1
 
d −c
A−1 = .
det(A) −b a

Démonstration. On suppose det(A) = 0. Si tous les coefficients de A sont nuls, alors A n’est pas
inversible. On suppose qu’un des coefficients de A n’est pas nul. On a

0
      
a c d ad − bc
= =
b d −b bd − bd 0

et
0
      
a c c ac − ac
= =
b d −a bc − ad 0
On obtient donc un vecteur non nul d’image nulle par A. On en déduit que A n’est pas injective
et donc pas un isomorphisme.
On suppose maintenant que det(A) ̸= 0. On montre alors que

1
 
d −c
B=
det(A) −b a

est bien l’inverse de A. Pour cela on montre que BA = AB = Id. On a

1 1
    
d −c a c ad − bc cd − cd
= = Id
det(A) −b a b d det(A) −ab + ab ad − bc

1 1 ad − bc −ac + ac
    
a c d −c
= = Id
det(A) b d −b a det(A) bd − bd ad − bc
donc A est inversible et A−1 = B.
3.8. MATRICES INVERSIBLES 69

Exemple 3.8.8. La matrice

1 3
 
A=
2 4

a pour déterminant det(A) = −2, elle est donc inversible d’inverse

1 4
 
−3
A−1 = −
2 −2 1

Exemple 3.8.9. La matrice


 
a −b
A=
b a

a pour déterminant det(A) = a2 + b2 . Elle est donc inversible si a et b ne sont pas tous les deux
nuls. Dans ce cas, son inverse est

1
 
a b
A −1
= 2
a + b2 −b a

La matrice A est la matrice de la similitude z 7→ λz avec λ = a + ib (dans la base canonique). La


réciproque de cette similitude est la similitude z 7→ λz . On a

1 1 a − ib a b
= = 2 = 2 −i 2 .
λ a + ib a + b2 a + b2 a + b2

La matrice obtenue pour A−1 est bien la matrice de la similitude associée à λ.


1

Exemple 3.8.10. La matrice associée à la rotation d’angle θ et de centre O (dans la base


canonique) est

cos(θ) − sin(θ)
 
.
sin(θ) cos(θ)

Cette matrice est de déterminant 1. Son inverse est la matrice de la rotation d’angle −θ et de
centre O dans la base canonique

cos(θ) sin(θ)
 
.
− sin(θ) cos(θ)

Théorème 3.8.11. Soit A ∈ M2 (R). Alors det(A) est l’aire orientée du parallélogramme P de
côtés A→

e1 , A→

e2 .

Démonstration. Soit
 
a c
A= .
b d
70 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES



v



u


w

On a → −
u = (a, b), →

v = (c, d) et →−
w est le projeté de →

v sur la droite orthogonale à →

u passant par

−′
l’origine. Cette droite est dirigée par le vecteur u = (−b, a). On a

Aire(P ) = ∥→

u ∥ · ∥→

w ∥.

Or


∥→

p
u ∥ = ∥ u′ ∥ = a2 + b2 .

On note θ l’angle entre les vecteur →



v et →

w . On a

− − →

⟨ u′ , →
v ⟩ = ∥ u′ ∥ · ∥→

v ∥ cos(θ) = ad − bc

et
∥→

w ∥ = ∥→

v ∥| cos(θ)|.

On en déduit
|ad − bc|
∥→

w∥ = √
a2 + b2
et
Aire(P ) = |ad − bc|.

Exemple 3.8.12. Les matrices des isométries sont des matrices déterminant 1.

Le déterminant a à voir avec le jacobien du chapitre sur l’intégration (mais ce n’est pas pour
cette année).
3.9. APPLICATION 1 : ANALYSE ENTRÉE-SORTIE EN ÉCONOMIE 71

3.9 Application 1 : analyse entrée-sortie en économie


Il s’agit d’une modélisation de l’économie d’un pays quand la production et la consommation
sont à l’équilibre. L’économie est divisée en différents secteurs (par exemple : énergie, industrie,
agriculture,...). Le modèle permet de prévoir l’influence des changements dans la production d’un
secteur ou dans la consommation.
Commençons par un exemple simple. On considère deux secteurs : l’énergie et l’industrie. Ces
deux secteurs produisent respectivement de l’énergie et des biens pour la population mais l’indus-
trie a besoin d’énergie pour fonctionner et produire de l’énergie nécessite des équipements fournis
par l’industrie. On note i la production de l’industrie (en millions d’euros) et e la production
d’énergie (en M€). On suppose que la demande de la population correspond à 1000 M€ pour
l’industrie et 780 M€ pour l’énergie. On suppose également que pour produire 1€ de bien on a
besoin de 0,2€ d’énergie et que pour produire 1€ d’énergie, on a besoin de 0,1€ d’équipement.
On obtient alors (
i = 1000 + 0, 1e
e = 780 + 0, 2i
Il s’agit d’un système. Son unique solution est (i, e) = (1100, 1000). En général, on a beaucoup
de secteurs...
Dans le modèle général, on a n secteurs S1 , . . . Sn . On note pj la production du secteur Sj et
cj la consommation de la population pour les biens produit par le secteur Sj . Soit
 
c1
 .. 
C=.
cn

et  
p1
P =  ...  .
 

pn
Les secteurs dépendent les uns des autres : on note aij le réel tel que le secteur Sj consomme aij
€ du secteur Si pour produire 1€ de produit. La matrice (aij ) est appelée tableau entrée sortie
du système. Dans l’exemple précédent :

1000
 
C=
780
 
i
P =
e
0 0, 1
 
A=
0, 2 0
La demande globale est alors
C + AP.
On cherche à produire P tel que
P = C + AP
ou encore P tel que
(Id − A)P = C.
On obtient donc un système à résoudre.
72 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES

Définition 3.9.1. L’économie est dite productive si pour chaque secteur, la production d’1€
nécessite strictement moins d’1€ de dépense dans les autres secteurs, c’est à dire si, pour tout
1 ≤ j ≤ n,
n
X
a1j + · · · + anj = aij < 1.
i=1

Théorème 3.9.2. Si l’économie est productive, alors la matrice Id − A est inversible. Ainsi
l’équation (Id − A)P = C (d’inconnues p1 , . . . , pn ) admet exactement une solution.
Démonstration. On veut montrer que (Id − A)X = 0 implique que X est le vecteur nul. On
conclut alors, par la caractérisation des applications linéaires injectives que l’application linéaire
f associée à Id − A est injective. On considère donc X tel que (Id − A)X = 0. On en déduit que
AX = X. Et donc, pour tout 1 ≤ i ≤ n

x
X n
X
|xi | = aij xj ≤ aij |xj |.
j=1 j=1

En sommant sur i, on obtient


 
n
X n X
X n n
X n
X
|xi | ≤ aij |xj | =  aij  |xj |
i=1 i=1 j=1 j=1 j=1

Si X est non nul, on obtient


n
X n
X
|xi | < |xj |
i=1 j=0

une contradiction. Donc X est le vecteur nul.


Comme f est un endomorphisme, montrer que f est injective suffit à garantir que f est
bijective et que Id − A est inversible.

Remarque 3.9.3. Ce modèle de l’économie est évidemment simpliste. Par exemple, les dépen-
dances entre les secteurs ne sont a priori pas linéaires (mais on peut linéariser).
Chapitre 4

Sous-espaces vectoriels, bases et


dimension

On veut généraliser la notion de droite (sous-espace vectoriel de dimension 1) et de plan


(sous-espace vectoriel de dimension 2).

4.1 Sous-espaces vectoriels de Rn


Définition 4.1.1. Un ensemble E ⊂ Rn non vide est un sous-espace vectoriel de Rn si toute
combinaison linéaire d’éléments de E reste de E c’est à dire si pour tous →

u,→

v ∈ E et pour tous

− →

λ, µ ∈ R, on a λ u + µ v ∈ E.

Remarque 4.1.2. L’ensemble E ⊂ Rn est un sous-espace vectoriel si et seulement si les deux


conditions suivantes sont vérifiées
— pour tous → −u,→−
v ∈E ,→ −u +→ −
v ∈E
— pour tous u ∈ E et λ ∈ R, λ→

− −u ∈ E.
La preuve de cette équivalence est laissée en exercice.

Exemple 4.1.3. L’ensemble des solutions d’un système linéaire homogène à p inconnues et n
équations est un sous-espace vectoriel de Rp . En effet, si b = (b1 , . . . , bp ) et b′ = (b′1 , . . . , b′p ) sont
solution du système
a11 x1 + a12 x2 + · · · + a1p xp = 0



a21 x1 + a22 x2 + · · · + a2p xp = 0


..


 .
an1 x1 + an2 x2 + · · · + anp xp = 0

alors, pour tous λ, µ ∈ R

a11 (λb1 + µb′1 ) + a12 (λb2 + µb′2 ) + · · · + a1p (λbp + µb′p ) = 0





a21 (λb1 + µb′1 ) + a22 (λb2 + µb′2 ) + · · · + a2p (λbp + µb′p ) = 0


..


 .
an1 (λb1 + µb1 ) + an2 (λb2 + µb′2 ) + · · · + anp (λbp + µb′p ) = 0

 ′

donc λb + µb′ est solution. Donc l’ensemble des solutions est un sous-espace vectoriel de Rp .

73
74 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION

Définition 4.1.4. Soit f ∈ L(Rp , Rn ). Soit A la matrice de f dans les bases canoniques.
1. Le noyau de f est l’ensemble


ker(f ) = {→

u ∈ Rp , f (→

u) = 0}

c’est également l’ensemble des solutions du système AX = 0. On parle aussi de noyau de la


matrice A.
2. L’image de f est l’ensemble

im(f ) = {→

v ∈ Rn |∃→

u ∈ Rp , f (→

u) =→

v }.

C’est également l’ensemble des Y tels que le système AX = Y admette au moins une
solution. On parle aussi d’image de A.

Proposition 4.1.5. Soit f ∈ L(Rp , Rn ) alors ker(f ) est un sous-espace vectoriel de Rp et im(f )
est un sous-espace vectoriel de Rn .

Démonstration.
1. Le résultat sur le noyau de f est l’équivalent linéaire du résultat sur les solutions d’un
système linéaire homogène. En voici une nouvelle preuve, orientée applications linéaires.
Soient →

u,→−v ∈ ker(f ) et λ, µ ∈ R. On a alors


f (λ→

u + µ→

v ) = λf (→

u ) + µf (→

v)= 0.

Donc λ→−u + µ→
−v ∈ ker(f ) et ker(f ) est un sous-espace vectoriel de Rp .
2. Soient u , v ∈ im(f ) et λ, µ ∈ R. Il existe →

− →
− −
x et →

y tels que f (→

x)=→ −
u et f (→

y)=→

v . Alors

f (λ→

x + µ→

y ) = λf (→

x ) + µf (→

y ) = λ→

u + µ→

v

donc λ→

u + µ→

v ∈ im(f ) et im(f ) est un sous-espace vectoriel de Rn .

Définition 4.1.6. Soient →



v1 , . . . , →

vp des vecteurs de Rn . L’espace vectoriel engendré par →

v1 , . . . , →

vp
est
Vect(→−
v1 , . . . , →

vp ) = {λ1 →

v1 + · · · + λ p →

vp , λ1 , . . . , λp ∈ R}.

Exemple 4.1.7. La droite D→ →



u est l’espace vectoriel engendré par u . Le plan P→
− − v est l’espace
u ,→


− →

vectoriel engendré par u et v .

Proposition 4.1.8. Soient →



v1 , . . . , →

vp des vecteurs de Rn . Alors Vect(→

v1 , . . . , →

vp ) est un sous-
n
espace vectoriel de R .

Exemple 4.1.9. Les droites et les plans vectoriels de Rn sont des sous-espace vectoriels de Rn .

Démonstration. Soient →

u = λ1 →

v1 + · · · + λ p →

vp et →

v = µ1 →

v1 + · · · + µp →

vp . Soient λ, µ ∈ R. On a

λ→

u + µ→

v = (λλ1 + µµ1 )→

v1 + · · · + (λλp + µµp )→

vp ∈ Vect(→

v1 , . . . , →

vp )

et par conséquent Vect(→



v1 , . . . , →

vp ) est un sous-espace vectoriel de Rn .
4.2. BASES ET COORDONNÉES 75

Exemple 4.1.10. On note →



e1 , . . . , →

ep la base canonique de Rp . Alors

im(f ) = Vect(f (→

e1 ), . . . , f (→

ep )).

En effet, si →

u = λ1 f (→

e1 ) + · · · + λp f (→

ep ). Alors →

u = f (λ1 →

e1 + · · · + λ p →

ep ) et →

u ∈ im(f ). Donc

Vect(f (→

e1 ), . . . , f (→

ep )) ⊂ im(f ).

Réciproquement, si → −u ∈ im(f ) alors → −u = f (λ1 →



e1 + · · · + λ p →

ep ) donc →

u = λ1 f (→

e1 ) + · · · + λp f (→

ep )

− →
− →

et u ∈ Vect(f ( e1 ), . . . , f ( ep )). On en déduit que

im(f ) ⊂ Vect(f (→

e1 ), . . . , f (→

ep ))

et donc
im(f ) = Vect(f (→

e1 ), . . . , f (→

ep )).
Définition 4.1.11. Soient E un sous-espace vectoriel de Rp et F un sous espace vectoriel de Rn .
Une application f : E → F est linéaire si pour tous →

u,→

v ∈ E et tous λ, µ ∈ R, on a

f (λ→

u + µ→

v ) = λf (→

u ) + µf (→

v ).

4.2 Bases et coordonnées


La base canonique de Rn est →

e1 , . . . , −
e→
n . Elle a pour propriété fondamentale que tout élément


v ∈ R s’écrit de manière unique
n



v = λ1 →

e1 + · · · + λ n −
e→
n

où λ1 , . . . , λn ∈ R.
Définition 4.2.1. Soit E un sous-espace vectoriel de Rn . Soit B = (→

v1 , . . . , →

vp ) où →

v1 , . . . , →

vp ∈ E.


On dit que B est une base de E si tout élément v ∈ E s’écrit de manière unique comme
combinaison linéaire d’éléments de E : c’est à dire que pour tout → −v ∈ E il existe un unique
p-uplet (λ1 , . . . , λp ) ∈ R tel que
p



v = λ1 →

v1 + · · · + λp →

vp .

Alors (λ1 , . . . , λp ) sont les coordonnées de →



v dans la base B. On note


v = (λ1 , . . . , λp )B .

Exemple 4.2.2.
1. Soit →
−u ̸= 0. Alors (→
−u ) est une base de la droite D→ →

u . Tout multiple non nul de u est


→ −→
également une base de D→ u . Par exemple (2u) ou (−u) sont deux autres bases.

2. Soient u et v non colinéaires. Alors (→



− →
− −
u,→−v ) est une base de P→
− v . Il reste à montrer
u ,→

l’unicité de la décomposition : si λ u + µ v = λ′ →

− →
− −u + µ′ →

v alors


(λ − λ′ )→

u + (µ − µ′ )→

v = 0.

Comme → −
u et →−
v ne sont pas colinéaires, on obtient que λ − λ′ = 0 et µ − µ′ = 0 et donc
l’unicité de la décomposition.
La condition pour être une base contient deux conditions : l’unicité et l’existence de la dé-
composition. On peut séparer ces conditions pour obtenir deux définitions.
76 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION

Définition 4.2.3. Soit E un sous-espace vectoriel de Rn . Soit F = (→ −


v1 , . . . , →

vp ) où →

v1 , . . . , →

vp ∈ E.
On dit que F est
— une famille libre (ou que les éléments de F sont indépendants) si toute combinaison linéaire


nulle est triviale : c’est à dire que si λ1 →

v 1 + · · · + λp →

vp = 0 alors λ1 = · · · = λp = 0, une
famille qui n’est pas libre est dite liée ;
— une famille génératrice de E si tout élément de E s’écrit comme combinaison linéaire
d’éléments de F.
Une famille libre et génératrice est une base.
Exemple 4.2.4. Soit (→ −
e1 , →

e2 ) la base canonique de R2 . On pose →

u =→−
e1 + →−
e2 et →

v =→−
e1 − →

e2 .

− →
− →

Alors ( u , v ) est également une base de R . En effet soit w = (x, y) ∈ R . On cherche λ, µ ∈ R
2 2

tels que λ→−u + µ→ −v = →−


w , c’est à dire tels que λ(1, 1) + µ(1, −1) = (x, y). On obtient donc le
système (
λ+µ=x
(S)
λ − µ = y.
On a (
λ= x+y
(S) ⇔ 2
µ= x−y
2 .

Le système a donc exactement une solution et B = (→



u,→

v ) est une base de R2 . On a de plus

x+y x−y
 


w = ,
2 2 B

Plus généralement tout couple de vecteurs non colinéaires de R2 est une base de R2 (exercice,
attention ce n’est pas complètement immédiat).
Soit F = (→

v1 , . . . , →

vp ) une famille de vecteurs Rn . On définit alors l’application LF : Rp → Rn
par
LF (x1 . . . , xp ) = x1 →

v1 + · · · + x p →

vp .
Proposition 4.2.5.
1. L’application LF est linéaire.
2. L’application LF est injective si et seulement si la famille est libre. Dans ce cas p ≤ n.
3. L’image de L est l’espace vectoriel engendré par (→
F

v ,...,→−
v ).1 p
4. Si (→

v1 , . . . , →

vp ) est une base de E alors LF : Rp → E est un isomorphisme.
Démonstration.
1. Soient →

x = (x1 , . . . , xp ) et →

y = (y1 , . . . , yp ) ∈ Rp et λ, µ ∈ R. On a

L(λ→

x + µ→

y ) = (λx1 + µy1 )→ −
v1 + · · · + (λxp + µyp )→ −
vp
= λ(x1 →

v1 + · · · + x p →

vp ) + µ(y1 →

v 1 + · · · + yp →

vp )

− →

= λL( x ) + µL( y )

Donc L est linéaire.


2. Découle directement de la définition de famille libre.
3. Découle de la définition d’espace vectoriel engendré.
4. Découle de la définition de base.
4.3. DIMENSION D’UN SOUS-ESPACE VECTORIEL ET THÉORÈME DU RANG 77

Proposition 4.2.6. Tout sous-espace vectoriel non nul de Rn admet une base. Le nombre de
vecteurs de cette base est majoré par n.
Idée de la preuve. On choisit un vecteur non nul → −
v1 de E. Si E = Vect(→ −
v1 ), on a trouvé une base.

− →
− →
− →

Sinon, il existe v2 ∈ E \ Vect( v1 ). Si E = Vect( v1 , v2 ), on a trouvé une base. Sinon, la famille
(→

v ,→
1

v ) est libre par construction et on itère le procédé pour obtenir une famille libre (→
2

v ,...,→
−v )
1 p
engendrant E. Le procédé s’arrête en au plus n étapes (car une famille libre a pour cardinal au
plus n).

4.3 Dimension d’un sous-espace vectoriel et théorème du


rang
Théorème 4.3.1. Soit E un sous-espace vectoriel de Rn . Toutes les bases de E ont le même
nombre de vecteurs (on parle de cardinal de la base). Ce nombre est appelé la dimension de E et
est notée dim(E). On a dim(E) ≤ n.
Démonstration. On considère B et B ′ deux bases de E (on sait qu’on a toujours au moins une
base par la section précédente et que tout base a au plus n éléments). On note p et p′ leurs

cardinaux respectifs. Alors LB : Rp → E est un isomorphisme et LB′ : Rp → E est également un

isomorphisme. On en déduit que L−1B′ ◦LB : R → R est un isomorphisme et donc que p = p .
p p ′

Exemple 4.3.2.
1. Rn est de dimension n ;
2. une droite est de dimension 1 ;
3. un plan est de dimension 2.
Proposition 4.3.3. La dimension de l’espace vectoriel des solutions d’un système linéaire ho-
mogène à p inconnues et n lignes est le nombre d’inconnues secondaires du système. Une base
de ce sous-espace vectoriel est composée des solutions du système pour lesquelles une inconnue
secondaire est fixée à 1 et les autres à 0.
Exemple 4.3.4. L’ensemble des solutions de l’équation x + y + z = 0 dans R3 est un sous-espace
vectoriel de dimension 2. C’est cohérent avec ce qui précède : c’est l’équation d’un plan !
Démonstration. On considère le système
a11 x1 + a12 x2 + · · · + a1p xp = 0



a21 x1 + a22 x2 + · · · + a2p xp = 0


..


 .
an1 x1 + an2 x2 + · · · + anp xp = 0

et on le réduit. On note j1 , . . . , jm les indices des inconnues secondaires et i1 , . . . ir les indices des
inconnues principales. Le système réduit est de la forme

xi1 = bi1 j1 xj1 + · · · + bi1 jm xjm

..


.





x = b x + · · · + b

x
ir ir j 1 j 1 ir j m j m

 0=0
 ..


.




0 = 0.

78 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION

L’espace des solutions est paramétré par les inconnues secondaires (de façon unique). Intuitive-
ment, on obtient que la dimension est le nombre de paramètres indépendants. La fin de la preuve
−→ −→
démontre cette intuition. Une base de l’espace des solutions est B = (fj1 , . . . , fjm ) où
−→ −→
fjk = ejk + bi1 jk −
e→ −

i1 + · · · + bir jk eir .

−→
En effet, l’élément fjk correspond à la solution de paramètre xjk = 1 et xjl = 0 pour l ̸= k et la
solution de paramètres xj1 , . . . , xjm est la combinaison linéaire
−→ −→
xj1 fj1 + · · · + xjm fjm .

La famille B est donc génératrice. Il nous reste à montrer qu’elle est libre. Pour cela, on considère
une combinaison linéaire
−→ −→ → −
λj1 fj1 + · · · + λjm fjm = 0 .
−→
On considère la jk -ième coordonnée. Cette coordonnée est non nulle seulement pour fjk . On en
déduit de λjk = 0 pour tout cas. Donc tous les coefficients de la combinaison linéaire sont nuls.
Donc la famille est libre de B est une base de l’ensemble des solutions.
Proposition 4.3.5. Soit A ∈ Mn,p (R). Alors la dimension de l’image de A est le rang de la
matrice A. Une base de l’image est donnée par les colonnes de A donc les indices correspondent
aux indices des inconnues principales du système associé à A.
Démonstration. On considère le système associé

a11 x1 + a12 x2 + · · · + a1p xp = 0





a21 x1 + a22 x2 + · · · + a2p xp = 0


..


 .
an1 x1 + an2 x2 + · · · + anp xp = 0

et on le réduit. Les solutions sont paramétrées de façon unique par les inconnues secondaires.
On note (comme dans la preuve précédente) j1 , . . . jm les indices des inconnues secondaires et
i1 , . . . ir les indices des inconnues principales. On note → −
v1 , . . . , →

vp les colonnes de A. On considère
′ −→ −

B = (vi1 . . . vir ). On veut montrer que B est une base de l’image de A.

On commence par montrer que cette famille est libre. Pour cela, on considère une combinaison
linéaire
xi1 −
v→ → →
− −
i1 + · · · + xir vir = 0 .

On complète la famille des (x ) par x = 0 pour obtenir un vecteur →


i jk
−x ∈ Rp . Le vecteur →

x est
solution du système car


x1 →

v 1 + · · · + xp →

vp = 0 .
Cette solution correspond aux paramètres xj1 = · · · = xjm = 0 pour les inconnues secondaires.
C’est donc la solution nulle. Donc la famille B ′ est libre.
Montrons maintenant que la famille B ′ est génératrice. Il suffit de montrer que − v→ −→
j 1 , . . . , vj m
sont dans l’espace vectoriel engendré par B. On considère la solution du système de paramètres
xjk = 1 et xjl = 0 pour l ̸= k. Cette solution s’écrit (voir la preuve de la proposition précédente)

e→ −
→ −

jk + bi1 jk ei1 + · · · + bir jk eir .

Par conséquent

v→ −
→ → →
− −
jk + bi1 jk vi1 + · · · + bir jk vir = 0
4.4. CONSÉQUENCES SUR LES FAMILLES LIBRES ET GÉNÉRATRICES 79

et −
v→ −
→ −

jk ∈ Vect(vi1 , . . . , vir ). Par conséquent (on écrit juste que le vecteur précédent est solution du
système)
im(A) = Vect(→−
v1 , . . . , →

vp ) = Vect(−
v→ −

i1 , . . . , vir ).

Donc B ′ est génératrice, c’est donc une base et la dimension de l’image de A est bien le rang de
A.

Théorème 4.3.6 (Théorème du rang). Soit f ∈ L(Rp , Rn ) alors

dim(ker(f )) + dim(im(f )) = p.

Ce théorème s’appelle le théorème de rang car dim(im(f ) est le rang de f (par le théorème
précédent). C’est un théorème fondamental d’algèbre linéaire.

Démonstration. On considère la matrice A associée à f dans les bases canoniques et le système


homogène associé. On réduit ce système. On note r le nombre d’inconnues principales (c’est le
rang) et m le nombre d’inconnues secondaires. On a montré que dim(ker(f )) = m et dim(im(f )) =
r. Il y a au total p inconnues donc

dim(ker(f )) + dim(im(f )) = p.

4.4 Conséquences sur les familles libres et génératrices


Théorème 4.4.1. Soit E un espace vectoriel de dimension ≥ 1. Soit F une famille génératrice
de E alors il existe une base B de E contenue dans F. Autrement dit, de toute famille génératrice,
on peut extraire une base.

Démonstration. On écrit F = (→ −
v1 , . . . , →

vp ). On considère la matrice A = (→

v1 | . . . |→

vp ). L’espace
vectoriel E est l’image de A. Pour obtenir une base de l’image, on échelonne la matrice et on garde
les vecteurs dont l’indice correspond à l’indice d’une inconnue principale (voir la démonstration
de la proposition 4.3.5).

Théorème 4.4.2. Soit E un espace vectoriel de dimension ≥ 1. Soit F une famille libre de E
alors il existe une base B de E contenant dans F. Autrement dit, on peut compléter toute famille
libre en une base.

Idée de preuve. On reprend la preuve de l’existence d’une base mais en partant de la famille libre
F.

Corollaire 4.4.3. Soit E un sous-espace vectoriel de Rn . Soit F une famille d’éléments de E.


Alors
1. si F est libre, on a card(F) ≤ dim(E) ;
2. si F est génératrice, on a card(F) ≥ dim(E) ;
3. si F est libre et card(F) = dim(E) alors F est une base ;
4. si F est génératrice et card(F) = dim(E) alors F est une base.

Démonstration. On rappelle que toutes les bases de E ont pour cardinal la dimension de E.
1. On peut compléter une famille libre en une base, une famille libre a donc moins d’éléments
qu’une base.
80 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION

2. On peut extraire une base de toute famille génératrice, une famille génératrice a donc plus
d’éléments qu’une base.
3. On peut compléter une famille libre en une base. Si cette famille a le cardinal de toute base,
c’est que c’est déjà une base.
4. On peut extraire une base d’une famille génératrice. Si cette famille a le cardinal de toute
base, c’est que c’est déjà une base.

Corollaire 4.4.4. Soient E et F deux sous-espaces vectoriels de Rn . On suppose F ⊂ E. Alors


1. dim(F ) ≤ dim(E) ;
2. si dim(F ) = dim(E) alors F = E.

Démonstration. On prend une base de F , c’est une famille libre de E. On a donc dim(F ) ≤
dim(E). Si dim(F ) = dim(E), on a donc une famille libre de cardinal dim(E) c’est donc une base
de E. La famille est donc génératrice de E et F = E.

4.5 Détermination pratique d’une dimension ou d’une base


On voudrait déterminer la dimension de E = Vect(→ −
v1 , . . . , →

vp ). Pour cela, on considère la

− →

matrice A = ( v1 | . . . |vp ). L’espace vectoriel E est l’image de A. Sa dimension est donc le rang
de E. On déterminer la dimension, on échelonne et on compte les inconnues principales. Pour
déterminer une base, on garde les vecteurs dont l’indice correspond à une inconnue principale.

Exemple 4.5.1. On voudrait déterminer la dimension et une base du sous-espace vectoriel de


R4 engendré par les vecteurs (1, 1, 0, 1), (1, 2, 1, 0) et (0, 1, 1, −1). On considère la matrice

1 1 0
 
1 2 1 
A= 0 1 1 

1 0 −1

et on échelonne
1 1 0 1 1 0 1 1 0
     
1 2 1 0 1 1 0 1 1
↔ ↔
0 1 1 0 1 1 0 0 0
 

1 0 −1 0 −1 −1 0 0 0
On a deux inconnues principales (d’indices 1 et 2). On obtient donc un espace vectoriel de di-
mension 2 et de base (1, 1, 0, 1), (1, 2, 1, 0).

Même situation, autre problème : on voudrait déterminer un système d’équations décrivant


l’image d’une matrice/d’une application linéaire/d’un sous-espace vectoriel engendré par des vec-
teurs donnés. Notons → −
v1 , . . . , →

vp des vecteurs de Rn engendrant l’espace à étudier E. Alors →

y ∈E
si et seulement s’il existe (λ1 , . . . , λp ) ∈ R tel que
p

λ1 →

v1 + · · · + λp →

vp = →

y.

On a donc →−
y ∈ E si et seulement si le système associé à λ1 →

v1 + · · · + λ p →

vp = →

y est compatible.
Les équations de compatibilité du système fournissent la description de E cherchée.
4.5. DÉTERMINATION PRATIQUE D’UNE DIMENSION OU D’UNE BASE 81

Exemple 4.5.2. On reprend la matrice


1 1 0
 
1 2 1
A=
0
.
1 1
1 0 −1

On note (y1 , y2 , y3 , y4 ) les coordonnées dans R4 . Pour obtenir un système décrivant l’image de A,
on cherche les équations de compatibilité du système augmenté
1 1 0
 
y1
 1 2 1 y2 .
 0 1 1

y3 
1 0 −1 y4
Pour cela, on échelonne le système
1 1 0 1 1 0 1 1 0
     
y1 y1 y1
 1 2 1 y2 
  0 1 1 −y1 + y2   O 1 1 −y1 + y2 
 0 1 1 ↔  0 1
↔
1  0 0 0 y1 − y2 + y3 
 
y3  y3 
1 0 −1 y4 0 −1 −1 −y1 + y4 0 0 0 −2y1 + y2 + y4
L’espace E est donc décrit par le système d’équations
(
y1 − y2 + y3 = 0
−2y1 + y2 + y4 = 0

Autre situation, on voudrait déterminer une base du noyau d’une application linéaire (ou des
solutions d’un système linéaire homogène). Pour cela, on échelonne le système linéaire homogène
associé. On note j1 , . . . , jm les indices des inconnues secondaires. Pour chaque indice jl d’une
inconnue secondaire, on regarde la solution paramétrée par xjl = 1 et xjk = 0 pour k ̸= l. On
obtient bien une base (voir proposition 4.3.3).
Exemple 4.5.3.
On cherche une base de l’ensemble des solutions du système
(
x+y−z+t+u=0
2x + y + 2z − t + u = 0

On résout le système
( ( (
x+y−z+t+u=0 x+y−z+t+u=0 x + 3z − 2t = 0
⇔ ⇔
2x + y + 2z − t + u = 0 −y + 4z − 3t − u = 0 −y + 4z − 3t − u = 0
( (
x + 3z − 2t = 0 x = −3z + 2t
⇔ ⇔
y − 4z + 3t + u = 0 y = 4z − 3t − u
Pour z = 1, t = u = 0, on obtient pour solution (−3, 4, 1, 0, 0), pour t = 1, z = u = 0, on obtient
pour solution (2, −3, 0, 1, 0) et pour u = 1, z = t = 0, on obtient pour solution (0, −1, 0, 0, 1). On
obtient donc comme base de l’ensemble des solutions :
((−3, 4, 1, 0, 0), (2, −3, 0, 1, 0), (0, −1, 0, 0, 1)).
On pourrait vérifier en échelonnant que cette famille est bien libre (exercice).
82 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION

Remarque 4.5.4. La méthode la plus standard pour déterminer le rang d’une matrice (ou
la dimension de l’image) est de faire des opérations sur les colonnes et de conserver les colonnes
correspondant aux pivots. Les opérations considérées dans ce cas sont l’équivalent sur les colonnes
des opérations qu’on a vu sur les lignes (permutation de deux colonnes, multiplication par un réel
non nul, ajout d’un multiple d’une autre colonne. L’intérêt est que ces opérations ne changent
pas l’image de la matrice... Voir l’an prochain pour plus de détails !

4.6 Systèmes non homogènes


Proposition 4.6.1. Soit f ∈ L(Rp , Rn ). Soit →

y ∈ im(f ) (autrement dit, le système f (→−
x) = →−y

→ −
→ →

admet au moins une solution). Soit x0 ∈ R tel que f (x0 ) = y . Alors l’ensemble des solution du
p

système f (→

x)=→−y est
S=− → + ker(f ) = {−
x0
→+→
x 0
−u , u ∈ ker(f )}.

Attention, l’ensemble des solutions n’est pas un espace vectoriel si →



y n’est pas le vecteur nul.
On parle d’espace affine.

Démonstration. Pour tout u ∈ ker(f ), on a

f (−
→+→
x 0

u ) = f (−
→) + f (→
x 0

u) =→

y

donc

→ + ker(f ) = {−
x →+→
x −
u , u ∈ ker(f )} ⊂ S
0 0

Réciproquement, si f (→

x)=→

y , alors


f (→

x −−
→) = →
x 0

y −→

y = 0

d’où →

x −−
→=→
x 0

u ∈ ker(f ) et →

x =−
→+→
x 0

u.

Exemple 4.6.2.
(
x+y−z+t+u=1
2x + y + 2z − t + u = 2

On résout le système
( ( (
x+y−z+t+u=1 x+y−z+t+u=1 x + 3z − 2t = 1
⇔ ⇔
2x + y + 2z − t + u = 2 −y + 4z − 3t − u = 0 −y + 4z − 3t − u = 0

( (
x + 3z − 2t = 1 x = 1 − 3z + 2t
⇔ ⇔
y − 4z + 3t + u = 0 y = 4z − 3t − u

D’où
S = {(1 − 3z + 2t, 4z − 3t − u, z, t, u), z, t, u ∈ R}

On obtient bien une solution particulière (1, 0, 0, 0, 0) et les solutions du système homogène (voir
section précédente).
4.7. ESPACES SUPPLÉMENTAIRES, SOMMES DIRECTES, PROJECTIONS ET SYMÉTRIES83

4.7 Espaces supplémentaires, sommes directes, projections


et symétries
Définition 4.7.1. Soient E et F deux sous-espaces vectoriels de Rn . La somme de E et F , notée
E + F est
E + F = {→−
u +→ −
v ,→

u ∈ E, →−v ∈ F }.

Proposition 4.7.2. L’ensemble E + F est un sous-espace vectoriel de Rn .

Démonstration. Voir TD.

Définition 4.7.3. Soient E et F deux sous-espaces vectoriels de Rn . On dit que E et F sont


supplémentaires si tout vecteur →

w de Rn s’écrit de manière unique →

w =→ −u +→−v où →

u ∈ E et

−u ∈ F . On écrit alors R = E ⊕ F . On dit que R est la somme directe de E et F
n n

Exemple 4.7.4. On note (→ −


e1 , →

e2 , →

e3 ) la base canonique de R3 . Alors E = Vect(→

e1 , →

e2 ) et F =


Vect( e3 ) sont supplémentaires.

Proposition 4.7.5. Les espaces vectoriels E et F de Rn sont supplémentaires si et seulement si




E ∩ F = { 0 } et dim(E) + dim(F ) = n.

− →

Démonstration. On considère BE = (→ −
e1 , . . . , →

er ) une base de E et BF = ( f1 , . . . , fs ) une base de
F . On a donc dim(E) = r et dim(F ) = s. On note B = BE ∪ BF .
On commence par supposer que E et F sont supplémentaires. Soit alors → −w ∈ E ∩ F . On peut

− →
− →
− →
− → − →
− →

alors écrire w = w + 0 = 0 + w . Par unicité de la décomposition w = 0 et E ∩ F = { 0 }. On
montre maintenant que B est libre. Soit

− →
− →

λ1 →

e1 + · · · + λr →

er + µ1 f1 + · · · + µs fs = 0

une combinaison linéaire nulle. Par unicité de la décomposition, on obtient




λ1 →

e1 + · · · + λ r →

er = 0

et

− →
− →

µ1 f1 + · · · + µs fs = 0 .
Comme les familles BE et BF sont libres, on obtient λ1 = · · · = λr = µ1 = · · · = µs = 0. Donc la
combinaison linéaire est triviale et la famille est libre. Enfin, B est génératrice par définition de
supplémentaire. On en déduit que B est une base et donc que dim(E) + dim(F ) = n.


Réciproquement, supposons que E ∩ F = { 0 } et dim(E) + dim(F ) = n. Montrons que B est
libre. Soit

− →
− →

λ1 →

e1 + · · · + λr →

er + µ1 f1 + · · · + µs fs = 0
une combinaison linéaire nulle. On a alors

− →

λ1 →

e1 + · · · + λr →

er = −µ1 f1 − · · · − µs fs .


Comme E ∩ F = { 0 }, on en déduit que


λ1 →

e1 + · · · + λ r →

er = 0

et

− →
− →

µ1 f1 + · · · + µs fs = 0 .
84 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION

Comme les familles BE et BF sont libres, on obtient λ1 = · · · = λr = µ1 = · · · = µs = 0. Donc la


combinaison linéaire est triviale et la famille est libre. Comme dim(E) + dim(F ) = n, la famille
B est de cardinal n. C’est donc une base de Rn . Soit → −
w ∈ Rn . Alors

− →
− →

w = λ1 →

e1 + · · · + λ r →

er + µ1 f1 + · · · + µs fs

et en posant


u = λ1 →

e1 + · · · + λr →

er ∈ E
et

− →
− →

v = µ1 f1 + · · · + µs fs ∈ F
on obtient la décomposition →

w =→

u +→−v cherchée. Cette décomposition est unique car si


− →
− → −
w =→

u +→

v = u′ + v ′

on obtient →
− →
− −

−u − u′ = v ′ − →v.

− →
−′ →
−′
Comme E ∩ F = { 0 }, on en déduit que u = u et v = →

− −
v . Les sous-espaces vectoriels E et F
sont donc supplémentaires.

Définition 4.7.6. Soit Rn = E ⊕ F .


1. La projection de Rn sur E parallèlement à F est l’application linéaire pE/F : Rn → Rn
définie par pE/F (→

u +→

v)=→ −u dans la décomposition Rn = E ⊕ F .
2. La symétrie de Rn par rapport à E et de direction F est l’application linéaire sE/F : Rn →
Rn définie par pE/F (→

u +→−
v)=→ −
u −→ −
v Rn = E ⊕ F .

Exemple 4.7.7. On note (→ −


e1 , →

e2 , →

e3 ) la base canonique de R3 . Alors E = Vect(→ −
e1 , →

e2 ) et


F = Vect( e3 ) sont supplémentaires. La projection sur E parallèlement à F est définie par
pE/F (x, y, z) = (x, y, 0). La symétrie par rapport à E et de direction F est définie par sE/F (x, y, z) =
(x, y, −z).

Exemple 4.7.8. Soit E la droite de R2 dirigée par le vecteur → −e = (2, 1) et F la droite de R2



− →

dirigée par le vecteur f = (1, 2). Alors E et F sont supplémentaires : en effet, E ∩ F = { 0 }
et dim(E) + dim(F ) = 2. Déterminons la projection sur E parallèlement à F . Pour cela, il nous
faut déterminer les coordonnées de la décomposition dans E ⊕ F . Cela revient à déterminer les

− →

coordonnées d’un vecteur dans la base (→−
e , f ). On a (x, y) = λ→

e + µ f si et seulement si
(
2λ + µ = x
λ + 2µ = y

On a alors ( ( (
λ + 2µ = y λ + 2µ = y λ = 23 x − 13 y
⇔ ⇔ .
2λ + µ = x −3µ = x − 2y µ = − 13 x + 23 y
Par conséquent
2 1 1 2
   


(x, y) = x− y →−
e + − x+ y f
3 3 3 3
et pE/F (x, y) = ( 43 x − 32 y, 23 x − 13 y).

Proposition 4.7.9. Soit Rn = E ⊕ F .


4.8. PROJECTION ORTHOGONALE ET THÉORÈME DE PYTHAGORE 85

1. Les applications pE/F et sE/F sont linéaires.


2. L’image de pE/F est E, son noyau est F .
3. L’application sE/F est un isomorphisme. On a sE/F (E) = E et sE/F (F ) = F . La restriction
de sE/F à E est id et restriction à F est −id.
4. On a pE/F ◦ pE/F = pE/F , sE/F ◦ sE/F = id, id = pE/F + pF/E , sE/F = 2pE/F − id et
sF/E = −sE/F .
Démonstration.
1. Exercice.
2. Par définition, pE/F (→

u +→ −v) = → −
u ∈ E, pour tous → −
u ∈ E et →−v ∈ F . Par conséquent

− →
− →

im(pE/F ) ⊂ E. En outre, pour tout u ∈ E, on a pE/F ( u ) = u donc E ⊂ im(pE/F ). Pour


tout →

v ∈ F , on a pE/F (→
−v ) = 0 . Par conséquent F ⊂ ker(pE/F ). Par le théorème du rang
dim(ker(f )) = n − dim(E) = dim(F ). Donc F = ker(pE/F ).

− →
− →

3. Si s (→
E/F
−u +→−v)=→ −u −→−
v = 0 . Alors, par unicité de la décomposition, →

u = 0 et →
−v = 0.
Donc sE/F est injective. Comme sE/F est un endomorphisme, on en déduit que sE/F est
un isomorphisme. Pour →−u ∈ E, on a sE/F (→

u) =→

u ∈ E. Pour →

v ∈ F , on a sE/F (→

v ) ∈ F.

− →

4. Pour tous u ∈ E et v ∈ F , on a

pE/F ◦ pE/F (→

u +→

v ) = pE/F (→

u ) = pE/F (→

u +→

v)

sE/F ◦ sE/F (→

u +→

v ) = sE/F (→

u −→

v)=→−u +→

v
p →
− →

(u + v)+p →
− →
− →
− →

(u + v) = u + v
E/F F/E

2pE/F (→

u +→

v ) − sE/F (→

u +→

v ) = 2→

u − (→

u −→

v)=→

u +→

v
et
sF/E (→

u +→

v ) = −→

u +→

v = −sE/F (→

u +→

v ).

4.8 Projection orthogonale et théorème de Pythagore


Le produit scalaire de →

u = (x1 , . . . , xn ) et →

v = (y1 , . . . , yn ) deux vecteurs de Rn est

⟨→

u,→

v ⟩ = x1 y1 + · · · + xn yn .

La norme du vecteur →

u = (x1 , . . . , xn ) est
q q
∥→−u ∥ = ⟨→ −u,→

u ⟩ = x21 + · · · + x2n .

Les vecteurs →

u et →

v sont dits orthogonaux si ⟨→

u,→

v ⟩ = 0.
Théorème 4.8.1 (Théorème de Pythagore). Les vecteurs →

u et →

v de Rn sont orthogonaux si et
seulement si
∥→

u +→−v ∥2 = ∥→

u ∥2 + ∥→
−v ∥2
Démonstration. On a

∥→

u +→

v ∥2 = ⟨→

u +→

v ,→

u +→

v ⟩ = ⟨→

u,→

u ⟩ + 2⟨→

u,→

v ⟩ + ⟨→

v ,→

v ⟩ = ∥→

u ∥2 + ∥→

v ∥2 + 2⟨→

u,→

v ⟩.
86 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION

Définition 4.8.2. Soit E un sous-espace vectoriel de Rn . L’orthogonal de E, note E ⊥ est

E ⊥ = {→

u ∈ Rn , ⟨→

u,→

v ⟩ = 0 pour tout →

v ∈ E}.

Exemple 4.8.3. On note (→



e1 , →

e2 , →

e3 ) la base canonique de R3 . Soit E = Vect(→

e1 , →

e2 ). On a


E = Vect( e3 ).

Théorème 4.8.4. Soit E un sous-espace vectoriel de Rn . Alors E ⊥ est un sous-espace vectoriel


de Rn et E et E ⊥ sont supplémentaires.
Définition 4.8.5. Soit E un sous-espace vectoriel de Rn . La projection orthogonale sur E est la
projection sur E parallèlement à E ⊥ . La symétrie orthogonale par rapport à E est la symétrie
par rapport à E et de direction E ⊥ .
Théorème 4.8.6 (Caractérisation géométrique de la projection orthogonale). Soit E un sous-
espace vectoriel de Rn et pE la projection orthogonale sur E. Alors pour tout →−
u ∈ Rn , pE (→

u)

− →

est le vecteur de E le plus proche de u . Autrement dit, pour tout v ∈ E, on a

∥→

v −→

u ∥ ≥ ∥pE (→

u)−→

u ∥.

Démonstration. On a par définition




u = pE (→

u)+→

w

avec →

w ∈ E ⊥ . On écrit alors


v −→

u =→

v − pE (→

u)−→

w
avec


v − pE (→

u ) ∈ E et →

w ∈ E⊥.
Par le théorème de Pythagore, on obtient

∥→

v −→

u ∥2 = ∥→

v − pE (→

u )∥2 + ∥→

w ∥2 .

Le minimum de la distance à E est donc atteint pour →



v = pE (→

u ).

4.9 Application 2 : moindres carrés, régression linéaire et


conséquences
4.9.1 Régression linéaire
On s’intéresse à des méthodes d’analyse statistique permettant d’approcher une variable à
partir d’autres variables corrélées. Dans notre cas, on considère des points (x1 , y1 ), . . . , (xn , yn )
dans le plan et on cherche la droite "la plus proche" de ces points. On cherche donc a et b tels
que les yi soient "les plus proches possible" des axi + b (on suppose que les points ne sont pas sur
une droite verticale). Pour nous, le plus proche possible revient à minimiser la norme euclidienne
(on parle de méthode des moindres carrés), plus précisément on veut que

(y1 − (ax1 + b))2 + · · · + (yn − (axn + b))2


p

soit le plus petit possible. Écrivons le tout vectoriellement, on note


1 x1 1
       
y1 x1  
 ..   ..   ..   .. .
..  , C =
a
Y =  .  X =  .  U = . M =  . .

b
yn xn 1 xn 1
4.9. APPLICATION 2 : MOINDRES CARRÉS, RÉGRESSION LINÉAIRE ET CONSÉQUENCES87

On a alors
y1 − (ax1 + b)
 
..
.  = Y − aX − bU = Y − M C.
 

yn − (axn + b)
On cherche C qui minimise ∥Y − M C∥. Or l’ensemble des vecteurs M C pour a, b ∈ R est l’image
de M . Par la caractérisation géométrique de la projection orthogonale, pour optimiser, il faut que
M C soit la projection orthogonale de Y sur im(M ). Il existe des formules (moches) permettant
de calculer C en fonction des xi et des yi . Dans le TP, on utilisera Python pour faire ces calculs.
En pratique, on utilise la méthode LSTSQ (LeaST SQuares) de [Link] :
— import numpy as np
— définir M (à partir de la donnée X)
— C = [Link](M,Y,rcond=None)[0] (l’option rcond=None permet d’éviter les erreurs,
c’est un point technique qu’on oublie)
Définition 4.9.1. La droite de régression linéaire est la droite y = ax + b associée.

4.9.2 Qualité de l’approximation


∥pE (Y )∥
Définition 4.9.2. Le coefficient de corrélation de Y par rapport à E = im(M ) est r = ∥Y ∥ .
On alors r = cos(θ) où θ est l’angle entre pE (Y ) et Y . Notons que r ∈ [0, 1].
Empiriquement, si 0 ≤ r2 ≤ 0.5, la régression linéaire est mal adaptée et si 0.9 ≤ r2 ≤ 1, la
régression linéaire est un bon modèle. En pratique avec Python,
— on calcule P = M C à partir de M et C (obtenu précédemment) : P = [Link](M,C)
2
— on calcule r2 = ∥p∥Y E (Y )∥
∥2 par r = [Link]([Link](),P)/[Link]([Link](),Y).
La méthode transpose inverse les lignes et les colonnes d’une matrice (on parle de matrice trans-
posée), dans notre cas [Link]() donne la matrice t Y = (y1 . . . yn ). On alors
 
y1
 .. 
t
Y Y = (y1 . . . yn )  .  = y12 + · · · + yn2 = ∥Y ∥2 .
yn

4.9.3 Variantes
Les données ne sont pas forcément distribuées le long d’une droite (ça peut se voir sur le dessin
ou en calculant le coefficient de corrélation). Voici quelques exemples de régression pour d’autres
types de courbes
1. Approximation quadratique. On cherche la meilleure approximation sous la forme y =
ax2 + bx + c. On a alors
1
 2 
x1 x1  
a
 .. .. ..  , C =  b  .
M = . . . 
x2n xn 1 c

On cherche toujours à minimiser ∥Y − M C∥.


2. Approximation sinusoïdale. On connaît la fréquence ω, on cherche la meilleure approxima-
tion sous la forme y = a + b cos(ωx) + c sin(ωx). On pose alors On a alors
1 cos(ωx1 ) sin(ωx1 )
   
a
M =  ... ..
.
..
. , C = b .
 

1 cos(ωxn ) sin(ωxn ) c
88 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION

On cherche toujours à minimiser ∥Y − M C∥.


3. Approximation exponentielle. On cherche la meilleure approximation sous la forme y =
keax . On a alors
ln(y) = ln(keax ) = ln(k) + ln(eax ) = ln(k) + ax.
On cherche à minimiser ∥ ln(Y ) − M C∥ où

ln(y1 ) 1
   
x1  
 ..   .. ..  , C = a .
ln(Y ) =  .  , M =  . . b
ln(yn ) xn 1

On obtient alors a et b = ln(k).


On peut aussi gérer des situations avec plus de variables...

Vous aimerez peut-être aussi