Maths S2
Maths S2
Anne Vaugon
d’après les notes de Rémi Leclercq et Michel Rumin
16 mars 2023
2
Ce cours reprend des notes de cours manuscrites de Rémi Leclercq qui doivent beaucoup au
cours de Michel Rumin.
Chapitre 1
Intégration
Ce cours comprend des rappels sur l’intégration des fonctions définies sur un intervalle (voir
S1), une présentation de l’intégrale double (pour les fonctions de deux variables) et de l’intégrale
triple (pour les fonctions de trois variables).
Soit f : [a, b] → R une fonction définie sur l’intervalle [a, b]. On rappelle que le graphe de f
est le sous-ensemble de R2 défini par
1 X
Sn (f ) = f (xk ).
n
{xk ∈I}
3
4 CHAPITRE 1. INTÉGRATION
f (x2 )
x2 x3 x4 x5 x6
0.5 1 1.5 2
1 2 4 5
S3 (f ) = f + f (1) + f +f + f (2) .
3 3 3 3
Théorème 1.1.2. Soit f : [a, b] → R continue, alors les sommes de Riemann Sn (f ) convergent
vers un nombre réel quand n → ∞. On appelle cette limite l’intégrale de f sur [a, b] et on la note
Z b
f (t)dt.
a
3. si f change de signe, on découpe [a, b] en sous-intervalles sur lesquels f est de signe constant.
1.1. RAPPELS DE DIMENSION 1 5
Remarque 1.1.3. La notion d’aire pour une partie de R2 n’est pas facile à définir en général (ce
n’est même pas toujours possible), l’intégrale permet ici de définir l’aire entre l’axe des abscisses
et le graphe d’une fonction continue (on verra plus tard comment traiter des cas plus généraux).
La notion d’aire obtenue ici coïncide avec la notion d’aire que vous connaissez déjà (pour un
rectangle, un triangle...) mais ce n’est pas évident : il faut prouver ce résultat !
Remarque 1.1.4. L’interprétation de l’intégrale à l’aide de la notion d’aire est un bon point de
vue pour l’intuition, la compréhension de propriétés et la généralisation aux dimensions 2 et 3.
Ce point du vue est rarement utilisé pour faire des calculs (sauf pour les fonctions constantes).
En fait, c’est plutôt l’inverse : on utilise usuellement l’intégrale pour calculer des aires !
Intuition
X
Masse(I) = Masse I|[xk ,xk+1 [
k
X 1 X
≃n→∞ f (xk )Longueur([xk , xk+1 [) = ρ(xk ) = Sn (f ).
n
k,xk ∈I k,xk ∈I
On obtient alors la relation de Chasles sous une forme plus générale Si a, b, c ∈ I et f : I → R est
continue alors Z c Z b Z c
f (t)dt = f (t)dt + f (t)dt.
a a b
6 CHAPITRE 1. INTÉGRATION
Rb
Remarque 1.1.6. La croissance de l’intégrale garantit que si f ≥ 0 alors a f (t)dt ≥ 0 (on
parle parfois de positivité de l’intégrale). Plus généralement, cette propriété permet d’encadrer
des intégrales. Par exemple, pour tout 1 ≤ t ≤ 2, on a 12 ≤ 1t ≤ 1. On en déduit
1 1 1
Z 2 Z 2 Z 2
= dt ≤ dt ≤ 1dt = 1.
2 1 2 1 t 1
et donc
0, 5 ≤ ln(2) ≤ 1
(en fait ln(2) ≃ 0, 69).
Exemple 1.1.10.
1. Soit 0 < a ≤ b et soit k ̸= −1, alors
Z b k+1 b
t bk+1 ak+1
tk dt = = − .
a k+1 a k+1 k+1
2. Soit a ≤ b, alors
Z b
b
cos(t)dt = [sin(t)]a = sin(b) − sin(a).
a
Cas particulier : a = 0 et b = 2π, on obtient
Z 2π
cos(t)dt = 0
0
sur le dessin les aires au-dessus et en dessous de l’axe des abscisses se compensent.
1.1. RAPPELS DE DIMENSION 1 7
−1 0 1 2 3 4 5 6
−1
−2
Démonstration.
1. La fonction f est une primitive de f ′ et on applique le théorème fondamental de l’analyse.
2. Soit h = f g alors h′ = f ′ g + f g ′ . On en déduit
Z b Z b
h′ (t)dt = (f ′ (t)g(t) + f (t)g ′ (t)dt.
a a
Mais, ψ est de classe C 1 comme composée de fonctions C 1 . Pour tout x ∈ [a, b], on a
et donc
Z ϕ(b) Z b
f (y)dy = ψ(b) = ϕ′ (x)f (ϕ(x))dx
ϕ(a) a
ce qu’on voulait.
Comme dans le cas des fonctions en une variable, on va intégrer des fonctions continues.
Définition 1.2.2. Soit D ⊂ R2 , soit f : D → R. On dit que f est continue sur D si pour tout
(x0 , y0 ) ∈ D, f (x, y) → f (x0 , y0 ) quand (x, y) → (x0 , y0 ) dans D.
Comme pour les fonctions en une variable, on utilise rarement la définition pour montrer
qu’une fonction est continue. Les propriétés suivantes sont l’outil principal pour montrer la conti-
nuité.
Propriété 1.2.3.
1. La classe des fonctions continue est stable par les opérations usuelles : si f, g : D → R sont
continues et α ∈ R alors f + g, αf et f · g sont continues.
2. Si I ⊂ R et f : D → I et g : I → R sont continues alors g ◦ f est continue (rappel : pour
(x, y) ∈ D, (g ◦ f )(x, y) = g(f (x, y))).
3. Les polynômes en les coordonnées x et y sont continus.
Exemple 1.2.4.
— Les fonctions de l’exemple précédent sont continues sur leur domaine de définition (découle
de la continuité des polynômes et de la fonction inverse sur R∗ ).
— La fonction (x, y) 7→ sin(x2 + y 2 ) + ex+cos(y) est continue sur R2 (découle de la continuité
des polynômes sur R2 et des fonctions cos, sin et exp sur R).
— La fonction qui vaut 1 en (0, 0) et 0 ailleurs n’est pas continue sur R2 .
10 CHAPITRE 1. INTÉGRATION
On ne peut pas intégrer des fonctions sur n’importe quel domaine de R2 . Dans ce cours, tous
les domaines sont définis pas des inéquations
Remarque 1.2.5. Toutes les inégalités peuvent être mises sous la forme précédente (le sens des
inégalités, la présence de constantes, de membre des deux côtés de l’inégalité ne posent pas de
problème) : par exemple x2 + y 2 ≤ 1 équivaut à 1 − x2 − y 2 ≥ 0 ou encore x + 2 ≥ 2y équivaut à
x + 2 − 2y ≥ 0.
2. Pour chacun des courbes précédentes, on détermine quel côté nous intéresse (par exemple
en testant des points).
Exemple 1.2.6.
1.
D = (x, y) ∈ R2 , 0 ≤ y, 0 ≤ x ≤ 3, x + 2 ≥ 2y .
2.
D = (x, y) ∈ R2 , 1 ≤ x2 + y 2 ≤ 4, x + y ≥ 0 .
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 11
La condition précédente sur D autorise encore des domaines trop compliqués. Pour intégrer,
on va se restreindre à la classe des domaines réguliers.
Définition 1.2.7. Un domaine D est un domaine élémentaire vertical s’il est de la forme
4
g
3
D
2
f
a b
−1 0 1 2 3 4 5
−1
Exemple 1.2.8.
x+2
D = (x, y) ∈ R2 , 0 ≤ y, 0 ≤ x ≤ 3, x + 2 ≥ 2y = (x, y) ∈ R2 , 0 ≤ x ≤ 3, 0 ≤ y ≤
.
2
12 CHAPITRE 1. INTÉGRATION
n p o
D = (x, y) ∈ R2 , x2 + y 2 ≤ 4, y ≥ 0 = (x, y) ∈ R2 , −2 ≤ x ≤ 2, 0 ≤ y ≤ 4 − x2 .
Définition 1.2.9. Un domaine D est un domaine élémentaire horizontal s’il est de la forme
b
4
3
f
D
2
g
a
1
−2 −1 0 1 2 3 4 5 6 7
−1
Exemple 1.2.10.
n p o
D = (x, y) ∈ R2 , x2 + y 2 ≤ 4, x ≤ 0 = (x, y) ∈ R2 , −2 ≤ y ≤ 2, − 4 − y 2 ≤ x ≤ 0 .
Définition 1.2.11. Un domaine D est dit régulier s’il est décomposable en une union finie de
domaines élémentaires horizontaux ou verticaux.
k k+1 l l+1
Ck,l = , × , .
n n n n
Le point Mk,l est le point inférieur gauche du carré Ck,l . Le carré Ck,l est de taille 1
n × n1 .
Ck,l
Mk,l
On considère l’ensemble des carrés Ck,l tels que Mk,l ∈ D. Sur chacun de ces carrés on
approche f par f (Mk,l ). On obtient ainsi une fonction fn qui approche f .
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 15
Théorème 1.2.15. Soit D une domaine régulier de R2 . Soit f : D → R une fonction continue.
Alors les sommes de Riemann Sn (f ) convergent vers un nombre réel quand n → ∞. Cette limite
est l’intégrale double de f sur D notée
ZZ
f (x, y)dxdy.
D
2. (Normalisation) Si D = [a, b] × [c, d], D 1dxdy = (b − a)(d − c) (c’est l’aire du pavé D).
RR
Remarque 1.2.17. Une généralisation de la relation de Chasles sera vue un peu plus loin (mais
la situation est plus compliquée qu’en dimension 1).
Remarque 1.2.18. Comme en dimension 1, la croissance implique la positivité : si f ≥ 0 alors
f (x, y)dxdy ≥ 0.
RR
D
Idée de la preuve. Toutes les propriétés hors normalisation sont vraies pour les sommes de Rie-
mann et elles passent à la limite. Détaillons la première propriété de linéarité. Soient f, g : D → R
continues. Alors, pour tout n ≥ 1,
1 X 1 X 1 X
Sn (f + g) = 2 f (Mk,l ) + g(Mk,l ) = 2 f (Mk,l ) + 2 g(Mk,l )
n n n
(k,l),Mk,l ∈D (k,l),Mk,l ∈D (k,l),Mk,l ∈D
= Sn (f ) + Sn (g).
En passant à la limite n → ∞, on obtient
ZZ ZZ ZZ
(f (x, y) + g(x, y))dxdy = f (x, y)dxdy + g(x, y)dxdy.
D D D
Théorème 1.2.21. La définition d’aire ci-dessus est compatible avec les calculs d’aires des figures
géométriques usuelles (rectangles, triangles, parallélogrammes, disques...).
1 X
Sn (1) = 1 = Aire ∪(k,l),Mk,l ∈D Ck,l .
n2
(k,l),Mk,l ∈D
Et, d’une part, ∪(k,l),Mk,l ∈D Ck,l approche D et d’autre part limn→∞ Sn (1) → 1dxdy.
RR
D
alors
ZZ Z b Z b
Aire(D) = 1dxdy = (g(x) − f (x))dx = longueur(Dx )dx
D a a
g(x)
6
Dx
f (x)
4
a b x
−2 0 2 4 6
alors ZZ Z b Z b
Aire(D) = 1dxdy = (g(y) − f (y))dy = longueur(Dy )dy
D a a
où Dy = {(x, y), f (y) ≤ x ≤ g(y)} est la tranche horizontale associée à y.
Définition 1.2.23. On appelle courbe dans R2 l’image d’une application [a, b] → R2 de classe
C1.
Théorème 1.2.24. Soit D un domaine régulier tel que D = D1 ∪ D2 avec D1 et D2 domaines
réguliers et D1 ∩ D2 contenu dans une courbe γ. Alors
Aire(D) = Aire(D1 ) + Aire(D2 ).
Les deux théorèmes précédents sont des cas particuliers du théorème de Fubini et de la pro-
priété d’additivité de l’intégrale double (voir sections suivantes).
Ces deux théorèmes nous permettent de calculer l’aire d’un domaine régulier en le décomposant
en domaines élémentaires.
Exemple 1.2.25. Soit f : [a, b] → R une fonction continue positive. Soit
D = (x, y) ∈ R2 , a ≤ x ≤ b, 0 ≤ y ≤ f (x) .
Alors Z b Z b
Aire(D) = (f (x) − 0)dx = f (x)dx.
a a
Et on retrouve bien que l’intégrale calcule l’aire sous la courbe représentative de f (quand f ≥ 0).
18 CHAPITRE 1. INTÉGRATION
D = (x, y) ∈ R2 , −2 ≤ y ≤ 1, y 2 + 2y ≤ x ≤ y + 2 .
Alors
1
1 1
9
3
y2
Z Z
y
Aire(D) = (y + 2 − y − 2y)dy =
2
−y − y + 2dy = − −
2
+ 2y = .
−2 −2 3 2 −2 2
On pourrait aussi décomposer en tranche verticales mais c’est plus difficile ! Bien réfléchir
avant de se lancer dans les calculs !
Pour f = 1, on retrouve la propriété d’additivité des aires par découpage. C’est l’équivalent
de la relation de Chasles en dimension 2.
Si on peut prouver que Sn (f, γ) → 0 quand n → ∞ alors, par passage à la limite dans l’égalité
ci-dessus, on obtient le résultat voulu.
On commence par traiter le cas où γ est le graphe d’une fonction ϕ : [a, b] → R, plus précisé-
ment γ = {x, ϕ(x)), x ∈ [a, b]}. Dans ce cas, pour tout xk , il y a au plus un carré Ck,l pour l ∈ Z
tel que Mk,l ∈ γ. On a donc au plus n(b − a) carrés Ck,l à prendre en compte dans le calcul de
la somme de Riemann. Ainsi
1 X 1 X
|Sn (f, γ)| = f (Mk,l ) ≤ |f (Mk,l )|
n2 n2
(k,l),Mk,l ∈γ (k,l),Mk,l ∈γ
1 X b−a
≤ max |f | ≤ max |f | →n→∞ 0.
n2 γ n γ
(k,l),Mk,l ∈γ
Et on obtient bien le résultat voulu pour un graphe horizontal. La même preuve s’applique pour
un graphe vertical. Pour conclure, on découpe γ en courbe qui sont des graphes (horizontaux ou
verticaux).
Remarque 1.2.32. On vient de montrer que l’aire d’une courbe est nulle (ce qui est raisonnable).
Plus généralement, on dit qu’un domaine est négligeable si son aire est nulle.
Définition 1.2.33. Le centre de gravité (ou centre de masse) d’une plaque D (qui est un domaine
régulier de plan R2 ) de densité ρ (qui est une fonction continue sur D) est le point (xG , yG ) ∈ R2
où
1
ZZ
xG = xρ(x, y)dxdy
Masse(D) D
1
ZZ
yG = yρ(x, y)dxdy
Masse(D) D
1
xG = (m1 x1 + . . . mN xN )
m1 + · · · + mN
1
yG = (m1 y1 + . . . mN yN ).
m1 + · · · + mN
En résumé, on somme en pondérant par la masse. Dans le cas d’une plaque D, on échantillonne :
on approche la plaque par les points Mk,l de D avec Mk,l de masse n12 × ρ(Mk,l ) (ici n12 est l’aire
du carré Ck,l et la densité du carré est supposée constante de valeur ρ(Mk,l )). On obtient alors
pour valeur approchée de xG
1 X xk ρ(Mk,l )
.
ρ(Mk,l ) n2
P
(k,l),Mk,l ∈D n2 (k,l),Mk,l ∈D
1
ZZ
xG = RR xρ(x, y)dxdy
D
ρ(x, y)dxdy D
ce qu’on voulait.
Exemple 1.2.34. Le centre de gravité d’un disque homogène est son centre (voir plus loin pour
les calculs).
Le théorème d’additivité de l’intégrale par découpage se traduit de la façon suivante pour les
calculs de centre de gravité.
Ainsi ZZ
xρ(x, y)dxdy = Masse(D1 )xG (D1 ) + Masse(D2 )xG (D2 )
D
et on obtient la formule voulue.
Remarque 1.2.36. Il existe une formule analogue pour yG . On peut également généraliser cette
formule pour un découpage D = D1 ∪ D2 · · · ∪ DN .
Exemple 1.2.37. Soit C le disque de centre (0, 0) et de rayon R = 3, C ′ le disque de centre
(1, 0) et de rayon r = 1 et D = C \ C ′ . On voit D comme une plaque homogène de densité 1. On
veut calculer son centre de gravité.
Par la proposition précédente (on considère C comme une plaque homogène de densité 1)
1
xG (C) = (Masse(D)xG (D) + Masse(C ′ )xG (C ′ )) .
Masse(C)
On a
1. Masse(C) = Aire(C) = πR2 = 9π ;
2. Masse(C′ ) = Aire(C ′ ) = πr2 = π ;
3. Masse(D) = Masse(C) − Masse(D) = 8π.
De plus, comme le centre de gravité d’un disque homogène est son centre, on obtient xG (C) = 0
et xG (C ′ ) = 1. On en déduit
0 = π(R2 − r2 )xG (D) + πr2
et donc
r2 1
xG (D) = − =− .
2
R −r 2 8
De plus, comme yG (C) = yG (C ′ ) = 0, on a yG (D) = 0 (par la même méthode).
22 CHAPITRE 1. INTÉGRATION
Remarque 1.2.38. Le polygone de sustentation est le plus petit polygone qui contient l’ensemble
des points sur lequel un corps repose sur un plan horizontal. Un corps est dit stable si son centre
de gravité est au-dessus du polygone de sustentation (autrement dit si l’abscisse de son centre de
gravité est contenue dans le polygone de sustentation).
ψ(x)
6
ϕ(x)
4
a b x
−2 0 2 4 6
alors la fonction
Z ψ(x)
x 7→ f (x, y)dy
ϕ(x)
alors la fonction
Z ψ(y)
x 7→ f (x, y)dx
ϕ(y)
(dans notre cas, ϕ est la fonction constante c et ψ la fonction constante d). Par linéarité de
l’intégrale (appliquée pour les deux égalités), on obtient
Z b Z d ! Z d ! Z !
ZZ b
f (x, y)dxdy = g(x) h(y)dy dx = h(y)dy g(x)dx .
D a c c a
On applique le théorème de Fubini pour calculer chacun des termes (les fonctions à intégrer sont
polynomiales donc continues). On obtient
8
ZZ Z 2 Z 3
x dxdy =
2 2
x dx 1dy = · 3 = 8
D 0 0 3
27
ZZ Z 2 Z 3
y 2 dxdy = 1dx y 2 dy = 2 · = 18
D 0 0 3
4 9
ZZ Z 2 Z 3
xydxdy = xdx ydy = · = 9.
D 0 0 2 2
On en déduit ZZ
(x + y)2 dxdy = 8 + 2 · 9 + 18 = 44.
D
24 CHAPITRE 1. INTÉGRATION
On calcule ZZ
x2 dxdy.
D
La fonction (x, y) 7→ x2 est continue car polynomiale et D est un domaine élémentaire. On peut
donc appliquer le théorème de Fubini (avec tranches verticales). On obtient
ZZ Z 2 Z − 32 x+3 !
x2 dxdy = x2 dy dx
D 0 0
!
Z 2 Z − 32 x+3
= x 2
dy dx
0 0
2
2
3 3
Z
= x2 − x + 3 dx = − x4 + x3 = −6 + 8 = 2
0 2 8 0
Pour k fixé,
1 X
f (xk , yl )
n
l,ϕ(xk )≤yl ≤ψ(xk )
est une somme de Riemann pour y 7→ f (xk , y). En passant à la limite à xk fixé (attention, c’est
plus subtil qu’on pourrait le croire en première lecture), on obtient
Z ψ(xk )
f (xk , y)dy = g(xk ).
ϕ(xk )
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 25
On obtient alors
1 X
Sn (f ) ≃ g(xk )
n
k,a≤xk ≤b
qui est encore une somme de Riemann. En passant à la limite (même remarque que ci-dessus),
on obtient ZZ Z b
f (x, y)dxdy = g(x)dx
D a
ce qu’on voulait.
Dans cette formule le terme ϕ (x) est là pour prendre en compte l’influence de ϕ sur les longueurs.
′
La dérivée d’une fonction mesure bien l’effet de cette fonction sur les longueurs car
ϕ(x + h) − ϕ(x)
ϕ′ (x) = lim
h→0 h
et dans cette formule ϕ(x + h) − ϕ(x) donne la longueur (algébrique) ϕ([x, x + h]) alors que h est
la longueur de l’intervalle [x, x + h].
Dans le cas de l’intégrale double, on va considérer ϕ : ∆ → D une bijection C 1 et de réciproque
C . La notion de classe C 1 pour les fonctions de deux variables n’est pas au programme de ce
1
cours. Dans ce cours, on admet qu’on peut généraliser la définition en dimension 1. On appliquera
seulement la formule du changement de variable dans les cas très particulier qui sont détaillés
plus loin (et où il ne sera pas nécessaire de connaître la définition d’application C 1 ). Notons que
les applications polynomiales sont toujours C 1 .
Soit ϕ : ∆ → R2 une application C 1 . Pour tout (x, y) ∈ ∆, on pose Ch = [x, x + h] × [y, y + h]
et
Aire(ϕ(Ch ))
jϕ (x, y) = lim .
h→0 Aire(Ch )
La fonction jϕ est appelée le jacobien de ϕ. Le fait qu’une telle limite existe découle de la définition
d’application C 1 (on admet donc ce point). Le réel jϕ (x, y) mesure l’effet de ϕ sur les aires au
point (x, y).
Théorème 1.2.46. Soit ϕ : ∆ → D une bijection C 1 et de réciproque C 1 entre domaines réguliers
de R2 . Soit f : D → R une application continue. Alors
ZZ ZZ
f (ϕ(x, y))jϕ (x, y)dxdy = f (u, v)dudv.
∆ D
Remarque 1.2.47. Il existe une formule permettant de calculer jϕ (x, y) en dérivant ϕ, elle est
hors programme de ce cours, mais vous la rencontrerez dans les années à venir...
26 CHAPITRE 1. INTÉGRATION
Démonstration. On montre que jϕ (x, y) = |λµ|. La formule s’obtient alors directement par la
formule générale du changement de variables. On traite le cas λ > 0 et µ > 0. Soient (x, y) ∈ R2
et h > 0. Soit Ch = [x, x + h] × [y, y + h]. Alors
On a donc Aire(ϕ(Ch )) = |λ|νh2 . Et on conclut comme dans le cas précédent. Les autres cas sont
laissés en exercice.
Les changements de variables permettent d’exploiter les symétries du problème.
Exemple 1.2.51. Soit D le disque de centre O et de rayon 1, soit D+ de demi-disque contenu
dans le demi-plan supérieur et D− le demi-disque contenu dans le demi-plan inférieur. Alors
ZZ ZZ ZZ
y 2 dxdy = y 2 dxdy + y 2 dxdy
D D+ D−
par linéarité de l’intégrale par découpage. Soit ϕ la symétrie axiale d’axe (Ox). On a ϕ(D− ) =
D+ . Par conséquent, par la formule du changement de variable appliqué à ϕ : D− → D+ et à
l’application f : (x, y) 7→ y 2 ,
ZZ ZZ
f (x, −y)dxdy = f (u, v)dudv.
D− D+
On en déduit ZZ ZZ
y 2 dxdy = v 2 dudv
D− D+
et donc ZZ ZZ ZZ
y 2 dxdy = 2 y 2 dxdy = 2 y 2 dxdy
D D+ D−
1.2. INTÉGRATION DES FONCTIONS DE DEUX VARIABLES 27
1
ZZ
xG = xdxdy.
Masse(D) D
Soit ϕ la symétrie axiale d’axe (Oy). Comme ϕ(D) = D, par la formule du changement de variable
appliqué à ϕ : D → D et à l’application f : (x, y) 7→ x, on obtient
ZZ ZZ
f (−x, y)dxdy = f (u, v)dudv.
D D
On en déduit ZZ ZZ ZZ ZZ
− xdxdy = −xdxdy = ududv = xdxdy
D D D D
et donc ZZ
2 xdxdy = 0.
D
Ainsi xG = 0.
Exemple 1.2.53. Soit ϕ l’homothétie de rapport R > 0. Soit D le disque de centre 0 et de
rayon 1. Alors (x, y) ∈ ϕ(D) ⇔ (x, y) = (Ru, Rv) avec (u, v) ∈ D ⇔ (x, y) = (Ru, Rv) avec
x 2 y 2
u2 + v 2 = 1 ⇔ R + R ≤ 1 ⇔ x2 + y 2 ≤ R2 ⇔ (x, y) est dans le disque DR de centre 0 et de
Autrement dit
R2 Aire(D) = Aire(DR )
et on retrouve bien le lien entre l’aire d’un disque de rayon 1 et d’un disque de rayon R !
Isométries
Définition 1.2.54. Une isométrie est une application qui préserve les longueurs. Plus précisé-
ment ϕ : R2 → R2 est une isométrie si, pour tous P ∈ R2 et Q ∈ R2
Propriété 1.2.55. Si ϕ est une isométrie alors jϕ (x, y) = 1 pour tout (x, y) ∈ R2 .
Corollaire 1.2.56. Soit ϕ une isométrie. Soit f : D → R une application continue avec D
domaine régulier. Soit ∆ tel que ϕ(∆) = D. Alors
ZZ ZZ
f (ϕ(x, y))dxdy = f (u, v)dudv.
∆ D
3. les rotations
4. les symétries axiales
5. la composée de deux isométries est une isométrie.
Exemple 1.2.58. Le centre de gravité d’un disque homogène de densité 1 est son centre (on a
déjà traité le cas d’un disque centré en l’origine). Soit D′ le disque de centre (a, b) et de rayon R.
Soit ϕ la translation de vecteur (a, b), c’est-à-dire l’application définie par (x, y) 7→ (x + a, y + b).
Les translations sont des isométries. De plus ϕ(D) = D′ où D est le disque de centre (0, 0) et de
rayon R. On applique la formule du changement de variable à ϕ et la fonction (u, v) 7→ u sur D′
pour obtenir
ZZ ZZ ZZ ZZ
ududv = (x + a)dxdy = xdxdy + adxdy = 0 + aAire(D).
D′ D D D
Comme la plaque est homogène de densité 1, sa masse est donnée par son aire. On obtient donc
1
xG (D′ ) = aAire(D) = a
Aire(D)
et l’abscisse du centre de gravité est bien l’abscisse du centre du disque. On fait un raisonnement
analogue pour l’ordonnée...
Coordonnées polaires
On considère l’application ϕ : [0, ∞[ × [−π, π] → R2 définie par
Cette application est C 1 . Soit Ω le plan R2 privé de l’axe réel négatif. On admet que l’application
ϕ est une bijection de ]0, ∞[ × ]−π, π[ dans Ω de réciproque C 1 .
Proposition 1.2.59. Soit C = [r1 , r2 ] × [θ1 , θ2 ] ⊂ [0, ∞[ × [−π, π]. Alors
1 2
Aire(ϕ(C)) = (r − r12 )(θ2 − θ1 ).
2 2
Démonstration. L’aire de la couronne de rayons compris entre r1 et r2 est πr22 −πr12 . On considère
une portion de couronne d’angle θ2 − θ1 . On obtient comme aire
θ2 − θ1 1
(πr22 − πr12 ) = (r22 − r12 )(θ2 − θ1 ).
2π 2
h 2rh2 + h3
Aire(ϕ(Ch )) = ((r + h)2 − r2 ) = .
2 2
On a Aire(Ch ) = h2 et donc
Aire(ϕ(Ch )) h
= r + →h→0 r.
Aire(Ch ) 2
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 29
Corollaire 1.2.61. Soit f : D → R une fonction continue sur D domaine régulier de R2 . Soit
∆ un domaine régulier tel que ϕ(∆) = D. Alors
ZZ ZZ
f (r cos(θ), r sin(θ))rdrdθ = f (x, y)dxdy.
∆ D
On applique le théorème de Fubini (pour les fonctions séparables sur un pavé) et on obtient
Z R ! Z
π
R4 πR4
ZZ
(x + y )dxdy =
2 2 3
r dr dθ = 2π = .
D 0 −π 4 2
ou
D = (x, y, z) ∈ R3 , (x, z) ∈ ∆, f (x, z) ≤ y ≤ g(x, z)
ou
D = (x, y, z) ∈ R3 , (y, z) ∈ ∆, f (y, z) ≤ z ≤ g(y, z)
(0, h)
(R, 0)
Théorème 1.3.8. Soit D une domaine régulier de R3 . Soit f : D → R une fonction continue.
Alors les sommes de Riemann Sn (f ) convergent vers un nombre réel quand n → ∞. Cette limite
est l’intégrale triple de f sur D notée
ZZZ
f (x, y, z)dxdydz.
D
32 CHAPITRE 1. INTÉGRATION
Théorème 1.3.13. La définition de volume est compatible avec les calculs de volume des figures
géométriques usuelles (pavés, cylindres, cônes...).
Théorème 1.3.14. Soit D un domaine élémentaire. Si D est décomposable en tranches verticales
alors
ZZZ ZZ ZZ
Volume(D) = 1dxdydz = (g(x, y) − f (x, y))dxdy = Longueur(Ix,y )dxdy
D ∆ ∆
où Ix,y = {(x, y, z), f (x, y) ≤ z ≤ g(x, y)} est la tranche verticale associée à (x, y) ∈ D.
Exemple 1.3.15. Calculons le volume de la boule de rayon R. On a
n p p o
B = (x, y, z) ∈ R3 , (x, y) ∈ D, − R2 − x2 − y 2 ≤ z ≤ R2 − x2 − y 2
Par conséquent ZZ p
Volume(B) = 2 R2 − x2 − y 2 dxdy.
D
On passe en coordonnées polaires dans le disque 2 pour obtenir
ZZ p
Volume(B) = 2 R2 − r2 rdrdθ.
[0,R]×[−π,π]
Définition 1.3.16. Soit D un domaine élémentaire. On dit que D est décomposable en tranches
horizontales de dimension 2 si pour tout z ∈ R,
Dz = {(x, y, z), (x, y, z) ∈ D}
est un domaine régulier de R .
2
alors ZZ Z b
Volume(D) = 1dxdydz = Aire(Dz )dz.
D a
0 r
h
1 1
Z h
R2 R2
Volume(C) = π 2 (h − z) dz = π 2 − (h − z)
2 3
= πR2 h.
0 h h 3 0 3
Et on retrouve bien la formule usuelle !
Définition 1.3.20. On appelle surface dans R3 l’image d’une application ∆ → R3 de classe C 1 .
Théorème 1.3.21. Soit D un domaine régulier de R3 tel que D = D1 ∪ D2 avec D1 et D2
domaines réguliers et D1 ∩ D2 contenu dans une surface. Alors
Volume(D) = Volume(D1 ) + Volume(D2 ).
Pour f = 1, on retrouve la propriété d’additivité des aires par découpage. C’est l’équivalent
de la relation de Chasles en dimension 3.
Remarque 1.3.23. La propriété d’additivité de l’intégrale triple par découpage contient le fait
que le volume d’une surface est nul (à mettre en parallèle avec le fait que l’aire d’une courbe est
nulle).
Définition 1.3.24. Le centre de gravité d’un solide D (qui est un domaine régulier de plan R3 )
de densité ρ (qui est une fonction continue sur D) est le point (xG , yG , zG ) ∈ R2 où
1
ZZZ
xG = xρ(x, y, z)dxdydz
Masse(D) D
1
ZZZ
yG = yρ(x, y, z)dxdydz
Masse(D) D
1
ZZZ
zG = yρ(x, y, z)dxdydz
Masse(D) D
Le théorème d’additivité de l’intégrale par découpage se traduit de la façon suivante pour les
calculs de centre de gravité.
Proposition 1.3.25. Soit D = D1 ∪ D2 ⊂ R3 avec D1 ∩ D2 contenu dans une surface et D,
D1 et D2 des domaines régulier de R3 . On note ρ la densité de la plaque D. Soit xG l’abscisse
du centre de gravité de D, xG (D1 ) l’abscisse du centre de gravité de D1 et xG (D2 ) l’abscisse du
centre de gravité de D2 . Alors
1
xG = (Masse(D1 )xG (D1 ) + Masse(D2 )xG (D2 ))
Masse(D)
alors Z ψ(x,y)
(x, y) 7→ f (x, y, z)dz
ϕ(x,y)
36 CHAPITRE 1. INTÉGRATION
alors
ZZ
z 7→ f (x, y, z)dxdy
Dz
ZZZ Z b Z Z
f (x, y, z)dxdydz = f (x, y, z)dxdy dz.
D a Dz
En appliquant ces théorèmes avec f = 1, on retrouve le théorème sur le calcul des aires !
On a
1 2
Masse(C) = πR h.
3
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 37
De plus
!
1 1
ZZZ Z h ZZ
zG = zdxdydz = zdxdy dz
Masse(C) C Masse(C) 0 D(O,R(h−z)/h)
!
1
Z h ZZ
= z dxdy dz
Masse(C) 0 D(O,R(h−z)/h)
2
1 h
R2
Z
= z π 2 (h − z) dz
Masse(C) 0 h
h
πR2
Z
= 2 (zh2 − 2hz 2 + z 3 )dz
h Masse(C) 0
h
πR2 2hz 3
2 2
z h z4
= 2 − +
h Masse(C) 2 3 4 0
πR2 h4 h
= = .
h Masse(C) 12
2 4
Corollaire 1.3.29 (Cas particulier du théorème de Fubini pour les produits). Soit D = [x1 , x2 ]×
[y1 , y2 ] × [z1 , z2 ]. Soient g : [x1 , x2 ] → R continue, h : [y1 , y2 ] → R continue et k : [z1 , z2 ] → R
continue. On considère f : D → R définie par f (x, y, z) = g(x)h(y)k(z). Alors f est continue sur
D et ZZZ Z x2
Z y2
Z z2
f (x, y, z)dxdydz = g(x)dx h(y)dy k(z)dz .
D x1 y1 z1
Volume(ϕ(Ch ))
jϕ (x, y, z) = lim .
h→0 Volume(Ch )
La fonction jϕ est appelée le jacobien de ϕ. Le fait qu’une telle limite existe découle de la définition
d’application C 1 (on admet ce point). Le réel jϕ (x, y, z) mesure l’effet de ϕ sur les volumes au
point (x, y, z).
Proposition 1.3.32. (Changement de variable pour les dilatations) Soit ϕ une dilatation définie
par ϕ(x, y, z) = (λx, µy, νz), soit f : D → R une application continue. Soit ∆ tel que ϕ(∆) = D.
Alors ZZZ ZZZ
f (ϕ(x, y, z))|λµν|dxdydz = f (u, v, w)dudvdw.
∆ D
38 CHAPITRE 1. INTÉGRATION
Définition 1.3.33. Une isométrie est une application qui préserve les longueurs. Plus précisé-
ment ϕ : R3 → R3 est une isométrie si, pour tous P ∈ R3 et Q ∈ R3
Distance(ϕ(P ), ϕ(Q)) = Distance(P, Q)
Propriété 1.3.34. Si ϕ est une isométrie alors jϕ (x, y, z) = 1 pour tout (x, y, z) ∈ R3 .
Corollaire 1.3.35. Soit ϕ une isométrie de R3 . Soit f : D → R une application continue avec
D domaine régulier de R3 . Soit ∆ tel que ϕ(∆) = D. Alors
ZZZ ZZZ
f (ϕ(x, y, z))dxdydz = f (u, v, w)dudvdw.
∆ D
par linéarité de l’intégrale par découpage. Soit ϕ la symétrie axiale de plan (Oxy) (on a ϕ(x, y, z) =
(x, y, −z)). On a ϕ(B− ) = B+ . Par conséquent, par la formule du changement de variable appliqué
à ϕ et à l’application constante 1,
ZZZ ZZZ
dxdydz = dudvdw
B− B+
et donc
1
Volume(B− ) = Volume(B+ ) = Volume(B).
2
Coordonnées cylindriques
On considère l’application ϕ : [0, ∞[ × [−π, π] × R → R3 définie par
ϕ(r, θ, z) = (r cos(θ), r sin(θ), z).
Cette application est C 1 . Soit Ω le plan R2 privé de l’axe réel négatif. On admet que l’application
ϕ est une bijection de ]0, ∞[ × ]−π, π[ × R dans Ω × R de réciproque C 1 .
La proposition suivante se déduit de la propriété analogue pour le changement de coordonnées
polaires dans le plan.
Proposition 1.3.38. Pour tout (r, θ, z) ∈ [0, ∞[ × [−π, π] × R, on a jϕ (r, θ, z) = r.
Corollaire 1.3.39. Soit f : D → R une fonction continue sur D domaine régulier de R3 . Soit
∆ un domaine régulier tel que ϕ(∆) = D. Alors
ZZZ ZZZ
f (r cos(θ), r sin(θ), z)rdrdθdz = f (x, y, z)dxdydz.
∆ D
1.3. INTÉGRATION DES FONCTIONS DE TROIS VARIABLES 39
Coordonnées sphériques
On considère l’application ψ : [0, ∞[ × [−π, π] × [0, π] → R3 définie par
ψ(r, θ, φ) = (r cos(θ) sin(φ), r sin(θ) sin(φ), r cos(φ)).
Cette application est C 1 .
Proposition 1.3.41. Pour tout (r, θ, φ) ∈ [0, ∞[ × [−π, π] × [0, π], on a jψ (r, θ, φ) = r2 sin(φ).
Corollaire 1.3.42. Soit f : D → R une fonction continue sur D domaine régulier de R3 . Soit
∆ un domaine régulier tel que ψ(∆) = D. Alors
ZZZ ZZZ
f (r cos(θ) sin(φ), r sin(θ) sin(φ), r cos(φ))r2 sin(φ)drdθdφ = f (x, y, z)dxdydz.
∆ D
40 CHAPITRE 1. INTÉGRATION
Définition
On généralise R, R2 et R3 :
— un élément de R2 est un couple (x, y) où x, y ∈ R ;
— un élément de R3 est un triplet (x, y, z) où x, y, z ∈ R ;
— un élément de Rn est un n-uplet (x1 , . . . , xn ) où x1 , . . . , xn ∈ R.
On note souvent → −
v = (x1 , . . . , xn ). Les éléments de Rn sont appelés vecteurs (de Rn ). L’entier n
→
−
est la dimension de Rn . Le vecteur nul de Rn est le vecteur 0 = (0, . . . , 0). On écrit parfois les
vecteurs verticalement (on parle de notation matricielle)
x1
x2
→
−v = . .
..
xn
Opérations
— On peut additionner deux vecteurs de Rn : si →
−
u = (x1 , . . . , xn ) et →
−
v = (y1 , . . . , yn ) alors
→
−
u +→
−
v = (x1 + y1 , . . . , xn + yn ).
λ→
−
u = (λx1 , . . . , λxn ).
Combinaisons linéaires
Soient −
→, . . . , −
u1
→ des vecteurs de Rn . On note
up
→
−
uj = (xj1 , . . . , xjn ).
λ1 −
→ + ··· + λ − → p
p up = λ1 x1 + · · · + λp x1 , . . . , λ1 xn + · · · + λp xn .
1 1 p
u1
41
42 CHAPITRE 1. INTÉGRATION
Les combinaisons linéaires sont un peu plus lisibles en écrivant les vecteurs verticalement
p
x11 λ1 x11 + · · · + λp xp1
x1
. . ..
λ1 −
→ + ··· + λ −
u →
p up = λ1 .. + · · · + λp .. = . .
1
x1n xpn λ1 x1n + · · · + λp xpn
Idée de la preuve. Le vecteur (−b, a) est orthogonal au vecteur (a, b). L’ensemble des vecteurs
colinéaires à (a, b) est exactement l’ensemble des vecteurs orthogonaux à (−b, a). Enfin (x, y) est
orthogonal à (−b, a) si et seulement si −bx + ay = 0. Ce qu’on voulait.
On note P = Vect(→
−
u,→
−
v)
Attention : un même plan est défini par plusieurs vecteurs générateurs. Par exemple, le plan
horizontal {z = 0} dans R3 est engendré par les vecteurs (1, 0, 0) et (0, 1, 0) mais aussi par les
vecteurs (1, 2, 0) et (3, 1, 0).
Attention : une droite est aussi définie par plusieurs vecteurs générateurs. Par exemple les
vecteurs (1, 1, 1) et (2, 2, 2) engendrent la même droite de R3 .
Base canonique de Rn
Dans Rn , on a n axes de coordonnées engendrés par
→−
e1 = (1, 0, . . . , 0)
→−
e2 = (0, 1, . . . , 0)
..
.
−
e→n = (0, 0, . . . , 1)
→
−
v = (x1 , . . . xn ) = x1 →
−
e1 + · · · + xn −
e→
n.
La famille (→
−
e1 , . . . , −
e→
n ) est la base canonique de R .
n
44 CHAPITRE 1. INTÉGRATION
Chapitre 2
Systèmes linéaires
Le but de chapitre est de développer une méthode générale de résolution des systèmes linéaires.
Voici quelques exemples de systèmes linéaires
x1 + x2 + x3 = 1
(S1 ) x1 + 2x2 + x3 = −2
x1 + 2x2 + 3x3 = 2
(
x1 + 7x2 − x23 = 0
(S2 )
x1 + x2 + x3 = π
x1 + x2 = 1
(S3 ) 3x1 − 4x2 = 0
3 + 5 = −3
x1
x2
45
46 CHAPITRE 2. SYSTÈMES LINÉAIRES
On a alors
x = 2
(S) ⇔ y = −2
z=1
On a alors
x + y + z = 0
(Sa ) ⇔ ay = −3
z=2
2.2. SYSTÈMES PARTICULIERS 47
Si a = 0, on obtient
x + y + z = 0
(S0 ) ⇔ 0 = −3
z=2
(Sa ) ⇔ y = − a3 ⇔ y = − a3
z=2 z=2
On a alors
x + y + z = 0
(Sa ) ⇔ ay = 0
′
z = 12
Si a = 0, on obtient
x + y + z = 0 x = − 2 − y
1
(S0′ ) ⇔ 0 = 0 ⇔ 0=0
z = 21 z = 12
1 1
S= − − y, y, ,y ∈ R .
2 2
Si a ̸= 0, on obtient
x + y + z = 0 x = − 2
1
(Sa′ ) ⇔ y = 0 ⇔ y=0
z = 12 z = 21
On remarque que le nombre de solutions dépend du paramètre. Le point crucial est la non-
nullité des coefficients diagonaux !
Définition 2.2.5. Un système linéaire triangulaire est dit de Cramer si tous ses coefficients
diagonaux sont non nuls : aii ̸= 0 pour tout 1 ≤ i ≤ n = p.
Exemple 2.2.9.
x + 2y = 0
( (
x−y+z =1 x−y+z =1
(S1 ) (S2 ) (Sa ) 3y = 1 .
2y + z = 2 z=1
0=a
Définition 2.2.11. Un système linéaire échelonné est compatible s’il n’a pas d’équation de com-
patibilité ou si toutes ses équations de compatibilité sont du type 0 = 0.
Exemple 2.2.12.
— Dans (S1 ), les inconnues principales sont x et y. L’inconnue z est secondaire.
— Dans (S2 ), les inconnues principales sont x et z. L’inconnue y est secondaire.
— Dans (Sa ) les inconnues x et y sont principales. Il n’y a pas d’inconnues secondaires.
— Dans les systèmes de Cramer toutes les inconnues sont principales.
— La dernière ligne de (Sa ) est une équation de compatibilité. Le système (Sa ) est compatible
si et seulement si a = 0.
Proposition 2.2.13.
1. Un système linéaire échelonné possède des solutions si et seulement s’il est compatible.
2. Les solutions d’un système échelonné compatible sont déterminées de manière unique par
les valeurs des inconnues secondaires.
On a (
x=3−z
(S) ⇔
y = 2 − 2z
Cet exemple est particulièrement simple car il y a uns seule inconnue principale par ligne.
Définition 2.2.15. Un système linéaire échelonné est dit réduit si tous ses pivots sont égaux à
1 et si les pivots sont les seuls éléments non nuls de leur colonne.
2.3. SYSTÈMES ÉQUIVALENTS ET TRANSFORMATIONS ÉLÉMENTAIRES 49
Exemple 2.2.16. (
x+z =3
y + 2z = 2
Les systèmes linéaires échelonnés réduits compatibles sont faciles à résoudre : on dépalce
toutes les inconnues secondaires dans le second membre, elles sont dites libres et deviennent les
paramètres du système.
Pour résoudre un système échelonné compatible (mais pas forcément réduit), on déplace toutes
les inconnues qui ne sont pas en tête de ligne dans le second membre, puis, en commençant par
la dernière ligne, on remplace les inconnues principales qui ne sont pas en têtes de ligne par le
paramétrage obtenus dans les lignes inférieurs du système.
Exemple 2.2.17. Un premier exemple très simple.
(
x−y =1
(S)
y=1
On a ( (
x=1+y x=2
(S) ⇔ ⇔
y=1 y=1
Exemple 2.2.18. Un exemple avec une infinité de solutions.
(
x−y+z =1
(S)
2y + z = 2
On a ( (
x=1+y−z x=1+1− z
−z =2− 3z
(S) ⇔ ⇔ 2 2 .
y = 1 − z2 y = 1 − z2
Au final, l’ensemble des solutions de (S) est S = {(2 − 3z/2, 1 − z/2, z), z ∈ R}.
Et on obtient donc (le dernier système devient échelonné quand on permute les lignes)
z = 1
y=1
x=1
Si la colonne
a11
a21
..
.
an1
est nulle, alors x1 est une inconnue secondaire et il n’y a rien à faire à cette étape. Sinon, il existe
i0 tel que ai0 1 ̸= 0. Si besoin, on intervertit L1 et une autre ligne pour obtenir a11 ̸= 0. Puis, on
utilise L1 pour annuler tous les coefficients devant x1 dans les lignes suivantes : pour tout i ≥ 2,
on pose
ai1
Li → Li − L1 .
a11
On obtient alors un système équivalent de la forme
a11 x1 + a12 x2 + · · · + a1p xp = y1 (L1 )
a′22 x2 + · · · + a′2p xp = y2′ (L′2 )
.. .. .. .
. . .
a′n2 x2 + · · · + a′np xp = yn′ (L′n )
2.4. ALGORITHME DE PIVOT DE GAUSS-JORDAN 51
En effet, on a
Ce nouveau système a une ligne de moins. L’algorithme finit donc par s’arrêter et quand il s’arrête,
on obtient un système échelonné.
Si on veut obtenir un système échelonné réduit, on commence par re normaliser les colonnes
pour obtenir 1 comme pivot
1
Li → Li
aij0
où aij0 est le pivot de la ligne Li . Puis on procède comme à l’étape précédente en partant de la
dernière ligne et en utilisant les pivots pour annuler tous les autres éléments de la colonne.
Exemple 2.4.2.
x 1 + x 2 + x 3 = 1
x1 + x2 + x3 = 1
(S1 ) x1 + 2x2 + x3 = −2 ⇔L2 →L′2 =L2 −L1 0 + x2 + 0 = −3
x1 + 2x2 + 3x3 = −2 x1 + 2x2 + 3x3 = −2
x 1 + x 2 + x 3 = 1
x1 + x2 + x3 = 1
⇔L3 →L′3 =L3 −L1 x2 = −3 ⇔L′3 →L′′3 =L′3 −L′2 x2 = −3
x2 + 2x3 = −3 0 + 2x3 = 0
Exemple 2.4.3.
2x1 + x2 + 3x3 = 1
2x1 + x2 + 3x3 = 1
(S2 ) x1 + 3x2 − x3 = 2 ⇔L2 →L′2 =L2 −1/2L1 0 + 52 x2 − 25 x3 = 32
−x1 + 2x2 − 4x3 = 1 −x1 + 2x2 − 4x3 = 1
2x1 + x2 + 3x3 = 1
2x1 + x2 + 3x3 = 1
2 x2 − 2 x3 = 2 2 x2 − 2 x3 = 2
5 5 3 5 5 3
⇔L3 →L′3 =L3 +1/2L1 ⇔L′3 →L′′3 =L′3 −L′2
0 + 25 x2 − 52 x3 = 32 0=0
52 CHAPITRE 2. SYSTÈMES LINÉAIRES
On obtient un système linéaire échelonné (T ). Une équation de compatibilité est apparue et elle
est satisfaite, notre système admet donc des solutions. Les variables x1 et x2 sont les inconnues
principales de (T ) et x3 est une inconnue secondaire de (T ). On réduit (T )
( ( (
x1 + 21 x2 + 32 x3 = 12 x1 + 2x3 = 51 x1 = −2x3 + 15
(T ) ⇔ ⇔L →L − 1
L ⇔
x2 − x3 = 35 1 1 2 2
x2 − x3 = 35 x2 = x3 + 53
1 3
S= −2x3 + , x3 + , x3 , x3 ∈ R .
5 5
Dans cet exemple, il aurait été plus efficace de commencer par permuter L1 et L2 pour que le
premier pivot soit 1 (ça évite d’avoir des fractions un peu partout). Ça vaut la peine de réfléchir
avant de commencer à appliquer l’algorithme !
2x1 + x2 + 3x3 = 1
2x1 + x2 + 3x3 = 1
2 x2 − 2 x3 = 2 2 x2 − 2 x3 = 2
5 5 3 5 5 3
⇔L3 →L′3 =L3 +1/2L1 ⇔L′3 →L′′3 =L′3 −L′2
0 + 25 x2 − 52 x3 = 52 0=1
Il y a une équation de compatibilité non satisfaite donc le système n’admet pas de solution. Donc
(S2′ ) n’a pas de solution.
Exemple 2.4.5. On peut aussi appliquer l’algorithme de Gauss-Jordan sur la présentation ma-
tricielle du système.
x1 + x2 = 1
(Sa ) x1 + 3x2 = 2
x1 + 4x2 = a
1 2 1
1 3 2 .
1 4 a
On a alors
1 2 1 1 2 1 1 2 1
1 3 2 ⇔ 0 1 1 ⇔ 0 1 1
1 4 a 0 2 a−1 0 0 a−3
La dernière ligne est une équation de compatibilité. Elle est satisfaite si et seulement si a = 3.
Si a ̸= 3, le système est incompatible et (Sa ) n’a pas de solution. Si a = 3, les système linéaire
échelonné équivalent (T ) est compatible. On le met sous forme réduite
1 2 1 1 0
−1
⇔
0 1 1 0 1 1
2.5. LA NOTION DE RANG 53
A= 1 3 −1
−1 2 −4
est 2 (c’est la matrice associée à (S2 )).
Théorème 2.5.7. Soit r le rang d’un système linéaire à p inconnue et n équations. Alors r ≤ n
et r ≤ p. De plus
r=p r<p
r=n solution unique infinité de solution
r<n 0 ou 1 solution 0 ou infinité de solution
Quelques commentaires sur le tableau...
1. Si r = n, il n’y a pas d’équation de compatibilité et il y a donc toujours des solutions.
2. Si r < n, il y a des équations de compatibilités (et le système est potentiellement incompa-
tible).
3. Si r = p, toutes les inconnues sont principales (donc il y a au plus une solution).
4. Si r < p, il y a des inconnues secondaires (donc s’il existe des solutions il y en a une
infinité).
54 CHAPITRE 2. SYSTÈMES LINÉAIRES
Chapitre 3
f (λ→
−
u + µ→
−
v ) = f (λx1 + µx2 , λy1 + µy2 , λz1 + µz2 )
= (λx1 + µx2 + λy1 + µy2 , λz1 + µz2 − (λx1 + µx2 ))
= (λx1 + λy1 , λz1 − λx1 ) + (µx2 + µy2 , µz2 − µx2 )
= λ (x1 + y1 , z1 − x1 ) + µ (x2 + y2 , z2 − x2 )
= λf (→
−u ) + µf (→−v ).
f (λ→
−
u + µ→
−
v ) = f (λ→
−
u ) + f (µ→
−
v ) = λf (→
−
u ) + µf (→
−
v ).
f (λ1 −
→ + ··· + λ −
u1
→ −
→ −
→
r ur ) = λ1 f (u1 ) + · · · + λr f (ur ) .
55
56 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
Par linéarité de f , on a
−−→
f (u′r−1 ) = λr−1 f (−
u−→ −
→
r−1 ) + λr (ur ) .
On en déduit
f (λ1 −
→ + ··· + λ −
u1
→ −
→ −
→
r ur ) = λ1 f (u1 ) + · · · + λr f (ur ) .
Démonstration.
→
− →
−
1. f 0 = f (0→
−
u ) = 0f (→
−
u) = 0
2. Soit D→ →
−
u la droite vectorielle engendrée par u un vecteur non nul de R :
− p
→
−
u = {λ u , λ ∈ R} .
D→
−
On a →−v ∈ f (D→ →
− →
− →
− →
−
u ) ⇔ v = f (λ u ) pour un λ ∈ R ⇔ v = λf ( u ) pour un λ ∈ R. Ainsi si
−
→
− →
− →
−
f (→
−
u ) = 0 , on a f (D→ →
−
u ) = 0 . Sinon, f ( u ) ̸= 0 et f (D→
− u ) = Df (→
− u ).
−
— si f (→−u ) et f (→
−v ) ne sont pas colinéaires f P→ v = Pf (→ v ).
−
u ,→
− −u ),f (→
−
f (x1 , . . . , xp ) = x1 −
→ + ··· + x −
u1
→
p up .
3.2. MATRICE D’UNE APPLICATION LINÉAIRE 57
0.5
−0.5 0 0.5 1
−0.5
−1
−1.5
Soit →
−
x = (x1 , . . . , xp ) et →
−
y = (y1 , . . . , yn ). On a
a11 a1p
a21 a2p
f (→
−
x ) = x1 f (→
−
e1 ) + · · · + xp f (→
−
ep ) = x1 −
→ + ··· + x −
u →
p up = x1 . + · · · + xp .
.. ..
1
an1 anp
a11 x1 + a12 x2 + · · · + a1p xp
a21 x1 + a22 x2 + · · · + a2p xp
= ..
.
an1 x1 + an2 x2 + · · · + anp xp
58 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
L’équation f (→
−
x)=→
−
y s’écrit
f (→
−
e1 ) = −
→, . . . , f (→
u 1
−
ep ) = −
→.
up
alors
f (x1 , . . . , xp ) = x1 −
→ + ··· + x −
u1
→
p up .
On voudrait calculer f (→
−
x ) matriciellement. On part de A une matrice à n lignes et p colonnes et
X un vecteur à p lignes et 1 colonne
a11 a12 · · · a1p x1
a21 a22 · · · a2p x2
A= . .. .. .. X = . .
.. . . . ..
an1 an2 · · · anp xp
On a
a11 x1 + a12 x2 + · · · + a1p xp
a11 a12 ··· a1p x1
··· x2 a21 x1 + a22 x2 + · · · + a2p xp
a21 a22 a2p
AX = . .. .. .. .. = .. .
.. . . . . .
an1 an2 ··· anp xp an1 x1 + an2 x2 + · · · + anp xp
Exemple 3.3.1. Pour
1
1 3 5
A= X = −1 .
2 4 6
2
On obtient
1
1 3 5 −1 = 8 .
AX =
2 4 6 10
2
Attention : si le nombre de colonnes de A n’est pas égal au nombre de lignes de X, le produit
AX n’est pas défini.
Remarque 3.3.2. Le nombre de lignes de AX est égal au nombre de lignes de A (et son nombre
de colonnes est égal au nombre de colonnes de X, c’est à dire 1). Le produit AX est un cas
particulier de produit entre deux matrices (voir plus loin).
Remarque 3.3.3. Si A est écrite sous forme de colonnes A = (C1 | . . . |Cp ) alors
AX = x1 C1 + · · · + xp Cp .
3.4. EXEMPLES D’APPLICATIONS LINÉAIRES 59
Par conséquent
sλ (x, y) = (ax − by, bx + ay).
En particulier sλ (1, 0) = (a, b) et sλ (0, 1) = (−b, a). L’application sλ est linéaire de matrice dans
la base canonique
a −b
Sλ =
b a
Exemple 3.4.2.
1. Si λ = a ∈ R∗ alors sλ est l’homothétie de rapport a. La matrice associée est
a 0
Sa = .
0 a
2. Si λ = eiθ = cos(θ) + i sin(θ), Sλ est la rotation d’angle θ (et de centre O). En effet, pour
reiα ∈ C, on a
sλ (reiα ) = rei(θ+α)
On a
cos(θ) − sin(θ)
Sλ =
sin(θ) cos(θ)
et
sλ (x, y) = (cos(θ)x − sin(θ)y, sin(θ)x + cos(θ)y)
pour tout (x, y) ∈ R .
2
3. Dans le cas général, on écrit λ = reiθ . On a alors sλ = sr ◦ seiθ = seiθ ◦ sr , autrement dit,
sλ est la composée d’un rotation d’angle θ et d’une homothétie de rapport r.
Remarque 3.4.3. Une similitude préserve les angles et multiplie les longueurs par r.
pour a, b, c, d ∈ R. On a alors f (→
−
e1 ) = (a, b) et f (→
−
e2 = (c, d). En général, une telle application ne
préserve pas les angles ou les distances. On peut même avoir f (→ −
e1 ) = (0, 0) !
Exemple 3.4.4.
60 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
1. Si
1 0
A=
0 1
l’application linéaire associée est l’identité (f (x, y) = (x, y) pour tout (x, y) ∈ R2 ).
2. Si
λ 0
A=
0 µ
l’application linéaire associée est une dilatation (de paramètres λ et µ).
3. Si
0 0
A=
0 1
l’application linéaire associée est la projection orthogonale sur (Oy).
4. Si
1 0
A=
0 −1
l’application linéaire associée est la symétrie axiale d’axe (Ox). Si
0 1
A=
1 0
l’application linéaire associée est la symétrie axiale d’axe la première bissectrice (c’est à dire
la droite d’équation y = x).
Rθ (0, 0, 1) = (0, 0, 1)
Mn,p (R)
l’ensemble des matrices à n lignes et p colonnes (et à coefficients dans R. Par ce qui précède
L(Rp , Rn ) et Mn,p (R) sont en bijection.
3.5. OPÉRATIONS SUR LES MATRICES ET SUR LES APPLICATIONS LINÉAIRES 61
3.5.1 Addition
Dans L(Rp , Rn ), on peut additionner deux applications linéaires : si f, g ∈ L(Rp , Rn ) alors
f + g est défini par
(f + g)(→
−u ) = f (→
−
u ) + g(→
−
u)
→
−
pour tout u ∈ Rp .
Proposition 3.5.1. On a f + g ∈ L(Rp , Rn ).
Démonstration. Pour tous →
−
u,→−v ∈ Rp et tous λ, µ ∈ R, on a
(f + g)(λ→
−u + µ→
−v ) = f (λ→
−
u + µ→−v ) + g(λ→
−
u + µ→
−
v)
= λf (→
−u ) + µf (→
−v ) + λg(→
−u ) + µg(→−v)
→
− →
− →
− →
−
= λ(f ( u ) + g( u )) + µ(f ( v ) + g( v ))
= λ(f + g)(→
−
u ) + µ(f + g)(→
−
v)
Donc f + g préserve les combinaisons linéaires : c’est donc une application linéaire.
On peut également additionner deux matrices A, B ∈ Mn,p (R) : la matrice A + B ∈ Mn,p (R)
est définie par (A + B)ij = aij + bij où A = (aij ) et B = (bij ).
Exemple 3.5.2. Pour
1 3 5 0 1
−1
A= B=
2 4 6 2 −8 2
on obtient
0 3 6
A+B = .
4 −4 8
Proposition 3.5.3. Soient f, g ∈ L(Rp , Rn ). On note Mat(f ), Mat(g) et Mat(f +g) les matrices
associées à f , g et f + g. Alors
Mat(f + g) = Mat(f ) + Mat(g).
Démonstration. on écrit Mat(f ) = (ai,j ) et Mat(g) = (bi,j ). Pour obtenir la j-ième colonne de
Mat(f ) + Mat(g), on calcule
a1j + b1j
a1j b1j
a2j b2j a2j + b2j
(f + g)(→−
ej ) = f (→
−
ej ) + g(→
−
ej ) = . + . = .. .
.. .. .
anj bnj anj + bnj
Et on obtient bien la j-ième colonne de Mat(f + g)
Exemple 3.5.4. On considère les applications linéaires f : R2 → R2 et g : R2 → R2 définies par
f (x, y) = (x + y, y) et g(x, y) = (−x + y, x) pour tout (x, y) ∈ R2 . On a alors
1 1 −1 1
Mat(f ) = Mat(g) = .
0 1 1 0
Pour tout (x, y) ∈ R2 , on a (f + g)(x, y) = (2y, x + y). Par conséquent
0 2
Mat(f + g) = .
1 1
Enfin
1 1 1 0 2
−1
Mat(f ) + Mat(g) = + =
0 1 1 0 1 1
ce qui était prédit par la proposition.
62 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
(νf )(→
−
u ) = νf (→
−
u)
pour tout →
−
u ∈ Rp .
Proposition 3.5.5. On a νf ∈ L(Rp , Rn ).
Démonstration. Pour tous →
−
u,→
−
v ∈ Rp et tous λ, µ ∈ R, on a
(νf )(λ→
−
u + µ→
−
v ) = νf (λ→
−
u + µ→
−
v ) = λνf (→
−
u ) + µνf (→
−
v ) = λ(νf )(→
−
u ) + µ(νf )(→
−
v ).
(f ◦ g)(→
−
u ) = f (g(→
−
u ))
pour tout →
−
u ∈ Rp .
Proposition 3.5.7. On a f ◦ g ∈ L(Rp , Rn ).
Démonstration. Pour tous →
−
u,→
−
v ∈ Rp et tous λ, µ ∈ R, on a
(f ◦ g)(λ→
−
u + µ→
−
v ) = f (g(λ→
−u + µ→−v ))
= f (λg( u ) + µg(→
→
− −
v ))
= λf (g(→
−
u )) + µf (g(→
−v )))
= λ(f ◦ g)( u ) + µ(f ◦ g)(→
→
− −
v ).
Définition 3.5.8. Soit A = (aij ) ∈ Mn,q (R) et B = (bij ) ∈ Mq,p (R). On définit le produit de A
et B par AB = C = (cij ) ∈ Mn,p (R) par
q
X
cij = ai1 b1j + ai2 b2j + · · · + aiq bqj = ail blj .
l=1
on multiplie
la i-ième ligne de A, c’est à dire (ai1 , ai2 , . . . , aiq ) par la j-ième colonne de B, c’est
b1j
b2j
à dire . .
..
bqj
Exemple 3.5.9. Pour
0
−1
1 3 5
A= B= 2 −1
2 4 6
0 0
on obtient
5
−3
AB = .
6 −4
Proposition 3.5.10. Soient g ∈ L(Rp , Rq ) et f ∈ L(Rq , Rn ). On note Mat(f ), Mat(g) et Mat(f ◦
g) les matrices associées à f , g et f ◦ g. Alors
Ainsi
b1j a11 + · · · + bqj a1q
b1j a21 + · · · + bqj a2q
(f ◦ g)(→
−
ej ) = ..
.
b1j ap1 + · · · + bqj apq
et le coefficient de la j-ième ligne est bien le coefficient annoncé.
Exemple 3.5.11. Soit s la symétrie d’axe (Oy) dans R2 . La matrice de s dans la base canonique
est
−1 0
A=
0 1
64 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
On a
0 0 1 0
−1 −1
A2 = = .
0 1 0 1 0 1
Ce qui correspond au fait que s ◦ s = id.
Proposition 3.5.12. Les opérations sur les application linéaires et les matrices vérifient les
propriétés suivantes. On suppose les dimensions choisies pour que les formules aient un sens.
1. (Associativité) (f ◦ g) ◦ h = f ◦ (g ◦ h) ↔ (AB)C = A(BC).
2. (Distributivité par rapport à l’addition)
(f + g) ◦ h = f ◦ h + g ◦ h ↔ (A + B)C = AC + BC
f ◦ (g + h) = f ◦ g + f ◦ h ↔ A(B + C) = AB + AC.
Exemple 3.5.13.
2 2
1 1 1 0 0 1
= +
0 2 0 2 0 0
2 2
1 0 1 0 0 1 0 1 1 0 0 1
= + + +
0 2 0 2 0 0 0 0 0 2 0 0
1 0 0 1 0 1 0 0
= + + +
0 4 0 0 0 0 0 0
1 2
=
0 4
On remarque sur cet exemple que le produit AB n’est pas toujours égal au produit BA et qu’on
peut avoir AB = 0 même si A ̸= 0 et B ̸= 0...
3.6 Endomorphismes
Définition 3.6.1. Si p = n, une application linéaire f : Rp → Rp est appelée un endomorphisme.
On note End(Rp ) l’ensemble des endomorphismes de Rp et Mp (R) l’ensemble des matrices carrées
à p lignes et p colonnes.
Remarquons qu’on peut toujours multiplier deux matrices carrées de taille p et qu’on peut
toujours composer deux endomorphismes de Rp .
L’identité, notée id, est un endomorphisme très particulier de Rp défini par id(→
−
u) = →
−
u pour
→
−
tout u ∈ R . Sa matrice associée (dans la base canonique) est
p
1 0 ... 0
0 1 . . . 0
Id = . . ..
.. .. .
0 0 ... 1
Proposition 3.6.2.
3.7. APPLICATIONS LINÉAIRES INJECTIVES, SURJECTIVES ET BIJECTIVES 65
f −1 (λ→
−
u + µ→
−
v)=→
−
w = λf −1 (→
−
u ) + µf −1 (→
−
v)
Théorème 3.7.5. Soit f : Rp → Rn linéaire. Soit A ∈ Mn,p (R) la matrice associée dans les
bases canoniques. On note r le rang de A.
1. Si f est injective alors p ≤ n et r = p.
2. Si f est surjective alors p ≥ n et r = n.
3. Si f est bijective alors p = n = r.
Démonstration.
→
−
1. Le système d’équation f (→−
u ) = 0 est un système homogène à p inconnues et n équation.
Comme ce système est homogène, il est compatible. Si p > n ou p > r, il y a des inconnues
secondaires et comme le système est compatible, il a une infinité de solution. La fonction f
ne peut donc pas être injective.
→
−
2. On considère le système f (→
−u ) = 0 . Si p < n ou r < n, il y a des équations de compatibi-
lités après échelonnement du système. On considère la première ligne de compatibilité qui
apparaît. On note i0 son indice et on considère le système f (→−u) = −e→
i0 . On échelonne ce
nouveau système. La ligne de compatibilité i0 devient 0 = 1. Le système n’a pas de solution
et f n’est pas surjective.
3. Si f est bijective, elle est injective et surjective. Les points précédents montrent donc que
n = p.
Théorème 3.7.7. Soit f ∈ End(Rp ). On note A ∈ Mp (R) la matrice associée dans la base
canonique. Alors les affirmations suivantes sont équivalentes
1. f est injective
2. f est surjective
3. f est bijective
4. A est de rang p.
A = 1 2 1 .
2 3 2
On vérifie que A est inversible en calculant son rang (en effectuant des opérations sur les lignes)
1 1 0 1 1 0
1 2 1 ↔L2 →L2 −L1 ,L3 →L3 −2L1 0 1 1
2 3 2 0 1 2
1 1 0
x 1 + x 2 = y 1
x1 = y1 − 2y2 + y3
⇔ x2 = −y3 + 2y2 ⇔ x2 = 2y2 − y3
x3 = y3 − y2 − y1 x3 = −y1 − y2 + y3
68 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
On obtient donc
1 1
−2
A−1 = 0 2 −1
−1 −1 1
Présentation matricielle du même calcul
1 1 0 1 0 0 1 1 0 1 0 0 1 1 0 1 0 0
1 2 1 0 1 0 ↔ 0 1 1 −1 1 0 ↔ 0 1 1 −1 1 0
2 3 2 0 0 1 0 1 2 −2 0 1 0 0 1 −1 −1 1
1 1 0 1 0 0 1 0 0 1 −2 1
↔ 0 1 0 0 2 −1 ↔ 0 1 0 0 2 −1
0 0 1 −1 −1 1 0 0 1 −1 −1 1
1
d −c
A−1 = .
det(A) −b a
Démonstration. On suppose det(A) = 0. Si tous les coefficients de A sont nuls, alors A n’est pas
inversible. On suppose qu’un des coefficients de A n’est pas nul. On a
0
a c d ad − bc
= =
b d −b bd − bd 0
et
0
a c c ac − ac
= =
b d −a bc − ad 0
On obtient donc un vecteur non nul d’image nulle par A. On en déduit que A n’est pas injective
et donc pas un isomorphisme.
On suppose maintenant que det(A) ̸= 0. On montre alors que
1
d −c
B=
det(A) −b a
1 1
d −c a c ad − bc cd − cd
= = Id
det(A) −b a b d det(A) −ab + ab ad − bc
1 1 ad − bc −ac + ac
a c d −c
= = Id
det(A) b d −b a det(A) bd − bd ad − bc
donc A est inversible et A−1 = B.
3.8. MATRICES INVERSIBLES 69
1 3
A=
2 4
1 4
−3
A−1 = −
2 −2 1
a pour déterminant det(A) = a2 + b2 . Elle est donc inversible si a et b ne sont pas tous les deux
nuls. Dans ce cas, son inverse est
1
a b
A −1
= 2
a + b2 −b a
1 1 a − ib a b
= = 2 = 2 −i 2 .
λ a + ib a + b2 a + b2 a + b2
cos(θ) − sin(θ)
.
sin(θ) cos(θ)
Cette matrice est de déterminant 1. Son inverse est la matrice de la rotation d’angle −θ et de
centre O dans la base canonique
cos(θ) sin(θ)
.
− sin(θ) cos(θ)
Théorème 3.8.11. Soit A ∈ M2 (R). Alors det(A) est l’aire orientée du parallélogramme P de
côtés A→
−
e1 , A→
−
e2 .
Démonstration. Soit
a c
A= .
b d
70 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
→
−
v
→
−
u
→
−
w
On a → −
u = (a, b), →
−
v = (c, d) et →−
w est le projeté de →
−
v sur la droite orthogonale à →
−
u passant par
→
−′
l’origine. Cette droite est dirigée par le vecteur u = (−b, a). On a
Aire(P ) = ∥→
−
u ∥ · ∥→
−
w ∥.
Or
→
−
∥→
−
p
u ∥ = ∥ u′ ∥ = a2 + b2 .
et
∥→
−
w ∥ = ∥→
−
v ∥| cos(θ)|.
On en déduit
|ad − bc|
∥→
−
w∥ = √
a2 + b2
et
Aire(P ) = |ad − bc|.
Exemple 3.8.12. Les matrices des isométries sont des matrices déterminant 1.
Le déterminant a à voir avec le jacobien du chapitre sur l’intégration (mais ce n’est pas pour
cette année).
3.9. APPLICATION 1 : ANALYSE ENTRÉE-SORTIE EN ÉCONOMIE 71
et
p1
P = ... .
pn
Les secteurs dépendent les uns des autres : on note aij le réel tel que le secteur Sj consomme aij
€ du secteur Si pour produire 1€ de produit. La matrice (aij ) est appelée tableau entrée sortie
du système. Dans l’exemple précédent :
1000
C=
780
i
P =
e
0 0, 1
A=
0, 2 0
La demande globale est alors
C + AP.
On cherche à produire P tel que
P = C + AP
ou encore P tel que
(Id − A)P = C.
On obtient donc un système à résoudre.
72 CHAPITRE 3. MATRICES ET APPLICATIONS LINÉAIRES
Définition 3.9.1. L’économie est dite productive si pour chaque secteur, la production d’1€
nécessite strictement moins d’1€ de dépense dans les autres secteurs, c’est à dire si, pour tout
1 ≤ j ≤ n,
n
X
a1j + · · · + anj = aij < 1.
i=1
Théorème 3.9.2. Si l’économie est productive, alors la matrice Id − A est inversible. Ainsi
l’équation (Id − A)P = C (d’inconnues p1 , . . . , pn ) admet exactement une solution.
Démonstration. On veut montrer que (Id − A)X = 0 implique que X est le vecteur nul. On
conclut alors, par la caractérisation des applications linéaires injectives que l’application linéaire
f associée à Id − A est injective. On considère donc X tel que (Id − A)X = 0. On en déduit que
AX = X. Et donc, pour tout 1 ≤ i ≤ n
x
X n
X
|xi | = aij xj ≤ aij |xj |.
j=1 j=1
Remarque 3.9.3. Ce modèle de l’économie est évidemment simpliste. Par exemple, les dépen-
dances entre les secteurs ne sont a priori pas linéaires (mais on peut linéariser).
Chapitre 4
Exemple 4.1.3. L’ensemble des solutions d’un système linéaire homogène à p inconnues et n
équations est un sous-espace vectoriel de Rp . En effet, si b = (b1 , . . . , bp ) et b′ = (b′1 , . . . , b′p ) sont
solution du système
a11 x1 + a12 x2 + · · · + a1p xp = 0
a21 x1 + a22 x2 + · · · + a2p xp = 0
..
.
an1 x1 + an2 x2 + · · · + anp xp = 0
donc λb + µb′ est solution. Donc l’ensemble des solutions est un sous-espace vectoriel de Rp .
73
74 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
Définition 4.1.4. Soit f ∈ L(Rp , Rn ). Soit A la matrice de f dans les bases canoniques.
1. Le noyau de f est l’ensemble
→
−
ker(f ) = {→
−
u ∈ Rp , f (→
−
u) = 0}
im(f ) = {→
−
v ∈ Rn |∃→
−
u ∈ Rp , f (→
−
u) =→
−
v }.
C’est également l’ensemble des Y tels que le système AX = Y admette au moins une
solution. On parle aussi d’image de A.
Proposition 4.1.5. Soit f ∈ L(Rp , Rn ) alors ker(f ) est un sous-espace vectoriel de Rp et im(f )
est un sous-espace vectoriel de Rn .
Démonstration.
1. Le résultat sur le noyau de f est l’équivalent linéaire du résultat sur les solutions d’un
système linéaire homogène. En voici une nouvelle preuve, orientée applications linéaires.
Soient →
−
u,→−v ∈ ker(f ) et λ, µ ∈ R. On a alors
→
−
f (λ→
−
u + µ→
−
v ) = λf (→
−
u ) + µf (→
−
v)= 0.
Donc λ→−u + µ→
−v ∈ ker(f ) et ker(f ) est un sous-espace vectoriel de Rp .
2. Soient u , v ∈ im(f ) et λ, µ ∈ R. Il existe →
→
− →
− −
x et →
−
y tels que f (→
−
x)=→ −
u et f (→
−
y)=→
−
v . Alors
f (λ→
−
x + µ→
−
y ) = λf (→
−
x ) + µf (→
−
y ) = λ→
−
u + µ→
−
v
donc λ→
−
u + µ→
−
v ∈ im(f ) et im(f ) est un sous-espace vectoriel de Rn .
Exemple 4.1.9. Les droites et les plans vectoriels de Rn sont des sous-espace vectoriels de Rn .
Démonstration. Soient →
−
u = λ1 →
−
v1 + · · · + λ p →
−
vp et →
−
v = µ1 →
−
v1 + · · · + µp →
−
vp . Soient λ, µ ∈ R. On a
λ→
−
u + µ→
−
v = (λλ1 + µµ1 )→
−
v1 + · · · + (λλp + µµp )→
−
vp ∈ Vect(→
−
v1 , . . . , →
−
vp )
im(f ) = Vect(f (→
−
e1 ), . . . , f (→
−
ep )).
En effet, si →
−
u = λ1 f (→
−
e1 ) + · · · + λp f (→
−
ep ). Alors →
−
u = f (λ1 →
−
e1 + · · · + λ p →
−
ep ) et →
−
u ∈ im(f ). Donc
Vect(f (→
−
e1 ), . . . , f (→
−
ep )) ⊂ im(f ).
im(f ) ⊂ Vect(f (→
−
e1 ), . . . , f (→
−
ep ))
et donc
im(f ) = Vect(f (→
−
e1 ), . . . , f (→
−
ep )).
Définition 4.1.11. Soient E un sous-espace vectoriel de Rp et F un sous espace vectoriel de Rn .
Une application f : E → F est linéaire si pour tous →
−
u,→
−
v ∈ E et tous λ, µ ∈ R, on a
f (λ→
−
u + µ→
−
v ) = λf (→
−
u ) + µf (→
−
v ).
→
−
v = λ1 →
−
e1 + · · · + λ n −
e→
n
où λ1 , . . . , λn ∈ R.
Définition 4.2.1. Soit E un sous-espace vectoriel de Rn . Soit B = (→
−
v1 , . . . , →
−
vp ) où →
−
v1 , . . . , →
−
vp ∈ E.
→
−
On dit que B est une base de E si tout élément v ∈ E s’écrit de manière unique comme
combinaison linéaire d’éléments de E : c’est à dire que pour tout → −v ∈ E il existe un unique
p-uplet (λ1 , . . . , λp ) ∈ R tel que
p
→
−
v = λ1 →
−
v1 + · · · + λp →
−
vp .
Exemple 4.2.2.
1. Soit →
−u ̸= 0. Alors (→
−u ) est une base de la droite D→ →
−
u . Tout multiple non nul de u est
−
−
→ −→
également une base de D→ u . Par exemple (2u) ou (−u) sont deux autres bases.
−
Comme → −
u et →−
v ne sont pas colinéaires, on obtient que λ − λ′ = 0 et µ − µ′ = 0 et donc
l’unicité de la décomposition.
La condition pour être une base contient deux conditions : l’unicité et l’existence de la dé-
composition. On peut séparer ces conditions pour obtenir deux définitions.
76 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
x+y x−y
→
−
w = ,
2 2 B
Plus généralement tout couple de vecteurs non colinéaires de R2 est une base de R2 (exercice,
attention ce n’est pas complètement immédiat).
Soit F = (→
−
v1 , . . . , →
−
vp ) une famille de vecteurs Rn . On définit alors l’application LF : Rp → Rn
par
LF (x1 . . . , xp ) = x1 →
−
v1 + · · · + x p →
−
vp .
Proposition 4.2.5.
1. L’application LF est linéaire.
2. L’application LF est injective si et seulement si la famille est libre. Dans ce cas p ≤ n.
3. L’image de L est l’espace vectoriel engendré par (→
F
−
v ,...,→−
v ).1 p
4. Si (→
−
v1 , . . . , →
−
vp ) est une base de E alors LF : Rp → E est un isomorphisme.
Démonstration.
1. Soient →
−
x = (x1 , . . . , xp ) et →
−
y = (y1 , . . . , yp ) ∈ Rp et λ, µ ∈ R. On a
L(λ→
−
x + µ→
−
y ) = (λx1 + µy1 )→ −
v1 + · · · + (λxp + µyp )→ −
vp
= λ(x1 →
−
v1 + · · · + x p →
−
vp ) + µ(y1 →
−
v 1 + · · · + yp →
−
vp )
→
− →
−
= λL( x ) + µL( y )
Proposition 4.2.6. Tout sous-espace vectoriel non nul de Rn admet une base. Le nombre de
vecteurs de cette base est majoré par n.
Idée de la preuve. On choisit un vecteur non nul → −
v1 de E. Si E = Vect(→ −
v1 ), on a trouvé une base.
→
− →
− →
− →
−
Sinon, il existe v2 ∈ E \ Vect( v1 ). Si E = Vect( v1 , v2 ), on a trouvé une base. Sinon, la famille
(→
−
v ,→
1
−
v ) est libre par construction et on itère le procédé pour obtenir une famille libre (→
2
−
v ,...,→
−v )
1 p
engendrant E. Le procédé s’arrête en au plus n étapes (car une famille libre a pour cardinal au
plus n).
Exemple 4.3.2.
1. Rn est de dimension n ;
2. une droite est de dimension 1 ;
3. un plan est de dimension 2.
Proposition 4.3.3. La dimension de l’espace vectoriel des solutions d’un système linéaire ho-
mogène à p inconnues et n lignes est le nombre d’inconnues secondaires du système. Une base
de ce sous-espace vectoriel est composée des solutions du système pour lesquelles une inconnue
secondaire est fixée à 1 et les autres à 0.
Exemple 4.3.4. L’ensemble des solutions de l’équation x + y + z = 0 dans R3 est un sous-espace
vectoriel de dimension 2. C’est cohérent avec ce qui précède : c’est l’équation d’un plan !
Démonstration. On considère le système
a11 x1 + a12 x2 + · · · + a1p xp = 0
a21 x1 + a22 x2 + · · · + a2p xp = 0
..
.
an1 x1 + an2 x2 + · · · + anp xp = 0
et on le réduit. On note j1 , . . . , jm les indices des inconnues secondaires et i1 , . . . ir les indices des
inconnues principales. Le système réduit est de la forme
xi1 = bi1 j1 xj1 + · · · + bi1 jm xjm
..
.
x = b x + · · · + b
x
ir ir j 1 j 1 ir j m j m
0=0
..
.
0 = 0.
78 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
L’espace des solutions est paramétré par les inconnues secondaires (de façon unique). Intuitive-
ment, on obtient que la dimension est le nombre de paramètres indépendants. La fin de la preuve
−→ −→
démontre cette intuition. Une base de l’espace des solutions est B = (fj1 , . . . , fjm ) où
−→ −→
fjk = ejk + bi1 jk −
e→ −
→
i1 + · · · + bir jk eir .
−→
En effet, l’élément fjk correspond à la solution de paramètre xjk = 1 et xjl = 0 pour l ̸= k et la
solution de paramètres xj1 , . . . , xjm est la combinaison linéaire
−→ −→
xj1 fj1 + · · · + xjm fjm .
La famille B est donc génératrice. Il nous reste à montrer qu’elle est libre. Pour cela, on considère
une combinaison linéaire
−→ −→ → −
λj1 fj1 + · · · + λjm fjm = 0 .
−→
On considère la jk -ième coordonnée. Cette coordonnée est non nulle seulement pour fjk . On en
déduit de λjk = 0 pour tout cas. Donc tous les coefficients de la combinaison linéaire sont nuls.
Donc la famille est libre de B est une base de l’ensemble des solutions.
Proposition 4.3.5. Soit A ∈ Mn,p (R). Alors la dimension de l’image de A est le rang de la
matrice A. Une base de l’image est donnée par les colonnes de A donc les indices correspondent
aux indices des inconnues principales du système associé à A.
Démonstration. On considère le système associé
et on le réduit. Les solutions sont paramétrées de façon unique par les inconnues secondaires.
On note (comme dans la preuve précédente) j1 , . . . jm les indices des inconnues secondaires et
i1 , . . . ir les indices des inconnues principales. On note → −
v1 , . . . , →
−
vp les colonnes de A. On considère
′ −→ −
→
B = (vi1 . . . vir ). On veut montrer que B est une base de l’image de A.
′
On commence par montrer que cette famille est libre. Pour cela, on considère une combinaison
linéaire
xi1 −
v→ → →
− −
i1 + · · · + xir vir = 0 .
Par conséquent
−
v→ −
→ → →
− −
jk + bi1 jk vi1 + · · · + bir jk vir = 0
4.4. CONSÉQUENCES SUR LES FAMILLES LIBRES ET GÉNÉRATRICES 79
et −
v→ −
→ −
→
jk ∈ Vect(vi1 , . . . , vir ). Par conséquent (on écrit juste que le vecteur précédent est solution du
système)
im(A) = Vect(→−
v1 , . . . , →
−
vp ) = Vect(−
v→ −
→
i1 , . . . , vir ).
Donc B ′ est génératrice, c’est donc une base et la dimension de l’image de A est bien le rang de
A.
dim(ker(f )) + dim(im(f )) = p.
Ce théorème s’appelle le théorème de rang car dim(im(f ) est le rang de f (par le théorème
précédent). C’est un théorème fondamental d’algèbre linéaire.
dim(ker(f )) + dim(im(f )) = p.
Démonstration. On écrit F = (→ −
v1 , . . . , →
−
vp ). On considère la matrice A = (→
−
v1 | . . . |→
−
vp ). L’espace
vectoriel E est l’image de A. Pour obtenir une base de l’image, on échelonne la matrice et on garde
les vecteurs dont l’indice correspond à l’indice d’une inconnue principale (voir la démonstration
de la proposition 4.3.5).
Théorème 4.4.2. Soit E un espace vectoriel de dimension ≥ 1. Soit F une famille libre de E
alors il existe une base B de E contenant dans F. Autrement dit, on peut compléter toute famille
libre en une base.
Idée de preuve. On reprend la preuve de l’existence d’une base mais en partant de la famille libre
F.
Démonstration. On rappelle que toutes les bases de E ont pour cardinal la dimension de E.
1. On peut compléter une famille libre en une base, une famille libre a donc moins d’éléments
qu’une base.
80 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
2. On peut extraire une base de toute famille génératrice, une famille génératrice a donc plus
d’éléments qu’une base.
3. On peut compléter une famille libre en une base. Si cette famille a le cardinal de toute base,
c’est que c’est déjà une base.
4. On peut extraire une base d’une famille génératrice. Si cette famille a le cardinal de toute
base, c’est que c’est déjà une base.
Démonstration. On prend une base de F , c’est une famille libre de E. On a donc dim(F ) ≤
dim(E). Si dim(F ) = dim(E), on a donc une famille libre de cardinal dim(E) c’est donc une base
de E. La famille est donc génératrice de E et F = E.
1 1 0
1 2 1
A= 0 1 1
1 0 −1
et on échelonne
1 1 0 1 1 0 1 1 0
1 2 1 0 1 1 0 1 1
↔ ↔
0 1 1 0 1 1 0 0 0
1 0 −1 0 −1 −1 0 0 0
On a deux inconnues principales (d’indices 1 et 2). On obtient donc un espace vectoriel de di-
mension 2 et de base (1, 1, 0, 1), (1, 2, 1, 0).
λ1 →
−
v1 + · · · + λp →
−
vp = →
−
y.
On a donc →−
y ∈ E si et seulement si le système associé à λ1 →
−
v1 + · · · + λ p →
−
vp = →
−
y est compatible.
Les équations de compatibilité du système fournissent la description de E cherchée.
4.5. DÉTERMINATION PRATIQUE D’UNE DIMENSION OU D’UNE BASE 81
On note (y1 , y2 , y3 , y4 ) les coordonnées dans R4 . Pour obtenir un système décrivant l’image de A,
on cherche les équations de compatibilité du système augmenté
1 1 0
y1
1 2 1 y2 .
0 1 1
y3
1 0 −1 y4
Pour cela, on échelonne le système
1 1 0 1 1 0 1 1 0
y1 y1 y1
1 2 1 y2
0 1 1 −y1 + y2 O 1 1 −y1 + y2
0 1 1 ↔ 0 1
↔
1 0 0 0 y1 − y2 + y3
y3 y3
1 0 −1 y4 0 −1 −1 −y1 + y4 0 0 0 −2y1 + y2 + y4
L’espace E est donc décrit par le système d’équations
(
y1 − y2 + y3 = 0
−2y1 + y2 + y4 = 0
Autre situation, on voudrait déterminer une base du noyau d’une application linéaire (ou des
solutions d’un système linéaire homogène). Pour cela, on échelonne le système linéaire homogène
associé. On note j1 , . . . , jm les indices des inconnues secondaires. Pour chaque indice jl d’une
inconnue secondaire, on regarde la solution paramétrée par xjl = 1 et xjk = 0 pour k ̸= l. On
obtient bien une base (voir proposition 4.3.3).
Exemple 4.5.3.
On cherche une base de l’ensemble des solutions du système
(
x+y−z+t+u=0
2x + y + 2z − t + u = 0
On résout le système
( ( (
x+y−z+t+u=0 x+y−z+t+u=0 x + 3z − 2t = 0
⇔ ⇔
2x + y + 2z − t + u = 0 −y + 4z − 3t − u = 0 −y + 4z − 3t − u = 0
( (
x + 3z − 2t = 0 x = −3z + 2t
⇔ ⇔
y − 4z + 3t + u = 0 y = 4z − 3t − u
Pour z = 1, t = u = 0, on obtient pour solution (−3, 4, 1, 0, 0), pour t = 1, z = u = 0, on obtient
pour solution (2, −3, 0, 1, 0) et pour u = 1, z = t = 0, on obtient pour solution (0, −1, 0, 0, 1). On
obtient donc comme base de l’ensemble des solutions :
((−3, 4, 1, 0, 0), (2, −3, 0, 1, 0), (0, −1, 0, 0, 1)).
On pourrait vérifier en échelonnant que cette famille est bien libre (exercice).
82 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
Remarque 4.5.4. La méthode la plus standard pour déterminer le rang d’une matrice (ou
la dimension de l’image) est de faire des opérations sur les colonnes et de conserver les colonnes
correspondant aux pivots. Les opérations considérées dans ce cas sont l’équivalent sur les colonnes
des opérations qu’on a vu sur les lignes (permutation de deux colonnes, multiplication par un réel
non nul, ajout d’un multiple d’une autre colonne. L’intérêt est que ces opérations ne changent
pas l’image de la matrice... Voir l’an prochain pour plus de détails !
système f (→
−
x)=→−y est
S=− → + ker(f ) = {−
x0
→+→
x 0
−u , u ∈ ker(f )}.
f (−
→+→
x 0
−
u ) = f (−
→) + f (→
x 0
−
u) =→
−
y
donc
−
→ + ker(f ) = {−
x →+→
x −
u , u ∈ ker(f )} ⊂ S
0 0
Réciproquement, si f (→
−
x)=→
−
y , alors
→
−
f (→
−
x −−
→) = →
x 0
−
y −→
−
y = 0
d’où →
−
x −−
→=→
x 0
−
u ∈ ker(f ) et →
−
x =−
→+→
x 0
−
u.
Exemple 4.6.2.
(
x+y−z+t+u=1
2x + y + 2z − t + u = 2
On résout le système
( ( (
x+y−z+t+u=1 x+y−z+t+u=1 x + 3z − 2t = 1
⇔ ⇔
2x + y + 2z − t + u = 2 −y + 4z − 3t − u = 0 −y + 4z − 3t − u = 0
( (
x + 3z − 2t = 1 x = 1 − 3z + 2t
⇔ ⇔
y − 4z + 3t + u = 0 y = 4z − 3t − u
D’où
S = {(1 − 3z + 2t, 4z − 3t − u, z, t, u), z, t, u ∈ R}
On obtient bien une solution particulière (1, 0, 0, 0, 0) et les solutions du système homogène (voir
section précédente).
4.7. ESPACES SUPPLÉMENTAIRES, SOMMES DIRECTES, PROJECTIONS ET SYMÉTRIES83
et
→
− →
− →
−
µ1 f1 + · · · + µs fs = 0 .
Comme les familles BE et BF sont libres, on obtient λ1 = · · · = λr = µ1 = · · · = µs = 0. Donc la
combinaison linéaire est triviale et la famille est libre. Enfin, B est génératrice par définition de
supplémentaire. On en déduit que B est une base et donc que dim(E) + dim(F ) = n.
→
−
Réciproquement, supposons que E ∩ F = { 0 } et dim(E) + dim(F ) = n. Montrons que B est
libre. Soit
→
− →
− →
−
λ1 →
−
e1 + · · · + λr →
−
er + µ1 f1 + · · · + µs fs = 0
une combinaison linéaire nulle. On a alors
→
− →
−
λ1 →
−
e1 + · · · + λr →
−
er = −µ1 f1 − · · · − µs fs .
→
−
Comme E ∩ F = { 0 }, on en déduit que
→
−
λ1 →
−
e1 + · · · + λ r →
−
er = 0
et
→
− →
− →
−
µ1 f1 + · · · + µs fs = 0 .
84 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
et en posant
→
−
u = λ1 →
−
e1 + · · · + λr →
−
er ∈ E
et
→
− →
− →
−
v = µ1 f1 + · · · + µs fs ∈ F
on obtient la décomposition →
−
w =→
−
u +→−v cherchée. Cette décomposition est unique car si
→
− →
− → −
w =→
−
u +→
−
v = u′ + v ′
on obtient →
− →
− −
→
−u − u′ = v ′ − →v.
→
− →
−′ →
−′
Comme E ∩ F = { 0 }, on en déduit que u = u et v = →
→
− −
v . Les sous-espaces vectoriels E et F
sont donc supplémentaires.
On a alors ( ( (
λ + 2µ = y λ + 2µ = y λ = 23 x − 13 y
⇔ ⇔ .
2λ + µ = x −3µ = x − 2y µ = − 13 x + 23 y
Par conséquent
2 1 1 2
→
−
(x, y) = x− y →−
e + − x+ y f
3 3 3 3
et pE/F (x, y) = ( 43 x − 32 y, 23 x − 13 y).
pE/F ◦ pE/F (→
−
u +→
−
v ) = pE/F (→
−
u ) = pE/F (→
−
u +→
−
v)
sE/F ◦ sE/F (→
−
u +→
−
v ) = sE/F (→
−
u −→
−
v)=→−u +→
−
v
p →
− →
−
(u + v)+p →
− →
− →
− →
−
(u + v) = u + v
E/F F/E
2pE/F (→
−
u +→
−
v ) − sE/F (→
−
u +→
−
v ) = 2→
−
u − (→
−
u −→
−
v)=→
−
u +→
−
v
et
sF/E (→
−
u +→
−
v ) = −→
−
u +→
−
v = −sE/F (→
−
u +→
−
v ).
⟨→
−
u,→
−
v ⟩ = x1 y1 + · · · + xn yn .
La norme du vecteur →
−
u = (x1 , . . . , xn ) est
q q
∥→−u ∥ = ⟨→ −u,→
−
u ⟩ = x21 + · · · + x2n .
Les vecteurs →
−
u et →
−
v sont dits orthogonaux si ⟨→
−
u,→
−
v ⟩ = 0.
Théorème 4.8.1 (Théorème de Pythagore). Les vecteurs →
−
u et →
−
v de Rn sont orthogonaux si et
seulement si
∥→
−
u +→−v ∥2 = ∥→
−
u ∥2 + ∥→
−v ∥2
Démonstration. On a
∥→
−
u +→
−
v ∥2 = ⟨→
−
u +→
−
v ,→
−
u +→
−
v ⟩ = ⟨→
−
u,→
−
u ⟩ + 2⟨→
−
u,→
−
v ⟩ + ⟨→
−
v ,→
−
v ⟩ = ∥→
−
u ∥2 + ∥→
−
v ∥2 + 2⟨→
−
u,→
−
v ⟩.
86 CHAPITRE 4. SOUS-ESPACES VECTORIELS, BASES ET DIMENSION
E ⊥ = {→
−
u ∈ Rn , ⟨→
−
u,→
−
v ⟩ = 0 pour tout →
−
v ∈ E}.
∥→
−
v −→
−
u ∥ ≥ ∥pE (→
−
u)−→
−
u ∥.
avec →
−
w ∈ E ⊥ . On écrit alors
→
−
v −→
−
u =→
−
v − pE (→
−
u)−→
−
w
avec
→
−
v − pE (→
−
u ) ∈ E et →
−
w ∈ E⊥.
Par le théorème de Pythagore, on obtient
∥→
−
v −→
−
u ∥2 = ∥→
−
v − pE (→
−
u )∥2 + ∥→
−
w ∥2 .
On a alors
y1 − (ax1 + b)
..
. = Y − aX − bU = Y − M C.
yn − (axn + b)
On cherche C qui minimise ∥Y − M C∥. Or l’ensemble des vecteurs M C pour a, b ∈ R est l’image
de M . Par la caractérisation géométrique de la projection orthogonale, pour optimiser, il faut que
M C soit la projection orthogonale de Y sur im(M ). Il existe des formules (moches) permettant
de calculer C en fonction des xi et des yi . Dans le TP, on utilisera Python pour faire ces calculs.
En pratique, on utilise la méthode LSTSQ (LeaST SQuares) de [Link] :
— import numpy as np
— définir M (à partir de la donnée X)
— C = [Link](M,Y,rcond=None)[0] (l’option rcond=None permet d’éviter les erreurs,
c’est un point technique qu’on oublie)
Définition 4.9.1. La droite de régression linéaire est la droite y = ax + b associée.
4.9.3 Variantes
Les données ne sont pas forcément distribuées le long d’une droite (ça peut se voir sur le dessin
ou en calculant le coefficient de corrélation). Voici quelques exemples de régression pour d’autres
types de courbes
1. Approximation quadratique. On cherche la meilleure approximation sous la forme y =
ax2 + bx + c. On a alors
1
2
x1 x1
a
.. .. .. , C = b .
M = . . .
x2n xn 1 c
ln(y1 ) 1
x1
.. .. .. , C = a .
ln(Y ) = . , M = . . b
ln(yn ) xn 1