0% ont trouvé ce document utile (0 vote)
291 vues486 pages

Nombres Complexes et Trigonométrie

Transféré par

Malih Nourdine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
291 vues486 pages

Nombres Complexes et Trigonométrie

Transféré par

Malih Nourdine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Mathématiques

(MPSI)

1 Nombres Complexes et trigonométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13


1 L’ensemble des nombres complexes 13
1.1 Définitions et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Interprétation géométrique des nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Module et argument 17
2.1 Module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Ensemble des nombres complexes de module 1 et argument . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3 Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3 Applications à la trigonométrie 23
3.1 Quelques rappels de trigonométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Formules trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3 Linéarisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Transformation de cos(nx ) et sin(nx ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Transformation de Fresnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.6 Sommes de cosinus et de sinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4 Résolution d’équations dans C 28
4.1 Equation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Racines n-ième d’un nombre complexe (n ∈ N? ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5 Géométrie plane 32
5.1 Applications géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2 Transformation du plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2 Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1 Rappels 36
1.1 Relation d’ordre et inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2 Composition, monotonie et majoration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.4 Bijections et fonctions réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2 Fonctions logarithmes, exponentielles et puissances 42
2.1 La fonction logarithme népérien . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2 La fonction exponentielle . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3 Les fonctions exponentielle et logarithme de base a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.4 Fonctions puissances . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

1
3 Étude d’une fonction réelle 47
3.1 Périodicité, parité et symétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2 Limites et croissances comparées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Branches infinies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4 Fonctions circulaires réciproques 53
4.1 La fonction arcosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 La fonction arcsinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3 La fonction arctangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5 Fonctions hyperboliques 56
5.1 Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6 Fonctions à valeurs complexes 58
6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.2 La fonction t 7→ e ϕ(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

3 Ensembles, applications, relations d’équivalence et relations d’ordre 60


1 Logique 61
1.1 Assertions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.2 Ensemble, appartenance et inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
1.3 Prédicats et quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.4 Méthodes de démonstration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1.5 Principe de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2 Les ensembles 68
2.1 Sous-ensembles d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.2 Opérations dans P ( E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.3 Produit cartésien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3 Applications 71
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.2 Image directe et image réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3 Applications injectives, surjectives et bijectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.4 Application réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.5 Familles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4 Relations binaires 79
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2 Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3 Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

4 Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
1 Généralités 82
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
1.2 Primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2 Méthodes de calculs 84
2.1 Intégration par partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.2 Changement de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.3 Calculs classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

5 Équations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1 Généralités 90
1.1 Définition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1.2 Équations différentielles linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2 Équation différentielle linéaire d’ordre 1 93
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2.2 Résolution des équations différentielles linéaires homogènes d’ordre 1 . . . . . . . . . . . . . . . . . . . . . 93
2.3 Équation différentielle linéaire d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.4 Equation avec condition initiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.5 Raccordement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96

2
2.6 Méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3 Équation différentielle linéaire d’ordre 2 à coefficients constants 97
3.1 Équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2 Équations avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.3 Equation avec des conditions initiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

6 Nombres entiers, sommes et produits . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103


1 Les ensembles N et Z 103
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
1.2 Division euclidienne dans N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
1.3 Principe de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2 Suites classiques 105
2.1 Suites arithmétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2.2 Suites géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2.3 Suites artithmético-géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2.4 Suites récurrentes linéaires d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3 Calculs de sommes et produits 108
3.1 Les signes ∑ et ∏ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.2 Sommes classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

7 Systèmes linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114


1 L’ensemble Kp 114
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
1.2 Opérations sur K p . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
2 Systèmes linéaires 116
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
2.2 Structure de l’ensemble des solutions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
2.3 Écriture matricielle des systèmes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
2.4 Systèmes diagonaux, triangulaires et echelonnés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
3 Méthode du pivot de Gauss 121
3.1 Systèmes équivalents et opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3.2 Méthode du pivot de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
3.3 Retour sur le résolution des systèmes échelonnés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

8 Ensemble des nombres réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125


1 Le corps des nombres réels 125
1.1 Introduction et définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1.2 Borne inférieure et borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2 Propriétés des réels 127
2.1 Inégalités et valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.2 Droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.3 Intervalles de R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.4 Partie entière et nombres décimaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.5 Densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

9 Suites numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131


1 Généralités sur les suites réelles 131
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1.2 Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
2 Convergence 134
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
2.2 Convergence et suite extraite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
2.3 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2.4 Construction de suite à limite donnée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139

3
2.5 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
2.6 Convergence monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2.7 Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3 Relations de comparaison 143
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
3.3 Croissances comparées et équivalents classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4 Extension au cas des suites complexes 146
4.1 Définition et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.3 Popriétés des suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.4 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

10 Structures algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149


1 Groupes 149
1.1 Lois de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
1.2 Itérés d’un élément . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
1.3 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
2 Anneaux 155
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
2.2 Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2.3 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

11 Arithmétique de Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
1 Divisibilité dans Z 159
1.1 Diviseurs et multiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
1.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
1.3 Congruences dans Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2 Plus grand commun diviseur (PGCD) 161
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2.2 Algorithme d’Euclide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
2.3 Relation de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
2.4 Algorithme d’Euclide augmenté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
2.5 Nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
2.6 Résolution de l’équation au + bv = c. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
2.7 PGCD de plusieurs entiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
3 Le plus petit commun multiple (PPCM) 168
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
3.2 Lien avec le PGCD et nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
4 Nombres premiers 169
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
4.2 Décomposition en produit de facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

12 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
1 Limites 174
1.1 Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1.2 Voisinage et propriétés locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
1.3 Limite à droite et à gauche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
1.4 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
1.5 Caractérisation séquentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
1.6 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
1.7 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
1.8 Fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

4
2 Relations de comparaisons 183
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
2.3 Équivalents classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
2.4 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

13 Continuité sur un intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190


1 Fonctions continues 190
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
1.2 Théorèmes des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
1.3 Cas des fonctions monotones - théorème de la bijection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
1.4 Bornes d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
1.5 Exemple de résolution d’équations fonctionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
2 Très brève extension aux fonctions à valeurs complexes 196
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
2.2 Le théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

14 Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
1 Ensembles de polynômes à coefficients dans K 199
1.1 Construction et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1.2 Degré et valuation d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
1.3 Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2 Dérivation 204
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2.2 Dérivées successives et formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
3 Divisibilité et racines d’un polynôme 207
3.1 Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
3.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
3.3 Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
3.4 Ordre de multiplicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
3.5 Fonctions symétriques des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
3.6 Interpolation de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
4 Arithmétique dans K[ X ] 215
4.1 Plus grand commun diviseur (PGCD) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
4.2 Polynômes premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
4.3 Généralisation à une famille de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
4.4 Le plus grand commun multiple (PPCM) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
4.5 Propriétés du PGCD et du PPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5 Factorisation 219
5.1 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
5.2 Décomposition en produit de facteurs irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
5.3 Factorisation sur C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
5.4 Quelques applications de la factorisation sur C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
5.5 Factorisation sur R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

15 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1 Définitions 224
1.1 Nombre dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1.2 Interprétation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.3 Fonction dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.4 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.5 Dérivées des fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
2 Dérivées d’ordre supérieure 231
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
2.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231

5
3 Accroissements finis 233
3.1 Extremums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
3.2 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
3.3 Inégalités des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
3.4 Application à la monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
3.5 Application aux prolongements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

16 Suites récurrentes : un+1 = f (un ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239


1 Généralités 239
1.1 Représentation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
1.2 Existence de la suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
2 Méthodes d’étude 240
2.1 Caractérisation de la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
2.2 Utilisation des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2.3 Cas où f est croissante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2.4 Cas où f est décroissante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
3 Méthode de Newton 244

17 Corps des fractions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245


1 Généralités 245
1.1 Corps des fractions d’un anneau intègre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
1.2 Le corps K( X ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
1.3 Degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
1.4 Pôles et zéros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
1.5 Fonction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
1.6 Dérivation (HP ?) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
1.7 Composition par un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
2 Décomposition en éléments simples 251
2.1 Partie entière d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
2.2 Partie polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
2.3 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
2.4 Méthodes de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
2.5 Décomposition en éléments simple dans R( X ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

18 Développements limités et analyse asymptotique . . . . . . . . . . . . . . . . . . 257


1 Introduction 257
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
1.2 Rappel sur les notation de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2 Développements limités 258
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
2.3 Calculs de développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
2.4 Opérations sur les développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
3 Applications des développements limités 265
3.1 Développements limités et équivalents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
3.2 Détermination de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
3.3 Étude locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
3.4 Développements asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267

19 Espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272


1 Espaces vectoriels 272
1.1 Défintion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
1.2 Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274

6
2 Sous-espaces vectoriels 275
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
2.2 Sous-espace vectoriel engendré par une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
3 Familles de vecteurs 277
3.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
3.2 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
3.3 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
3.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
4 Somme de sous-espaces vectoriels 280
4.1 Défintions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
4.2 Somme directe et supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
4.3 Somme directe d’un nombre fini de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
5 Sous-espaces affines 283
5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
5.2 Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
5.3 Intersection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285

20 Espaces vectoriels de dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286


1 Espaces vectoriels de dimension finie 286
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
1.2 Existence d’une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
1.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
1.4 Dimension et famille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
2 Sous-espaces vectoriels 290
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
2.2 Somme et supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
2.3 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
2.4 Première approche des calculs matriciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
2.5 Détermination du rang d’une famille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
2.6 Extraction d’une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
3 Retour aux sous-espaces affines 295
3.1 Dimension d’un sous-espace affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
3.2 Quelques exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295

21 Dénombrements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
1 Ensembles finis et cardinal 296
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
1.2 Propriété du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
1.3 Opérations et cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
2 Dénombrements classiques 301
2.1 Applications de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
2.2 Applications injectives de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
2.3 Parties à p éléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303

22 Applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306


1 Applications linéaires 306
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
1.2 Applications linéaires et sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
1.3 Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
2 L’ensemble des applications linéaires 309
2.1 Structure de L ( E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
2.2 Structure de L ( E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
2.3 Ensemble GL( E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
3 Elements remarquables de L ( E) 313
3.1 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
3.2 Projecteurs et symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313

7
4 Applications linéaires données dans une base 316
4.1 Caractérisation d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
4.2 Caractérisation des isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
4.3 Dimension de L ( E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
4.4 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
4.5 Formes linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322

23 Intégration et formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324


1 Continuité uniforme 325
1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
1.2 Fonction lipshitzienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
1.3 Théorème de Heine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
2 Fonctions en escalier et fonctions continues par morceaux 326
2.1 Subdivisions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
2.2 Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
2.3 Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
3 Construction de l’intégrale 329
3.1 Intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
3.2 Propriétés de l’intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
3.3 Intégrales des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
4 Propriétés de l’intégrale des fonctions continues par morceaux 332
4.1 Linéarité et relation de Chasles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
4.2 Positivité et corrollaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
4.3 Cas des fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
4.4 Invariance par translation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
5 Sommes de Riemann et méthodes des trapèzes 336
5.1 Somme de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
5.2 Méthode des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
6 Primitives 338
6.1 Généralisation de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
6.2 Cas des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
6.3 Cas des fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
7 Calculs 340
7.1 Primitives de fonctions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
7.2 Primitives se ramenant à une primitive de fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 342
8 Formules de Taylor 344
8.1 Formule de Taylor avec reste intégral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
8.2 Inégalité de Taylor-Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
8.3 Formule de Taylor-Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
9 Extension au fonctions à valeurs complexes 347
9.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
9.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347

24 Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
1 Espace probabilisé 348
1.1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
1.2 Probabilités et espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
2 Probabilités conditionnelles 352
2.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
2.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
2.3 Formules sur les probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
3 Indépendance 355
3.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
3.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356

8
25 Séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
1 Généralités 359
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
2 Séries de références 361
2.1 Séries géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
2.2 Séries de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
2.3 Comparaison séries - intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
3 Séries à termes positifs 363
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
3.2 Théorème de comparaison pour les séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
4 Séries absolument convergentes 366
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
4.2 Applications aux séries dont le terme général n’a pas un signe constant . . . . . . . . . . . . . . . . . . . 366
5 Représentation décimale des réels 367

26 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
1 Définitions 369
1.1 Motiviation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
1.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
1.3 L’espace vectoriel Mn,p (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
1.4 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
1.5 Produit dans Mn (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
1.6 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
1.7 Quelques matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
1.8 Calculs par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
2 Matrices et applications linéaires 379
2.1 Matrice d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
2.2 Application linéaire canoniquement associée à une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
2.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
2.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
2.5 Cas des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
3 Changements de bases 385
3.1 Matrices de changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
3.2 Changement de base des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
3.3 Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
4 Rang d’une matrice 390
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
4.2 Calcul du rang - Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
5 Applications aux systèmes linéaires 394
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
5.2 Determination de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395

27 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397


1 Variables aléatoires réelles 397
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
1.2 Loi d’une variable aléatoire réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
1.3 Fonctions de répartitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399
1.4 Fonction d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
2 Moments d’une variable aléatoire réelle 400
2.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
2.2 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
2.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405

9
3 Lois usuelles 405
3.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
3.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
3.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
3.4 Retour sur l’inégalité de Bienaymé-Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407

28 Groupe symétrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408


1 Généralités sur les groupes 408
1.1 Rappels sur les groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
1.2 Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
1.3 Image directe et réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
2 Sous-groupes engendré et ordre 411
2.1 Sous-groupe engendré par une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
2.2 Ordre d’un élément . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
3 Groupe symétrique 412
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
3.2 Transpositions et cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
4 Signature 415
4.1 Défintion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
4.2 Complément sur la signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416
4.3 Permutations paires et impaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417

29 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418
1 Introduction 418
2 Applications multilinéaires 419
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
2.2 Expression d’une application p-linéaire sur un espace vectoriel de dimension finie . . . . . . . . . . . . 420
2.3 Applications symétriques, antisymétriques et alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
3 Déterminant 422
3.1 Formes n-linéaires sur un espace vectoriel de dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
3.2 Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
3.3 Volume dans R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
3.4 Orientation d’un R-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
3.5 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426
3.6 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
3.7 Propriétés et calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
3.8 Développements suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
3.9 Déterminants classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432
4 Utilisation des déterminants 435
4.1 Commatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
4.2 Formule de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435

30 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437


1 Couples de variables aléatoires 437
1.1 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
1.2 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
1.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
1.4 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
1.5 Fonction d’un couple de variables aléatoires réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441
2 Moments 442
2.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
2.2 Variance et covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
3 Généralisation à n variables 445
3.1 Variables aléatoires mutuellement indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 445
3.2 Somme de n variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446

10
31 Espaces préhilbertiens réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
1 Produit scalaire 447
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
1.2 Norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
2 Orthogonalité 451
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451
3 Bases orthogonales 453
3.1 Généralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
3.2 Produit mixte et produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455
3.3 Sous-espaces vectoriels orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456
3.4 Projecteurs orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458
3.5 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
4 Endomorphismes orthogonaux 461
4.1 Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461
4.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
4.3 Endomorphismes orthogonaux du plan euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
4.4 Automorphismes orthogonaux de l’espace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468

32 Fonctions de deux variables - Bonus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471


1 Généralités 471
1.1 Fonctions à deux variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 471
1.2 Rudiments de topologie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 472
2 Fonctions continues 473
2.1 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 473
2.2 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474
2.3 Fonctions à valeurs dans R2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475
2.4 Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 476
3 Calcul différentiel 476
3.1 Première dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 477
3.2 Fonctions de classe C 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 478
3.3 Composées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 480
3.4 Différentielle et gradient . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 482
3.5 Extremums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 483
3.6 Dérivées partielles d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 484
3.7 Quelques équations aux dérivées partielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485

11
Présentation
Voici les notes de cours de MPSI (programme de 2013). Ce sont des notes préliminaires. Il y a probablement
de nombreux oublis et coquilles. Je remercie Felix Faisant (MP 2016-2017) pour m’avoir signalé quelques erreurs.

12
Nombres Complexes
1
et trigonométrie
1 L’ensemble des nombres complexes 13
1.1 Définitions et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Interprétation géométrique des nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Module et argument 17
2.1 Module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Ensemble des nombres complexes de module 1 et argument . . . . . . . . . . . . . . . . . . . 19
2.3 Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3 Applications à la trigonométrie 23
3.1 Quelques rappels de trigonométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Formules trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3 Linéarisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Transformation de cos(nx ) et sin(nx ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Transformation de Fresnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.6 Sommes de cosinus et de sinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4 Résolution d’équations dans C 28
4.1 Equation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Racines n-ième d’un nombre complexe (n ∈ N? ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5 Géométrie plane 32
5.1 Applications géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2 Transformation du plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

Vous avez déjà étudié les nombres complexes en terminale. Nous allons revoir cette année. Il n’y aura pas
beaucoup de nouveautés dans ce chapitre.

1 L’ensemble des nombres complexes


Avant de donner la définition des nombres complexes, quelques petits rappels d’ordre historique. Il est bien
connu que le carré de tout nombre réel est un réel positif. De ce fait l’équation x2 = − a d’inconnue réelle x où a
est un réel strictement positif n’a pas de solutions. Dès le XVIe siècle les mathématiciens (Cardan, Tartaglia,
Ferrari) se sont rendus compte qu’il pouvait être utile d’utiliser les solutions de telles équations afin de résoudre

13

des équations de degré 3, de degré 4. On voit alors apparaitre des notations comme − a. Ces nombres sont
alors qualifiés d’impossibles ou d’imaginaires. Ce n’est que plus tard, au XIXe siècle que les nombres complexes
comme nous les connaissons aujourd’hui sont formalisés. On découvre alors l’utilité de ces nombres pour traiter
des problèmes de géométrie plane.

1.1 Définitions et généralités


Théorème [Link]

Il existe un ensemble des nombres complexes noté C qui contient R. Il vérifie les propriétés suivantes :
1. Il est muni d’une addition (notée +) et d’une multiplication (notée ×) qui prolongent celles de
R et qui suivent les mêmes règles de calculs.
2. Il existe un élément noté i qui vérifie i2 = −1.
3. Tout élément de C s’écrit de manière unique de la forme z = a + ib où a et b sont des réels.
Cela s’appelle la forme algébrique de z.

Remarques :
1. On est resté volontairement flou sur les « règles de calculs ». Nous détaillerons cela plus précisément plus
tard dans l’année. On demande :
— L’addition et le produit sont associatifs : A écrire
— L’addition et le produit sont commutatifs : A écrire
— La multiplication est distributive par rapport à l’addition : A écrire
— L’addition admet un élément neutre, noté 0, qui vérifie que z + 0 = z. De plus, tout élément z à un
opposé z0 qui vérifie z + z0 = 0.
— La multiplication admet un élément neutre, noté 1, qui vérifie que z × 1 = z. De plus, tout élément
non nul z à un inverse z0 qui vérifie z × z0 = 1.
On dit alors que (C, +, ×) est un corps .
2. On déduit des règles précédentes que si z = a + ib et z0 = a0 + ib0 sont deux nombres complexes où a, b, a0
et b0 sont des réels alors,

z + z0 = ( a + ib) + ( a0 + ib0 ) = ( a + a0 ) + i (b + b0 )

et

z × z0 = ( a + ib) × ( a0 + ib) = aa0 + iab + ia0 b + a0 b0 i2 = ( aa0 − bb0 ) + i ( ab0 + a0 b).

Démonstration : On considère l’ensemble R2 des couples de réels ( a, b). On le munit des opérations suivantes :

( a, b) + ( a0 , b0 ) = ( a + a0 , b + b0 ) et ( a, b) × ( a0 , b0 ) = ( aa0 − bb0 , ab0 + a0 b).

Il suffit alors de vérifier que cet ensemble vérifie bien les axiomes voulus.
Pour commencer, il prolonge R en associe à tout réel l’élément ( a, 0). On voit que dans ce cas les opérations
ci-dessus sont celles de R.
On pose ensuite i = (0, 1). Il vérifie que i2 = (−1, 0). C’est ce que l’on voulait.
L’élément (0, 0) est un élément neutre pour l’addition dans le sens où pour tout ( a, b), (0, 0) + ( a, b) = ( a, b).
De même l’élément (1, 0) est un élément neutre pour la multiplication car (1, 0) × ( a, b) = ( a, b).
Tout élément ( a, b) admet un opposé qui est (− a, −b) et qui vérifie que ( a, b) + (− a, −b) = (0, 0) Tout
élément ( a, b) non nul admet un inverse ( a0 , b0 ) et qui vérifie que ( a, b) × ( a0 , b0 ) = (1, 0). Il suffit de remarquer
que  
a −b
( a, b) × , = (1, 0).
a2 + b2 a2 + b2


14
Définition [Link]

Soit z un élément de C. On note z = a + ib où a et b sont des réels. On appelle partie réelle de z et on note
Re(z) le nombre a et on appelle partie imaginaire de z et on note Im(z) le nombre b.
On appelle imaginaire pur un nombre complexe dont la partie réelle est nulle. L’ensemble des imaginaires purs
se note iR.

Proposition [Link]

Les parties réelles et imaginaires sont compatibles à l’addition et à la multiplication par un réel.
Précisément si z et z0 sont deux nombres complexes et que λ est un réel.

Re(z + z0 ) = Re(z) + Re(z0 ), Im(z + z0 ) = Im(z) + Im(z0 ), Re(λz) = λRe(z) et Im(λz) = λIm(z).

Proposition [Link] (Unicité de la forme algébrique)

Soit z et z0 deux nombres complexes,

(z = z0 ) ⇔ (Re(z) = Re(z0 ) et Imz = Imz0 ).

Démonstration : Cela découle de l’unicité de l’écriture d’un nombre complexe sous la forme z = a + ib où a et
b sont des réels. 

Définition [Link]

Soit z un élément de C. On note z = a + ib où a et b sont des réels. On appelle conjugué de z et on note z le


nombre complexe z = a − ib.

Proposition [Link] (Propriétés de la conjugaison complexe)

Soit z et z0 deux nombres complexes :


1. la conjugaison est involutive : z = z.
2. la conjugaison est compatible à l’addition : z + z0 = z + z0 .
z z
3. la conjugaison est compatible à la multiplication et au quotient : z × z0 = z × z0 et = .
z0 z0
4. la conjugaison est compatible aux puissances : zn = zn pour tout entier n.

Démonstration :
1. Évident
2. On note z = a + ib et z0 = a0 − ib0 . On a donc z + z0 = ( a + a0 ) + i (b + b0 ) = ( a + a0 ) − i (b + b0 ). De plus
z + z0 = ( a − ib) + ( a0 − ib0 ) = ( a + a0 ) − i (b + b0 ).
z
3. Comme ci-dessus pour le produit. Pour le quotient, on remarque que z0 × 0 = z. On conjugue et on
z z z
z
obtient z0 × 0 = z et donc 0 = .
z z z0
4. Par récurrence.


15
Proposition [Link]

Soit z un nombre complexe.


1. on a 2Re(z) = z + z et 2Im(z) = z − z.
2. le nombre z est réel si et seulement si z = z.
3. le nombre z est imaginaire pur si et seulement si z = −z.

Démonstration : Évident. À faire en exercice. 

1.2 Interprétation géométrique des nombres complexes


On peut se donner une représentation géométrique des nombres complexes. Cela peut être utilisé dans les
deux sens c’est-à-dire que l’on peut résoudre des problèmes de géométrie avec des nombres complexes mais
on peut aussi, se servir de la géométrie pour prouver (ou au moins avoir une intuition) des résultats sur les
nombres complexes.

→ −→
On suppose le plan muni d’un repère orthonormé direct (O, i , j )

Définition [Link]

On a les définitions suivantes :


1. L’affixe (complexe) du point M de coordonnées ( x, y) est le nombre complexe z M = x + iy.
2. L’affixe (complexe) du vecteur −

u de coordonnées ( x, y) est le nombre complexe z−
u → = x + iy.

3. L’image du nombre complexe z = x + iy est le point M(z) de coordonnées ( x, y).

→ = zB − z A .
Remarque : Avec ces notations, si A et B sont deux points d’affixe complexe z A et z B alors z−
AB

Proposition [Link]

Soit M un point du plan d’affixe complexe z.


1. Le point M0 image du nombre complexe z est le symétrique de M par rapport à l’axe (Ox ).
2. Soit z0 un nombre complexe. Le point M0 image du nombre complexe z + z0 est l’image du
−−−−→
point M par la translation de vecteur OM (z0 ).

Démonstration :
1. On note z = x + iy avec x et y deux réels. On a donc z = x − iy. D’où M0 ( x, −y) est bien l’image de
M ( x, y) par la symétrie d’axe (Ox ).
2. On note de plus z0 = x0 + iy0 avec x0 et y0 deux réels. On obtient

z−−−→0 = z M0 − z M = z + z0 − z = z0 .
MM
−−→ −−−−→ −−−−→
Donc MM0 = OM(z0 ) et M0 est bien l’image de M par la translation de vecteur OM (z0 ).


16
2 Module et argument
2.1 Module
Définition [Link]

Soit z un nombre complexe. On appelle module de z et on note |z| le réel défini par

|z| = zz.

En particulier si z = a + ib avec a et b réels, |z| = a2 + b2 .

Remarques :
1. Cette définition a un sens, en effet, avec les notations précédentes, zz = ( a + ib)( a − ib) = a2 + b2 . C’est
donc on réel positif et on peut prendre sa racine carrée.
2. Il faut savoir écrire et utiliser la définition sous toutes ses formes. En particulier, on a
| z |2
zz = |z|2 et z = si z 6= 0.
z
3. Cette √notation est compatible avec la notation de la valeur absolue. En effet, si z est un réel, z = z et on a
| z | = z2 = | z |.
Proposition [Link] (Propriétés du module)

Soit z et z0 deux nombres complexes.


1. On a z = 0 ⇔ |z| = 0.
z |z|
2. Le module est compatible au produit et quotient : |zz0 | = |z||z0 | et = 0 si z0 6= 0.
z0 |z |
3. Le module est compatible aux puissances, pour tout entier naturel n, |zn | = |z|n .
4. On a |z| = |z|.
5. On a Re(z) 6 |z| et Im(z) 6 |z|.

Démonstration :
1. Il suffit de voir que |z| = 0 ⇔ z = 0 ou z = 0 ⇔ z = 0.
2. Evident.
3. Par récurrence en utilisant ce qui précède.
4. Evident.
5. itou

Remarque : Dans les dernières formules on a égalité si et seulement si z est un réel positif (resp. de la forme iα
pour α ∈ R+ ).
F Méthode : Cela permet de calculer simplement la forme algébrique de l’inverse d’un nombre complexe (donné
sous forme algébrique). Par exemple
1 2 + 3i 2 + 3i
= = .
2 − 3i (2 − 3i )(2 + 3i ) 13
3−i
Exercice : Calculer la forme algébrique de .
1 + 4i
Proposition [Link] (Identités remarquables)

Soit z et z0 deux nombres complexes


1. |z + z0 |2 = |z|2 + |z0 |2 + 2Re(zz0 )
2. |z − z0 |2 = |z|2 + |z0 |2 − 2Re(zz0 )

17
Proposition [Link]

−−−−−−−→
Soit z et z0 des nombres complexes, le module |z − z0 | est la norme euclidienne du vecteur M (z0 ) M (z)
où M (z) (resp. M (z0 )) est le point image de z (resp z0 ). C’est donc la distance euclidienne entre M(z0 )
et M (z).

p
Démonstration : Par définition en utilisant que |z| = ( x − x 0 )2 + (y − y0 )2 avec M(z) (resp. M(z0 )) le point
de coordonnées ( x, y) (resp. ( x 0 , y0 )). 

Proposition [Link]

Soit z0 un nombre complexe, M (z0 ) son point image et r un réel positif.


1. L’ensemble C des points M dont l’affixe z M vérifie |z M − z0 | = r est le cercle de centre M (z0 )
et de rayon r. C’est-à-dire l’ensemble des points M dont la distance à M (z0 ) est r.
2. L’ensemble C des points M dont l’affixe z M vérifie |z M − z0 | < r est le disque ouvert de
centre M (z0 ) et de rayon r. C’est-à-dire l’ensemble des points M dont la distance à M (z0 ) est
strictement inférieure r.
3. L’ensemble C des points M dont l’affixe z M vérifie |z M − z0 | 6 r est le disque fermé de centre
M (z0 ) et de rayon r. C’est-à-dire l’ensemble des points M dont la distance à M (z0 ) inférieure
ou égale à r.

Proposition [Link] (Inégalités triangulaire)

Soit z et z0 deux nombres complexes.


1. On a
|z + z0 | 6 |z| + |z0 | Première inégalité triangulaire
2. On a
||z| − |z0 || 6 |z + z0 | Deuxième inégalité triangulaire
Cela peut aussi s’écrire :
−|z + z0 | 6 |z| − |z0 | 6 |z + z0 |.

Démonstration :
— Démontrons la première. On remarque que
| z + z 0 |2 = (z + z0 )(z + z0 )
= zz + z0 z0 + 2Re(zz0 )
6 |z|2 + |z0 |2 + 2|z||z0 |
6 |z|2 + |z0 |2 + 2|z||z0 |
6 (|z| + |z0 |)2

On peut alors conclure en utilisant que X 7→ X est croissante.
— Il suffit d’appliquer l’inégalité précédente à z + z0 et −z0 . On obtient

| z | = | z + z 0 − z 0 | 6 | z + z 0 | + | − z 0 | = | z + z 0 | + | z 0 |.

On obtient donc
| z | − | z 0 | 6 | z + z 0 |.
Si on recommence avec z + z0 et −z0 on obtient alors

| z 0 | − | z | 6 | z + z 0 |.

Cela revient à
−|z + z0 | 6 |z| − |z0 |.

18

Remarques :
1. Si on considère les trois points O, M d’affixe z et N d’affixe z + z0 . On a OM = |z|, ON = |z + z0 | et
MN = |z0 |. On a donc l’inégalité triangulaire classique

ON 6 OM + MN.

2. On a vu que les partie réelles et imaginaires sont commodes pour calculer avec des sommes car Re(z + z0 ) =
Rez + Rez0 et pareil pour les parties imaginaires. Par contre, les calculs avec des produits étaient plus
compliqués. A l’inverse, calculer des modules pour les produits (et les puissances) est simple mais c’est
plus compliqué avec les additions.

Proposition [Link]

Dans la première inégalité triangulaire on a égalité si et seulement si |zz0 | = Re(zz0 ) c’est à dire
quand zz0 est un réel positif.

2.2 Ensemble des nombres complexes de module 1 et argument


Définition [Link]

On note U l’ensemble des nombres complexes de module 1.

U = { z ∈ C | | z | = 1}.

Remarque : L’ensemble U est l’ensemble des nombres complexes dont le point image est sur le cercle de centre
O et de rayon 1 qui s’appelle le cercle trigonométrique.

Proposition [Link]

L’ensemble U vérifie les propriétés suivantes :


1. Le nombre complexe 1 qui est l’élément neutre de la multiplication est un élément de U.
2. L’ensemble U est stable par produit. En effet si z et z0 sont deux éléments de U alors zz0
appartient à U.
1 1
3. Tout élément z de U admet un inverse das U c’est-à-dire un élément qui vérifie que z × = 1.
z z

1
Remarque : Pour ce qui est de l’inverse, on remarque que si z est un élément de U, = z.
z

Proposition [Link]

Soit z un élément de U, il existe un unique θ dans ] − π, π ] tel que

z = cos(θ ) + i sin(θ ).

Démonstration : Soit z un élément de U. On note z = x + iy où x et y sont des réels. On a alors lx | = |Re(z)| 6 1


et de même pour |y|. Or, si on considère la restriction de la fonction cosinus à l’intervalle [0, π ]. Elle est continue
et strictement décroissante. De plus, cos(0) = 1 et cos(π ) = −1. On en déduit que pour tout réel x dans
[−1, 1], il existe un unique ϕ dans [0, π ] tel que cos ϕ = x. Dès lors, sin2 ϕ = 1 − cos2 ϕ = 1 − x2 = y2 car
x2 + y2 = |z| = 1. On en déduit que sin ϕ = ±y. Or on sait que sin ϕ > 0 car ϕ est compris entre 0 et π. On
sépare donc les cas selon le signe de y.
— si y > 0 : on pose θ = ϕ et on a bien l’égalité voulue.

19
— si y < 0 : on pose θ = − ϕ. Dans ce cas, θ est strictement compris entre −π et 0. On a là encore l’égalité
voulue.

Remarque : Le réel θ a été construit dans ] − π, π ]. On aurait tout aussi bien le construire dans l’intervalle
[0, 2π [ ou dans tout intervalle de longueur 2π. Dans la pratique, on se contentera souvent d’une détermination
à 2π-près de θ.
Notation : Soit θ un réel on note
eiθ = cos θ + i sin θ.
Remarque : Cette notation peut-être justifiée de nombreuses manières. En voici une. Si on considère f définie
de R dans C par
f (θ ) = cos θ + i sin θ.
On peut la dériver et on trouve

f 0 (θ ) = − sin θ + i cos θ = i (cos θ + i sin θ ) = i f (θ ).

On voit donc que f vérifie l’équation différentielle y0 = iy avec la condition f (0) = 1.


Exemple : On a donc ei0 = cos(0) + i sin(0) = 1, eiπ/2 = cos(π/2) + i sin(π/2) = i et eiπ = −1.

Proposition [Link] (Formules d’Euler)

Soit θ un réel,
eiθ + e−iθ eiθ − e−iθ
cos(θ ) = et sin(θ ) = .
2 2i

Proposition [Link]

Soit θ et θ 0 deux réels,


0 0
ei(θ +θ ) = eiθ × eiθ .
En particulier,
1
= e−iθ = eiθ .
eiθ

Démonstration : Cela découle des formules d’addition des cosinus et des sinus (et cela permet donc de le
retrouver si on les a oubliées).
0
eiθ × eiθ = (cos(θ ) + i sin(θ )) × ((cos(θ 0 ) + i sin(θ 0 ))
= (cos(θ ) cos(θ 0 ) − sin(θ ) sin(θ 0 )) + i (cos(θ ) sin(θ 0 ) + cos(θ 0 ) sin(θ ))
= cos(θ + θ 0 ) + i sin(θ + θ 0 )
0
= ei (θ +θ ) .
La deuxième partie est évidente.


Corollaire [Link] (Formules de (De) Moivre)

Soit θ un réel un réel et n un entier naturel, (eiθ )n = einθ . En particulier

(cos θ + i sin θ )n = cos(nθ ) + i sin(nθ ).

Démonstration : Par recurrence 

20
Proposition-Définition [Link]

Soit z un nombre réel non nul. Il existe des réels θ tels que

z = |z|eiθ .

Tout réel vérifiant cette relation est appelé un argument de z.

Démonstration : Il suffit de remarquer que z/|z| est un nombre complexe de module 1. 

Proposition [Link]

Soit z un nombre complexe non nul et θ0 un argument de z. L’ensemble des arguments de z est

{θ0 + 2kπ | k ∈ Z}.

Démonstration : Soit θ ∈ R. Le réel θ est un argument si et seulement si cos(θ ) = cos(θ0 ) et sin(θ ) = sin(θ0 ).
On en déduit donc que θ − θ0 est un multiple de 2π.


Définition [Link] (Congruence)

Soit A un réel non nul. Soit x et y deux réels, on dit que x et y sont congrus modulo A et on note x ≡ y[ A] si
x − y est un multiple entier du réel A.

Exemple : Les réels congrus à 1/2 modulo 1 sont {. . . ; −2, 5; −1, 5; −0, 5; 0, 5; 1, 5; 2, 5; . . .}
Remarque : D’après ce qui précède, l’argument d’un nombre complexe n’est donc défini qu’à 2π-près (ou
modulo 2π).
Notation : Si z est un nombre complexe non nul et θ un argument de z, on note

arg (z) ≡ θ [2π ].

Par convention on appelle argument principal l’unique argument dans l’intervalle ] − π, π ]. Il est parfois noté
Arg.

Proposition [Link] (Interprétation géométrique)

Soit z un nombre complexe non nul. Si M (z) est son point image. Les arguments de z sont les mesures

→\ −−−−→
de l’angle orienté ( i , OM (z)).

Démonstration : Par définition. 

Définition [Link]

Soit z un nombre complexe non nul. Il existe r dans R?+ (le module de z) et θ dans R (un argument de z) tel
que
z = r (cos(θ ) + i sin(θ )) = reiθ (forme trigonométrique).

Remarque : On pourrait inclure le cas du complexe nul z = 0 en posant r = 0 mais dans ce cas θ serait
quelconque et non pas défini à 2π-près. De ce fait, quand on voudra travailler avec des formes trigonométriques,
il faudra TOUJOURS traiter à part le cas de z = 0.
Exemples :

21
 
√ √ √ 1 1 √
1. Soit z1 = 3 + 3i. On a |z1 | = 9 + 9 = 3 2 d’où z1 = 3 2 √ + i√ = 3 2eiπ/4 .
2 2
2. Soit z2 = −2. On a z2 = 2eiπ .

Proposition [Link] ("Unicité" de la forme trigonométrique)

Soit z un nombre complexe non nul et r1 , r2 deux réels strictement positifs et θ1 , θ2 deux réels. On a
z = r1 eiθ1 = r2 eiθ2 si et seulement si

r1 = r2 et θ1 ≡ θ2 [2π ].

Proposition [Link]

Soit z1 et z2 deux nombres complexes non nuls de forme trigonométrique

z1 = r1 eiθ1 et z2 = r2 eiθ2 .

On a alors  
z1 r1
z1 .z2 = (r1 r2 )ei(θ1 +θ2 ) et = e i ( θ1 − θ2 ) .
z2 r2

Démonstration : Evident en utilisant ce qui précède. 


F Méthode : Angle moitié : On remarque donc que les formes trigonométriques sont adaptées aux produits et
au quotients mais beaucoup moins aux sommes. Il n’y a pas de moyen simple, dans le cas général de trouver la
forme trigonométrique de z1 + z2 à partir des formes trigonométriques de z1 et z2 sauf si z1 et z2 sont de même
module. En effet pour θ et θ 0 deux réels,
0  0 
   0
  
iθ iθ 0 i θ +2θ i θ −2θ −i θ +2θ
e +e = e e +e
   0
θ − θ0 i θ +θ
= 2 cos e 2
2
0
Pour déterminer la forme trigonométrique il convient ensuite d’étudier le signe de cos( θ −2θ ). Ce calcul est à
connaître, il est souvent utile pour simplifier des expressions du type 1 + eiθ ou 1 − eiθ .
Exercice : Soit θ ∈] − π, π ] calculer le module et l’argument de 1 + eiθ , de 1 − eiθ et de e−iθ − 1.

Proposition [Link]

Soit z1 et z2 deux nombres complexes non nuls,


1. arg (z1 z2 ) ≡ arg (z1 ) + arg (z2 )[2π ]
 
z1
2. arg ≡ arg (z1 ) − arg (z2 )[2π ]
z2
3. Pour tout entier relatif n, arg (zn ) ≡ narg z[2π ].


Remarque : Ces égalités ne sont vraies qu’à 2π-près. Par exemple si z = −1 − i = 2e5iπ/4 alors arg (z) =
5π/4. On a alors z2 = 2i. On voit que arg (z2 ) = π2 ≡ 10π
4 [2π ].

2.3 Exponentielle complexe


On peut généraliser la notion d’exponentielle d’un réel (e x pour un réel x) et la notation eiθ pour un réel θ en
définissant l’exponentielle d’un nombre complexe.

22
Définition [Link]

Soit z = x + iy un nombre complexe où x et y sont des réels. On appelle exponentielle de z et on note ez le


nombre complexe
ez = e x eiy .

Proposition [Link]

Avec les notations précédentes, on voit que le module de ez est e x et que y est un argument de ez . En
particulier, ez n’est jamais nul. On définit ainsi une application

exp : C → C?
z 7→ ez .

Proposition [Link]

Soit z et z0 deux nombres complexes. On a


0 0
ez+z = ez ez .

En particulier, l’inverse de ez est e−z .

Démonstration : On note z = x + iy et z0 = x 0 + iy0 où x, y, x 0 et y0 sont des réels. Dès lors,


0 0 0 0 0 0
ez+z = e x+ x ei(y+y ) = e x e x eiy eiy = ez ez .


Remarque : On voit donc que l’application exponentielle transforme les additions en multiplications.

Proposition [Link]

Soit ω un nombre complexe non nul. Il existe z0 tel que ez0 = ω. On dit que l’application exponentielle
est surjective de C dans C? . De plus, si z0 vérifie ez0 = ω alors les nombres complexes z vérifiant
ez = ω sont les nombres de la forme z0 + 2kπi où k est un entier relatif.

Démonstration : Notons ω = reiθ où r = |ω | et θ un argument de ω. On pose z0 = ln r + iθ. Maintenant, soit z


dans C tel que ez = ω, on a donc
ez = ez0 ⇔ ez−z0 = 1.
On en déduit donc que z − z0 est de la forme 2ikπ où k est un entier relatif. 
Remarque : On ne peut donc par définir proprement le logarithme d’un nombre complexe. On pourrait choisir
de prendre la seule solution de ez = ω dont la partie entière appartient à −]π, π ] (comme pour l’argument
principal) mais dans ce cas, la relation ln(zz0 ) = ln(z) + ln(z0 ) ne serait plus toujours vraie.
Exercice : Résoudre l’équation ez = 2 + 2i.

3 Applications à la trigonométrie
3.1 Quelques rappels de trigonométrie
Revoyons rapidement quelques points sur les fonctions trigonométriques.

23
Proposition [Link]

— Les fonctions sinus et cosinus sont définies sur R.


— Elles sont périodiques de période 2π. La fonction cosinus est paire et la fonction sinus est
impaire.
— Elles sont dérivables : pour tout x dans R, sin0 ( x ) = cos( x ) et cos0 ( x ) = − sin( x ).
— Il faut connaître certaines valeurs :

θ 0 π/6 π/4
√ π/3
√ π/2
sin(θ ) 0 1/2 2/2 3/2 1
√ √
cos(θ ) 1 3/2 2/2 1/2 0

0,5

-4 -3 -2 -1 0 1 2 3 4 5 6 7

-0,5

-1

Définition [Link]

Soit x ∈ R \ {π/2 + kπ | k ∈ Z} on pose :

sin x
tan x = .
cos x
La fonction tangente est alors la fonction définie sur R \ {π/2 + kπ | k ∈ Z} qui associe à x le nombre tan x.

On notera, dans ce paragraphe seulement, D = R \ {π/2 + kπ | k ∈ Z}.

Proposition [Link]

Voici les propriétés de la fonction tangente.


1. La fonction tan est π-périodique et impaire.
1
2. Elle est dérivable : Pour tout x dans D f , tan0 ( x ) = = 1 + tan2 ( x ).
cos2 ( x )
3. Il faut connaître certaines valeurs :

θ 0 π/6
√ π/4 π/3
√ π/2
tan(θ ) 0 3/3 1 3 X

24
6

-Π Π 2Π

-2

-4

-6

Proposition [Link]

Soit a ∈ R.
Les solutions de l’équation cos x = cos a sont :
— S = { a + 2kπ | k ∈ Z} ∪ {− a + 2kπ | k ∈ Z} si a n’est pas un multiple entier de π.
— S = { a + 2kπ | k ∈ Z} si a est un multiple entier de π.
Les solutions de l’équation sin x = sin a sont :
π
— S = { a + 2kπ | k ∈ Z} ∪ {π − a + 2kπ | k ∈ Z} si a n’est pas de la forme a = + kπ avec k
2
entier.
π
— S = { a + 2kπ | k ∈ Z} si a est de la forme a = + kπ avec k entier.
2

Démonstration : Démontrons juste le premier point, les autres se démontrent de manière similaire. On sait
que la fonction cos est 2π-périodique, de ce fait il existe α ∈] − π, π [ tel que cos a = cos α. Il suffit de prendre
α = a + 2nπ où n est l’unique entier relatif tel que α soit dans ] − π, π [. Séparons deux cas.
— Si α est compris entre −π et 0. Alors on sait que α est l’unique solution de l’équation dans l’intervalle
] − π, 0[. En effet sur cette intervalle la fonction cosinus est strictement croissante et continue donc d’après
le théorème de la bijection notre équation n’a qu’une unique solution. Maintenant, la fonction est paire
donc −α est l’unique solution de l’équation dans l’intervalle ]0, π [. On conclut alors en utilisant que cos
est 2π-périodique.
— Si α est compris entre 0 et π. On procède de même.


3.2 Formules trigonométriques


0 0
On a déjà vu que la relation ei(θ +θ ) = eiθ eiθ était une conséquence directe des formules d’addition pour
les cosinus et les sinus. Nous allons voir que l’usage des nombres complexes (en particulier sous forme
trigonométrique) permet de retrouver la plupart des relations trigonométriques.

Proposition [Link]

Soit a et b deux réels

cos( a + b) = cos( a) cos(b) − sin( a) sin(b) et sin( a + b) = sin( a) cos(b) + sin(b) cos( a).

Remarque : Il faut ABSOLUMENT connaitre ces formules. En cas d’oubli, on peut les retrouver à l’aide de la
relation ei(a+b) = eia eib .

25
Corollaire [Link]

Soit a et b deux réels.


1. cos( a − b) = cos( a) cos(b) + sin( a) sin(b) et sin( a − b) = sin( a) cos(b) − sin(b) cos( a).
tan( a) + tan(b)
2. si tan( a), tan(b) et tan( a + b) sont définis, tan( a + b) = .
1 − tan( a) tan(b)
3. cos(2a) = cos2 ( a) − sin2 ( a) = 2 cos2 ( a) − 1 = 1 − 2 sin2 ( a) et sin(2a) = 2 cos( a) sin( a).
1 + cos(2a) 1 − cos(2a)
4. cos2 ( a) = et sin2 ( a) = .
2 2
2 tan( a)
5. si tan( a) et tan(2a) sont définis, tan(2a) = .
1 − tan2 ( a)

Démonstration : Toutes ces formules découlent des formules d’addition.




Corollaire [Link]

Soit a un réel,
cos(π/2 − a) = sin a et sin(π/2 − a) = cos( a).

Remarque : Ces formules sont importantes. Elles se retrouvent facilement sur un dessin.
y

sin(π/2 − a)

x
cos( a)

Remarque : Cela permet de « transformer » des cosinus en sinus (et réciproquement). En fonction des cas, on
utilisera cette méthode ou cos2 a + sin2 a = 1.

Proposition [Link]

Soit a et b deux réels,


1
1. cos a cos b = (cos( a + b) + cos( a − b))
2
1
2. sin a cos b = (sin( a + b) + sin( a − b))
2
1
3. sin a sin b = (− cos( a + b) + cos( a − b)).
2

Remarque : Ce sont juste les formules d’addition lues à l’envers. On peut aussi les retrouver en développant
les formules d’Euler.

26
Proposition [Link]

Soit p et q deux réels :


   
p+q p−q
1. sin p + sin q = 2 sin cos .
2 2
   
p+q p−q
2. cos p + cos q = 2 cos cos .
2 2
   
p+q p−q
3. cos p − cos q = −2 sin sin .
2 2

Remarques :
1. Pourquoi ne donne-t-on de formules pour sin p − sin q ?
2. Ces formules proviennent des formules précédentes en les lisant à l’envers et en remarquant que
 p+q
  a =
a+b = p 2
est équivalent à p−q
a−b = q  b =
2

3. On peut aussi les retrouver en utilisant la méthode de l’angle moitié.


Exercice : Trouver une formule pour sin p + cos q.

3.3 Linéarisation
F Méthode : On voit ci-dessus que l’on peut exprimer cos2 ( x ) et sin2 ( x ) comme combinaison linéaire (c’est-à-dire
sans puissances) de terme de la forme cos(kx ) et sin(kx ) où k est un entier naturel. Cela est vrai pour tout
terme de la forme cosm x sinn x où n et m sont des entiers. C’est la linéarisation. Voici comme on procède sur un
exemple :
1
cos4 ( x ) = (cos(4x ) + 4 cos(2x ) + 3) .
8
En récapitulant
— On écrit les cosinus et les sinus à l’aide des formules d’Euler.
— On développe avec le binôme de Newton. (voir plus loin)
— On regroupe avec les formules d’Euler
Exercice : Linéariser cos2 ( x ) sin3 ( x ).

3.4 Transformation de cos(nx ) et sin(nx )


F Méthode : A l’inverse on voit que l’on peut aussi écrire les terme cos(nx ) et sin(nx ) comme des polynômes en
cos( x ) et sin( x ). Là encore procédons sur un exemple

cos(3x ) = Re(e3ix ) = Re((cos x + i sin x )3 ) = cos3 ( x ) − 3 cos( x ) sin2 ( x ) = 4 cos3 ( x ) − 3 cos( x ).

En récapitulant
— On écrit que cos(nx ) = Re((cos x + i sin x )n ou sin(nx ) = Im((cos x + i sin x )n (en utilisant la formule de
(De) Moivre).
— On développe le terme de droite avec la formule du binôme de Newton. (voir plus loin)
— On ne garde que les termes réels pour un cosinus et que les termes imaginaires pour un sinus.
— On utilise éventuellement la formule cos2 ( x ) + sin2 ( x ) = 1 pour simplifier.
Exercice : Exprimer sin(4x ) sous la forme cos( x ) P(sin x ) où P est une fonction polynomiale.
Remarque : On peut appliquer cette méthode pour exprimer tan(nx ) en tant que fraction rationnelle en tan x. Il
sin(nx )
suffit d’écrire tan(nx ) = , d’utiliser la méthode précédente pour de diviser numérateur et dénominateur
cos(nx )
n
par cos x.

27
3.5 Transformation de Fresnel
Proposition [Link] (Transformation de Fresnel)

Soit a et b deux réels non tous nuls. Il existe A et ϕ tels que pour tout réel t,

a cos(t) + b sin(t) = A cos(t + ϕ).

Remarque : Cette formule est très utile en physique.


Démonstration : L’idée est d’essayer d’écrire une formule d’addition de la forme
cos(t + ϕ) = cos(t) cos( ϕ) − sin(t) sin( ϕ).

On factorise donc par A = a2 + b2 et on obtient,
 
p  a b 
 
a cos(t) + b sin(t) = a2 + b2  √ cos(t) − √ sin(t) .
 a2 + b2 2
a +b 2 
| {z } | {z }
a0 b0

Maintenant, comme ( a0 )2 + (−b0 )2 = 1 il existe ϕ tel que cos( ϕ) = ( a0 ) et sin( ϕ) = −b0 (ϕ est un argument
de a0 + ib0 ).


Exercice : Appliquer cette transformation à cos(t) − sin(t) et à cos(t) + 3 sin(t).

3.6 Sommes de cosinus et de sinus


On peut ramener le calcul des sommes
n n
Cn = ∑ cos(kt) = cos(0) + · · · + cos(nt) et Sn = ∑ sin(kt) = sin(0) + · · · + sin(nt)
k =0 k =0

à des sommes des termes d’une suite géométrique. On suppose que t 6= 0[2π ].
En effet, !
n n
Cn = ∑ Re(eikt ) = Re ∑ (eit )k .
k =0 k =0
En utilisant la somme des termes d’une suite géométrique (qui sera revue au chapitre VI) on a donc
n
1 − e i ( n +1) t −2i sin((n + 1)t/2)e(n+1)it/2 sin((n + 1)t/2)enit/2
∑ (eit )k = 1 − eit
=
−2i sin(t/2)eit/2
=
sin(t/2)
k =0

Il ne reste plus qu’à prendre les parties réelles et imaginaires :

sin((n + 1)t/2) cos(nt/2) sin((n + 1)t/2) sin(nt/2)


Cn = et Sn =
sin(t/2) sin(t/2)

4 Résolution d’équations dans C


4.1 Equation du second degré
Commençons par résoudre l’équation z2 = ω d’inconnue complexe z où ω est un nombre complexe.

Proposition [Link]

Soit ω un nombre complexe. On considère l’équation

z2 = ω (E)

— si ω est nul (E) a pour unique solution z = 0.


— si ω est non nul, (E) a deux solutions opposés.

28
Démonstration :
— Si ω = 0 on a z2 = 0 implique z = 0 car, dans C, un produit n’est nul que si l’un des deux termes est nul.
— Si ω 6= 0, on peut poser ω = αeiϕ avec α ∈ R∗+ . Si on cherche z (qui n’est pas nul) sous la forme ρeiθ on a
 2  √
ρ =α ρ= α
z2 = ω ⇐⇒ ⇐⇒
2θ = ϕ[2π ] θ = ϕ/2[π ]
√ √
Donc S = { αeiϕ/2 ; − αeiϕ/2 }.


Définition [Link]

Soit ω un nombre complexe non nul. Les deux solutions opposées de l’équation z2 = ω s’appellent les racines
carrées de ω.

ATTENTION

ne jamais utiliser la notation ω quand ω n’est pas un réel positif. En effet, dans ce cas, les racines
carrées sont des nombres complexes non réels. Il n’y a aucune manière intelligente (c’est-à-dire
compatible au produit) de choisir l’une plutôt que l’autre.

√ √
Exemple : Sip p positif, ses racines carrées sont ω et − ω. Si ω est un réel négatifs, ses racines
ω est un réel
carrées sont i |ω | et −i |ω |.
F Méthode : On a vu que la manière la plus simple de déterminer les racines carrées d’un nombre complexe est
de passer par sa forme trigonométrique. Cependant, il arrive que l’on veuille travailler avec des nombres dont
on ne connait pas de forme trigonométrique simple. On passe alors par la forme algébrique.
Traitons un exemple. On prend ω = 3 + 4i. On pose z = a + ib où a et b sont des réels. Dès lors

a2 + b2 = |z|2 = |ω | = 9 + 16 = 5 et a2 − b2 = Re(ω ) = 3.

On remarque de plus que 2ab = Im(z2 ) = Im(ω ) et donc ab > 0.


Il ne reste plus qu’à résoudre le système
 2
 a + b2 = 5
a2 − b2 = 3

ab > 0
On trouve a2 = 4, b2 = 1 d’où z ∈ {2 + i, −2 − i }.

Théorème [Link] (Equation du second degré)

Soit a, b et c trois nombres complexes avec a différent de 0. On considère l’équation

ax2 + bx + c = 0 (E)

d’inconnue complexe x.
On note ∆ = b2 − 4ac le discriminant de l’équation (E).
b
— Si ∆ est nul, l’équation (E) admet une racine double x = − .
2a
— Si ∆ est non nul, on note δ une racine carrée de ∆. L’équation (E) admet alors deux solutions

−b + δ −b − δ
x1 = et x2 = .
2a 2a

29
Démonstration : Par mise sous forme canonique 
Exemple : Résolvons l’équation
x2 − 2ix − 2 − i = 0.
On retrouve alors le cas classique de l’équation du second degré à coefficients réels :

Théorème [Link] (Equation du second degré à coefficients réels)

Soit a, b et c trois nombres réels avec a différent de 0. On considère l’équation

ax2 + bx + c = 0 (E)

d’inconnue complexe x.
On note ∆ = b2 − 4ac le discriminant de l’équation (E).
b
— Si ∆ est nul, l’équation (E) admet une racine double x = − .
2a
— Si ∆ > 0. L’équation (E) admet alors deux solutions réelles
√ √
−b + ∆ −b − ∆
x1 = et x2 = .
2a 2a

— Si ∆ < 0. L’équation (E) admet alors deux solutions complexes conjuguées


p p
−b + i |∆| −b − i |∆|
x1 = et x2 = .
2a 2a

Exemple : On chercher a = tan(π/8). On sait que

2a
1 = tan(π/4) = cos(2 × (π/8)) = .
1 − a2
√ √
On en déduit que a vérifie l’équation
√ a2 + 2a − 1 = 0 dont les solutions sont a1 = −1 + 2 et a2 = −1 − 2. Or
a > 0 donc tan(π/8) = −1 + 2.
Exercice : Résoudre αx2 + 2αx − α2 − α − 1 = 0.

Proposition [Link] (Relation coefficients-racines)

Soit a, b et c trois nombres complexes avec a différent de 0. On considère l’équation

ax2 + bx + c = 0 (E)

d’inconnue complexe x.
Soit z1 et z2 deux nombres complexes (éventuellement confondus). Les nombres z1 et z2 sont les
racines de l’équation (E) si et seulement si

c b
z1 z2 = et z1 + z2 = − .
a a

Démonstration :
— ⇒ : Evident en utilisant les formules.
— ⇐ : Il suffit de remarquer que pour tout nombre complexe z,

a(z − z1 )(z − z2 ) = a(z2 − (z1 + z2 )z + z1 z2 ) = az2 + bz + c.


Exemples :

30
1. Si on se donne deux nombres S et P. On considère le système

z1 + z2 = S
z1 z2 = P

Ses solutions sont les couples (α, β) où α et β sont les solutions de l’équation X 2 − SX + P = 0.
Si on cherche les couples (z1 , z2 ) vérifiant le système

z1 + z2 = 1
z1 z2 = 1

1± 3
on résout X 2 − X + 1 dont les solutions sont .
2
2. Soit θ un réel. On considère l’équation X 2 − 2 cos(θ ) X + 1 = 0. On peut voir que eiθ + e−iθ = 2 cos(θ )
(formule d’Euler) et eiθ e−iθ = 1 donc les solutions sont {eiθ , e−iθ }. On peut aussi le faire avec la méthode
classique. Il faut cependant faire attention à la rédaction.

4.2 Racines n-ième d’un nombre complexe (n ∈ N? )


Dans cette section n désigne un nombre entier naturel non nul.

Définition [Link]

Soit ω un nombre complexe. On appelle racines n-ième de ω les solutions de l’équation zn = ω.


Les racines n-ième de 1 s’appellent les racines n-ième de l’unité. On note Un leur ensemble.

Proposition [Link]

L’ensemble Un est stable par produit et par passage à l’inverse.

Démonstration
Proposition [Link]

Il existe exactement n racines de l’unités qui sont

ζ k = e2ikπ/n où k ∈ [[ 0 ; n − 1 ]] .

On a donc pour tout k dans [[ 0 ; n − 1 ]], ζ k = ζ 1k .

Démonstration : On remarque déjà que le nombre z = 0 n’est pas une racine n-ième de l’unité. Dès lors on
pose z = ρeiθ la forme trigonométrique de z.

zn = 1 ⇔ (ρeiθ )n = 1
⇔ ρn einθ = 1ei0
 n
ρ =1

nθ = 0 [2π ]

ρ=1

θ = 0 [2π/n]
On en déduit que l’ensemble des solutions de zn = 1 est {ζ k | k ∈ Z}. Il suffit de voir que l’on peut
restreindre les valeurs de k. Par division euclidienne, on voit que pour tout entier k, il existe des entiers
q et r tels que k = qn + r avec r compris entre 0 et n − 1. Comme de plus, ζ qn+r = ζ r , on en déduit que
Un = {ζ k | k ∈ [[ 0 ; n − 1 ]]}. Il ne reste plus qu’à montrer que ces nombres sont deux à deux distincts.
Procédons par l’absurde. S’il existe k1 et k2 dans [[ 0 ; n − 1 ]] tels que ζ k1 = ζ k2 alors il existe un entier m tels que
2k1 π 2k π
= 2 + 2mπ
n n

31
d’où
k1 − k2 = nm.
or −(n − 1) 6 k1 − k2 6 n − 1. On en déduit que k1 − k2 = 0 et donc que k1 = k2 . 

Proposition [Link]

Si n est au moins égal à 2, la somme des racines de l’unité est nulle : 1 + ζ 1 + · · · + ζ 1n−1 = 0.

Démonstration : Il suffit de faire le calcul et utilisant la somme des termes d’une suite géométrique. 
Exercice : Calculer le produit des racines n-ième de l’unité.

Proposition [Link]

Soit ω un nombre complexe non nul.


1. Si u est une racine n-ième de ω, l’ensemble des racines n-ième de ω est {uζ | ζ ∈ Un }. La
somme des racines n-ième de ω est donc nulle.
2. Si ω = ρeiθ (forme trigonométrique) alors l’ensemble des racines n-ième de ω est
√ 2kπ
{ n ρei( n + n ) | k ∈ [[ 0 ; n − 1 ]]}.
θ

Démonstration
y

uζ 2
u
x

uζ 3
uζ 4

racine de z5 = eiπ/4

Exercice : Calculer le produit des racines n-ième de −2.

5 Géométrie plane
Nous avons déjà vu que les calculs de nombres complexes peuvent s’interpréter géométriquement. On peut
les utiliser en particulier pour les transformations du plan.

5.1 Applications géométriques


Proposition [Link]

1. Soit z un nombre complexe non nul et M le point image de z. Le module de z est la distance

→\ −−→
OM et les arguments de z sont les mesures de l’angle ( i , OM ).
2. Soit z et z0 deux complexes distincts et M, M0 leur point image. Le module de z0 − z est la

→\ −−→
distance MM0 et les arguments de z0 − z sont les mesures de l’angle ( i , MM0 ).

32
Démonstration :
1. Par définition.
−−→
2. Le premier point a déjà été vu. Pour le deuxième, on translate de vecteur OM.

M0

arg(z0 − z)


→ M
j



i

Corollaire [Link]

Soit A et B deux points du plan d’affixe complexe a et b. Soit M un point du plan distinct de B
z−a
d’affixe z. On note u = .
z−b
AM
Le module de u est égal au rapport alors que les arguments de u sont les mesures de l’angle
BM
−−\
→ −→
( AM, BM).

|z − a| AM −
→ −−→
Démonstration : On a |u| = = . De même, arg (u) = arg (z − a) − arg (z − b) = ( i , AM ) −
|z − b| BM

→ −→ −−→ −→
( i , BM) = ( AM, BM). Ces égalités étant définies uniquement à 2π-près. 

Corollaire [Link]

Avec les notations précédentes


— Les points A, B et M sont alignés si et seulement si u est réel.
−−→ −→
— Les vecteurs AM et BM sont orthogonaux (ce qui revient à dire que le point M appartient au
cercle de diamètre [ AB]) si et seulement si u est un imaginaire pur.

5.2 Transformation du plan


Une transformation f du plan est un moyen qui permet d’associer à tout point M du plan un unique point
M0 = f ( M ) du plan qui soit réversible. C’est une application bijective du plan dans lui même. On lui associe
une application que l’on notera g de C dans lui même en associant à tout nombre complexe z l’affixe du point
f ( M(z)). On dira que la transformation f est représentée par g.

Définition [Link] (Translation)

Soit −

u un vecteur du plan. La translation de vecteur − →u est la transformation du plan qui associe à tout point
0
−−→ 0 −→
M l’unique point M qui vérifie MM = u .
Si on note b l’affixe du vecteur −

u . La translation de vecteur −
→u est représentée par g : z 7→ z + b.

Remarque : Cette transformation est bien réversible. Son inverse est la translation de vecteur −−

u.

33
Définition [Link] (Homothétie)

Soit λ un réel non nul et Ω un point du plan. L’homothétie de centre Ω et de rapport λ est la transformation
−−→ −−→
plan qui associe à tout point M l’unique point M0 tel que ΩM0 = λΩM.
Si on note z0 l’affixe du point M0 . L’homothétie de centre Ω et de rapport λ est représentée par g : z 7→
z0 + λ ( z − z0 ).

Démonstration : Si on note z l’affixe de M et z0 l’affixe de M0 . On a donc, par définition, z0 − z0 = λ(z − z0 ).


On en déduit que g : z 7→ z0 + λ(z − z0 ). 
Remarque : Cette transformation est bien réversible. Son inverse est l’homothétie de centre Ω et de rapport
1/λ.

Définition [Link] (Rotation)

Soit θ un réel et Ω un point du plan. La rotation de centre Ω et d’angle θ est la transformation plan qui associe
−−→ −−→ −−→
\ −−→
à tout point M l’unique point M0 tel que ||ΩM0 || = ||ΩM || et (ΩM, ΩM0 ) = θ [2π ] .
Si on note z0 l’affixe du point Ω. L’homothétie de centre Ω et d’angle θ est représentée par g : z 7→
z0 + eiθ (z − z0 ).

Exercice : Justifier la formule donnée par g. Trouver l’inverse de la rotation de centre Ω et d’angle θ.

Définition [Link] (Similitudes directes)

On appelle similitude directe toute transformation du plan qui est représenté par une application de la forme
g : z 7→ az + b où a et b sont des complexes avec a non nul.

Remarque : Que se passe-t-il si a = 0 ?

Proposition [Link]

Une similitude directe conserve les angles et les rapports de distances.

Démonstration : Soit M1 , M2 , M3 et M4 des points deux à deux distincts. On note z1 , z2 , z3 et z4 leur affixe res-
pective. On considère une similitude directe représentée par l’application z 7→ az + b. On note alors M10 , M20 , M30
et M40 les images de M1 , M2 , M3 et M4 par la similitude et z10 , z20 , z30 et z40 leur affixe respective.
On en déduit donc que z20 − z10 = a(z2 − z1 ) et z40 − z30 = a(z4 − z3 ) d’où

z20 − z10 z − z1
= 2 .
z40 − z30 z4 − z3

−−−→ \ −−−→ −−−→\ −−−→ M0 M0 M M2


On en déduit que l’angle ( M10 M20 , M30 M40 ) est égal à ( M1 M2 , M3 M4 ). De même 10 20 = 1 . 
M3 M4 M3 M4
Remarque : On notera par contre qu’une similitude directe ne conserve les distance que si | a| = 1.

Proposition [Link]

Soit f la similitude directe représentée par z 7→ az + b où a est un complexe non nul et b un complexe.
— Si a = 1 l’application est la translation de vecteur b.
b
— Si a 6= 1, on pose ω = . La représentation complexe de la similitude s’écrit alors z 7→
1−a
ω + a ( z − ω ).

34
Remarque : Le nombre ω est trouvé en résolvant l’équation g(z) = z.
Exemple : Soit z 7→ (1 + i )z − (2 + i ). Dans toute la suite on suppose a 6= 1.

Définition [Link]

Avec les notations précédentes. Le point Ω image de ω s’appelle le centre de la similitude. Il est stable (vérifie
f (Ω) = Ω). Le réel | a| s’appelle le rapport de la similitude et si θ est un argument de a, c’est une mesure de
l’angle de la similitude.

Proposition [Link]

Avec les notations précédentes, si on note r la rotation de centre Ω et de rapport | a| et h l’homothétie


de centre Ω et d’angle θ alors f = h ◦ r = r ◦ h. En particulier, si | a| = 1, f est une rotation et si a est
réel c’est une homothétie.

Théorème [Link]

Soit M1 , M2 ,deux points distincts et M10 , M20 deux autre points distincts. Il existe une unique simili-
tude directe transformant M1 en M10 et M2 en M20 .

Démonstration : On cherche a et b deux nombres complexes dont le premier n’est pas nul vérifiant
 0 
z1 = az1 + b a(z1 − z2 ) = z10 − z20
0 ⇐⇒
z2 = az2 + b b(z2 − z1 ) = z2 z10 − z1 z20


Exercice : Soit M1 , M2 , M10 et M20 les points d’affixes respectives 1, i, −1 − 2i et 5 − 2i. Trouver l’unique
similitude qui transforme M1 en M10 et M2 en M20 . On précisera son rapport et son angle.
Remarque : On a vu que la conjugaison complexe correspondait à la symétrie d’axe (Ox ). Ce n’est pas une
similitude directe car elle change l’orientation des angles.

35
1
Fonctions usuelles
Rappels
2 36
1.1 Relation d’ordre et inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2 Composition, monotonie et majoration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.4 Bijections et fonctions réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2 Fonctions logarithmes, exponentielles et puissances 42
2.1 La fonction logarithme népérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2 La fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3 Les fonctions exponentielle et logarithme de base a . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.4 Fonctions puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

3 Étude d’une fonction réelle 47


3.1 Périodicité, parité et symétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2 Limites et croissances comparées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Branches infinies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4 Fonctions circulaires réciproques 53
4.1 La fonction arcosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 La fonction arcsinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3 La fonction arctangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5 Fonctions hyperboliques 56
5.1 Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6 Fonctions à valeurs complexes 58
6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.2 La fonction t 7→ e ϕ(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

Nous allons faire le point sur les fonctions usuelles déjà vues au lycée. Par la suite nous définirons les
fonctions circulaires réciproques. Dans tout ce chapitre I désignera un intervalle de R et les fonctions étudiées
seront à valeurs dans R sauf exprimés précisément.

1 Rappels
Voici quelques rapides rappels de la terminale qui nous seront utiles dans ce chapitre. Nous y reviendrons
dans l’année.

36
1.1 Relation d’ordre et inégalités
Théorème [Link]

L’ensemble R des nombres réels est muni d’une relation d’ordre noté 6 définie par x 6 y si et
seulement si y − x est positif. Cette relation est compatible avec les opérations de R à savoir :
1. Si x, y et z sont trois réels tels que x 6 y alors x + z 6 y + z.
2. Si x et y sont deux réels positifs (c’est-à-dire x > 0 et y > 0) alors xy est positif.

Nous reviendrons plus en détails sur ce point dans la suite du cours. Notons déjà quelques corollaires

Corollaire [Link]

1. Si x et y sont deux nombres réels tels que x 6 y alors −y 6 − x. En particulier, si x > 0 alors
− x 6 0.
2. (Règles des signes). Si x et y sont deux réels.
— Si x et y sont de même signe alors xy > 0.
— Si x est positif et y négatif (ou l’inverse) alors xy 6 0.
3. Si x, y et z sont trois réels. Si x 6 y et z > 0 alors xy 6 yz.
1 1
4. Si x, y sont deux réels strictement positifs. Si 0 < x 6 y alors 0 6 6 .
y x

Démonstration :
1. Il suffit d’ajouter − x − y des deux cotés.
2. — Il suffit de voir que si xy = (− x )(−y).
— Il suffit de voir que si x > 0 et y 6 0 alors xy = − x (−y).
3. En exercice.
4. En exercice.


Définition [Link]

Soit x un réel.
1. On appelle partie positive (resp. partie négative) de x le plus grand des deux réels x et 0 (resp. − x et 0).
On la note x + (resp. x − ). On a donc
 
+ x si x > 0 − − x si x > 0
x = et x = .
0 sinon x sinon

En particulier, x + et x − sont positifs.


2. On appelle valeur absolue de x le plus grand des deux réels x et − x. On la note | x |. On a donc

x si x > 0
|x| = .
− x sinon

Exemple : Pour x = 3, 14 on a x + = | x | = 3, 14 et x − = 0. De même pour x = −2, on a x + = 2, x − = 2 et


| x | = 2. Exercices :
1. Montrer en procédant à une disjonction que x = x + − x − et | x | = x + + x − .
x + |x|
2. Montrer en procédant à une disjonction que x + = . Trouver une formule analogue pour x − .
2

37
Proposition [Link] (Inégalité triangulaire)

Soit x, y deux réels


| x + y | 6 | x | + | y |.

Démonstration : Il suffit d’élever au carré et d’utiliser que xy 6 | xy|. 


Remarque : Cette propriété est TRES importante.

Définition [Link]

On appelle intervalle de R une partie de R qui est soit R en entier soit est de la forme :

[ a, b] = { x ∈ R | a 6 x 6 b} [ a, b[= { x ∈ R | a 6 x < b}
] a, b] = { x ∈ R | a < x 6 b} ] a, b[= { x ∈ R | a < x < b}
] − ∞, b] = { x ∈ R | x 6 b} ] − ∞, b[= { x ∈ R | x < b}
[ a, +∞[ = { x ∈ R | a 6 x } ] a, +∞[ = { x ∈ R | a < x }

où a et b sont deux réels.

Remarque : En particulier, l’ensemble vide est un intervalle (il suffit de prendre a > b). De même les singletons
sont des intervalles.
Terminologie : Un intervalle de la forme [ a, b] (avec a 6 b) est appelé intervalle fermé. Un intervalle de la forme
] a, b[ (avec a 6 b) est appelé intervalle ouvert. Un intervalle de la forme ] a, b] ou [ a, b[ est appelé semi-ouvert ou
semi-fermé.
Proposition [Link]

Soit a et b deux réels. L’ensemble des réels x tels que | x − a| 6 b est un intervalle. Si b > 0 c’est
[ a − b, a + b].

a+b
Remarque : A l’inverse soit I = [ a, b]. Le milieu de l’intervalle est c = . Sa longueur est l = b − a. On a
2
alors
[ a, b] = { x ∈ R | | x − c| 6 l/2.}.

(b − a)/2

a c = ( a + b)/2 b

b−a

Il est important de savoir résoudre efficacement quelques inéquations simples :


1. Résoudre dans R, x2 + 3x − 1 6 2x + 5.
x2 + 3x − 1 6 2x + 5 ⇐⇒ x2 + x − 6 6 0
⇐⇒ ( x − 2)( x + 3) 6 0
Via un tableau de signe on trouve alors S = [−3, 2].
1 2x + 1
2. Résoudre 6 2 On travaille sur R \ {1, 2, 4}.
x−4 x − 3x + 2
1 x+1 x2 − 3x + 2 − ( x − 4)(2x + 1)
6 2 ⇐⇒ 60
x−4 x − 3x + 2 ( x − 4)( x − 1)( x − 2)
− x2 + 4x + 6
60
( x − 4)( x − 1)( x − 2)
−( x − x1 )( x − x2 )
60
( x − 4)( x − 1)( x − 2)
√ √
où x1 = 2 + 2 3 et x2 = 2 − 2 3.

38

3. Résoudre x + x2 − 3x + 2 > 0. On travaille sur R\]1, 2[.
p p
x + x2 − 3x + 2 > 0 ⇐⇒ x2 − 3x + 2 > x
On voit en particulier que si x est négatif, l’inéquation est vérifié. Ensuite, si x est positif on est ramené (en
passant au carré) à x2 − 3x + 2 > x2 ⇐⇒ x 6 2/3. On a donc S =] − ∞, 2/3].

1.2 Composition, monotonie et majoration


Définition [Link]

Soit f une fonction définie sur I et g une fonction définie sur une partie K. On suppose que pour tout x de I,
f ( x ) appartienne à K. On appelle alors composée de g et f et on note g ◦ f la fonction définie sur I par

g◦ f : I → R
x 7→ g( f ( x ))

Exemples :
1. Si on note f : x 7→ cos( x ) et g : x 7→ x2 . On a f ◦ g : x 7→ cos( x2 ) et g ◦ f : x 7→ (cos x )2 = cos2 x. On
utilise souvent cette dernière notation qui se confond moins avec la première.
1
2. Si f est une fonction qui ne s’annule pas sur I et g définie sur R? par X 7→ , la fonction g ◦ f est la
X
1
fonction .
f
Commençons par rappeler la définition d’une fonction croissante.

Définition [Link] (Monotonie)

Soit f une fonction définie sur I.


1. On dit que f est croissante (resp. décroissante) si et seulement si, pour tout x, y dans I, si x 6 y alors
f ( x ) 6 f (y) (resp. f ( x ) > f (y))
2. On dit que f est strictement croissante (resp. décroissante) si et seulement si, pour tout x, y dans I, si
x < y alors f ( x ) < f (y) (resp. f ( x ) > f (y))
3. On dit que f est monotone (resp. strictement monotone) si elle est croissante ou décroissante (resp.
strictement croissante ou strictement décroissante).

Remarques :
1. Cela signifie que quand f est croissante alors « les images sont dans le même sens que les éléments ».
2. Si f et g sont feux fonctions croissantes sur I alors f + g est croissante. Est-ce vrai pour f × g ?
Exemples :
1. La fonction x 7→ x2 est croissante sur R+ (mais pas sur R).
2. La fonction x 7→ 1/x est croissante sur R?∗ (mais pas sur R).
Exercice : Justifier que la composée de deux fonctions croissantes est croissante.

Définition [Link]

Soit f une fonction définie sur une partie K de R.


1. On dit que f est majorée (resp. minorée) s’il existe un réel M (resp. m) tel que pour tout x dans K,
f ( x ) 6 M (resp. f ( x ) > m).
2. On dit que f est bornée si elle est majorée et minorée

39
ATTENTION

Il est essentiel que le M (ou m) soit indépendant de x. Par exemple, on a que pour tout x de R,
x − 1 6 x mais cela ne signifie par que x 7→ x − 1 soit majorée. Par contre, on sait que pour tout réel
x, x2 − 1 > −4 donc x 7→ x2 − 1 est minorée.

Remarque : Pour montrer que f est bornée, il suffit de montrer que | f | est majorée.

1.3 Dérivation
Dans ce paragraphe, nous n’allons pas rentrer dans la théorie de la dérivation des fonctions (cela sera l’objet
d’un chapitre plus tard dans l’année). Nous allons nous conter de rappels les principes de calculs des fonctions
dérivées et l’utilisation pour étudier la monotonie et les tangentes.

Théorème [Link]

Soit f une fonction dérivable sur un intervalle I. Elle est croissante (resp. décroissante) si et seulement
si f 0 est positive (resp. négative) De plus si f 0 est strictement positive (resp. négative) alors f est
strictement croissante (resp. décroissante).

Théorème [Link] (Opérations usuelles)

Soit f et g deux fonctions dérivables.


1. La fonction f + g est dérivable et ( f + g)0 = f 0 + g0 .
2. Soit λ un réel, la fonction λ f est dérivable et (λ f )0 = λ f 0 .
3. La fonction f × g est dérivable et ( f × g)0 = f 0 × g + f × g0 .

Remarque : Tous ces résultats seront prouvés dans le chapitre sur la dérivation.
Exemple : La fonction x 7→ x2 cos( x ) + sin( x ) est dérivable et sa dérivée est x 7→ 2x cos( x ) − x2 sin( x ) + cos( x ).

Théorème [Link] (Dérivée d’une composée)

Soit f une fonction définie sur I et g une fonction définie sur une partie K. On suppose que pour tout
x de I, f ( x ) appartienne à K. Si f et g sont dérivables alors g ◦ f aussi et

( g ◦ f )0 = f 0 × g0 ◦ f

ce qui signifie que pour tout x de I,

( g ◦ f )0 ( x ) = f 0 ( x ) × g0 ( f ( x )).

ATTENTION

Cette formule est importante. Une erreur standard est d’oublier le terme en f 0 ( x ).

Exemples :
1. La dérivée de x 7→ cos( x2 ) est −2x sin( x2 ).
2. La dérivée de x 7→ f (2x ) est x 7→ 2 f 0 (2x ).

40
Corollaire [Link]

 0
1 1
1. Soit f une fonction dérivable sur I qui ne s’annule pas. La fonction est dérivable et =
f f
f 0
− 2.
f
f
2. Soit f et g deux fonctions dérivables sur I qui ne s’annulent pas. La fonction est dérivable et
g
 0
f f 0 g − g0 f
= .
g g2

Démonstration : Il suffit d’utiliser la composition. 


sin x x cos x − sin x
Exemple : La dérivée de x 7→ définie sur R?+ est x 7→ .
x x2

1.4 Bijections et fonctions réciproques


Définition [Link]

Soit I et J deux intervalles de R et f une application de I dans J. On dit que f est une bijection (ou que f est
une application bijective) si tout élément de J a un unique antécédent par f .

Exemples :
1. La fonction carrée de R+ dans lui même est bijective.
2. La fonction carrée de R dans R ne l’est pas.
Remarque : Pour définir une bijection il est important de préciser non seulement l’ensemble de départ mais
aussi l’ensemble d’arrivée... Nous y reviendrons plus en détails dans le chapitre suivant.

Définition [Link]

Soit f une bijection de I dans J. On appelle bijection réciproque de f l’application que J dans I qui associe à
tout élément de J son antécédent par f . Elle se note f −1 .

Proposition [Link]

Avec les notations précédentes, pour tout x de I, f −1 ( f ( x )) = x. De ce fait ( f −1 )−1 = f .

Remarque : La première propriétés signifie que f ◦ f −1 est l’application identité de I qui associe à x dans I,
l’élément x lui-même.

41
Proposition [Link]

Avec les notations précédentes.


1. La courbe représentative de f −1 est le symétrique de la courbe représentative de celle de f par
la symétrie d’axe la première bissectrice.
2. si f est continue, f −1 aussi.
3. si f est dérivable et que f 0 ne s’annule pas alors f −1 est dérivable et

1
( f −1 ) 0 = .
f0 ◦ f −1

Nous utiliserons le théorème suivant vu en terminale (nous le démontrerons plus loin).

Théorème [Link] (Théorème de la bijection)

Soit f une fonction définie sur un intervalle I. Si f est continue et strictement monotone elle réalise
une bijection de I sur son intervalle image J.

Remarque : Nous restons pour le moment un peu flou sur l’intervalle J. Dans les exemples il sera aisé de le
déterminer.
Exemple : La fonction f : x 7→ x2 est continue et strictement croissante sur R+ . De plus f (0) = 0 et lim x2 =
x →+∞
+∞. On en déduit que f est une bijection de R+ dans R+ . Sa bijection réciproque est la fonction racine carrée.

2 Fonctions logarithmes, exponentielles et puissances


2.1 La fonction logarithme népérien
Définition [Link]

La fonction logarithme népérien notée ln est l’unique primitive sur R?+ de la fonction x 7→ 1/x qui s’annule
en 1. On a donc pour tout réel strictement positif x :
Z x
dt
ln( x ) = .
1 t

42
Remarque : La fonction existe du fait que la fonction x 7→ 1/x est continue sur R?+ .

Proposition [Link]

Soit x et y deux élément de R?+ ,


ln( xy) = ln x + ln y.

Démonstration : Il suffit de fixer y est de considérer la fonction x 7→ ln( xy) − ln( x ) − ln(y). 

Corollaire [Link]

1. Soit x et y deux élément de R?+ , ln( x/y) = ln( x ) − ln(y).


2. Soit x un élément de R?+ et n un entier relatif, ln( x n ) = n ln( x ).

Proposition [Link]

La fonction ln est continue sur R?+ , lim ln( x ) = −∞ et lim ln( x ) = +∞. On en déduit que ln
x →0 x →+∞
réalise une bijection de R?+ sur R.

Démonstration : La fonction ln est strictement croissante car sa dérivée 1/x est positive. Il suffit donc de
montrer qu’elle n’est pas majorée. Or pour tout entier naturel n, ln(2n ) = n ln(2) et ln(2) > ln(1) = 0. On en
déduit que lim ln( x ) = +∞. Maintenant, en utilisant que ln(1/x ) = − ln( x ) on trouve la limite en 0. On peut
x →+∞
conclure avec le théorème de la bijection.


x
0 1 2 3 4 5 6 7

2.2 La fonction exponentielle


Définition [Link]

La fonction exponentielle, noté exp est la fonction réciproque de la fonction logarithme népérien. Elle est définie
de R dans R?+ .

Proposition [Link]

Soit x un réel et y un réel strictement positif. On a x = ln(y) si et seulement si y = exp( x ).

43
En utilisant les propriétés de la fonction ln et les propriétés des réciproques on obtient

Proposition [Link]

1. La fonction exp est continue et dérivable sur R et elle est égale à sa dérivée.
2. Elle est strictement croissante, lim exp( x ) = 0 et lim exp( x ) = +∞.
x →−∞ x →+∞
3. On a exp(0) = 1.
exp( x )
4. Soit x et y deux réels et n un entier relatif : exp( x + y) = exp( x ) exp(y), exp( x − y) =
exp(y)
et exp(nx ) = exp( x )n .

Démonstration : A faire 

x
-3 -2 -1 0 1 2 3

Définition [Link]

On note e le nombre exp(1). Il vérifie donc ln(e) = 1. On a e ' 2, 7182818285.

Notation : Soit x un réel on note e x pour exp( x ).


Remarque : Cette notation est justifiée par les règles de calculs prouvées ci-dessus.

2.3 Les fonctions exponentielle et logarithme de base a


Dans ce chapitre, on se fixe un réel strictement positif différent de 1 que l’on note a.
On a donc défini la fonction exponentielle exp = x 7→ exp x = e x . La notation est justifiée par le fait que,
pour tout entier naturel n :
exp(n) = e × e × · · · × e .
| {z }
nfois

On aimerait de même définir une fonction x 7→ a x définie sur R et telle que pour tout entier n,

an = a × a × · · · × a .
| {z }
nfois

On va la chercher de la forme x 7→ exp(kx ) pour garder les propriétés de calculs des exponentielles.
En regardant la valeur pour x = 1 on voit que l’on doit prendre k = ln( a).

Définition [Link]

On appelle exponentielle de base a et on note expa la fonction telle que pour tout réel x, expa ( x ) =
exp( x ln( a)).

44
Remarque : La fonction exponentielle de base e est la fonction exponentielle.
Notation : Comme ci-dessus, on note expa ( x ) = a x .

Proposition [Link]

1. On a expa (0) = 1 et expa (1) = a.


2. La fonction expa est continue et dérivable et pour tout réel x, exp0a ( x ) = ln( a) expa ( x ).
expa ( x )
3. Soit x et y deux réels : expa ( x + y) = expa ( x ) expa (y), expa ( x − y) =
expa (y)
4. Soit x un réel et n un entier relatif : expa (nx ) = expa ( x )n en particulier, expa (n) = an .

ATTENTION

La fonction exponentielle de base a est croissante si et seulement si a > 1.

a<1 a>1

x
-3 -2 -1 0 1 2 3

Définition [Link]

On appelle logarithme en base a et on note loga la fonction définie sur R?+ par

ln( x )
loga : x 7→ .
ln( a)

On peut aussi la définir comme la fonction réciproque de la fonction exponentielle de base a.

Remarque : La fonction ln est donc le logarithme de base e.

45
Proposition [Link]

1. On a loga (1) = 0 et loga ( a) = 1.


2. La fonction loga est continue et dérivable et pour tout réel strictement positif x, log0a ( x ) =
1
.
x ln( a)
3. Soit x et y deux réels et n un entier relatif, loga ( x + y) = loga ( x ) + loga (y), loga ( x/y) =
loga ( x ) − loga (y) et loga ( an ) = n.

Exemples :
1. Le logarithme de base 10 est appelé logarithme décimal. Il se note log Il est utile car log(10n ) = n. Il permet
donc de mesurer l’ordre de grandeur d’un nombre (dans une écriture décimale). On l’utilise par exemple
pour les échelles logarithmiques comme le pH où pH = − log[ H + ] avec [ H +] est la concentration en ions
hydrogènes exprimées en moles par litre.
De fait, si N est un nombre entier et si p est le nombre de chiffres de son écriture décimale alors 10 p−1 6
N < 10 p . De ce fait, p − 1 6 log( N ) < p. On en déduit que p est blog( N )c − 1
2. En informatique, on travaille souvent avec des puissances de 2. On utilise alors le logarithme de base 2 dit
logarithme binaire.
Exercice : Soit a > 0. Résoudre l’équation loga x = logx a.

2.4 Fonctions puissances


Définition [Link]

Soit α un réel, on définit la fonction puissance de R?+ dans lui même par :

x 7→ x α = exp(α ln( x )).

Remarque : Il ne faut pas confondre cette fonction puissance avec l’exponentielle de base a : x 7→ a x =
exp( x ln( a)).
Exemples :
1. Dans le cas ou α est un réel strictement positif on retrouve les classiques fonctions puissances : x 7→
x2 , x 7→ x3 , . . .. De fait c’est la restriction à R?+ que l’on retrouve.
2. Dans le cas où α est réel strictement négatif, là encore on retrouve les fonctions classiques : x 7→ x −1 =
1 1
, x 7 → x −2 = 2 , . . .
x x
3. Si α est nulle la fonction est constante.
Remarque : Par définition (à cause du ln) les fonctions puissances sont définies sur R?+ . Cependant, si α > 0,
quand on fait tendre x vers 0, x α tend vers 0 (ou 1 si α = 0). De ce fait, on peut « prolonger »la fonction à R+ . De,
plus si α ∈ N, on peut réexprimer cette fonction comme x α = x × · · · × x (α fois) et de ce fait, on peut prolonger
cette définition à R en entier.

Proposition [Link]

1. La fonction x 7→ x α est continue et dérivable et sa dérivée est x 7→ α.x α−1 .


2. Soit α et β deux réels et x et y deux réels strictement positifs. On a

x α .x β = x α+ β , x α .yα = ( xy)α ( x α ) β = x αβ .

3. ln( x α ) = α ln( x ).

Démonstration : A faire en exercice. 

46
Proposition [Link]

Soit I un intervalle et u et v deux fonction définies et dérivables sur I. On suppose que u prend ses
valeurs dans R?+ . La fonction f : x 7→ u( x )v( x) est dérivable et sa dérivée est :
 
0 0 u0 ( x )
f : x 7→ v ( x ) ln(u( x )) + v( x ) f ( x ).
u( x )

ATTENTION

Le comportement des fonctions puissances dépend de la valeur de a.

α = −1 α=2

α = 1/2

x
0 1 2 3 4

En particulier si α > 0, la fonction puissance tend vers 0 en 0 et peut être prolongée par continuité. Ce
prolongement sera dérivable en 0 si α > 1, sinon il y a une tangente verticale.
Notation : Soit n un entier naturel non nul, pour tout réel strictement positif, ( x1/n )n = x. De ce fait la fonction

x 7→ x1/n est la réciproque de la restriction à R?+ de x 7→ x n . On l’appelle la racine n-ième et elle se note x 7→ n x.
On remarquera que, si n est impair, la fonction réciproque peut-être définie de R dans R.
√ √ x
Exercice : Résoudre l’équation x x = x .

3 Étude d’une fonction réelle


Nous allons repasser en revue le plan d’étude d’une fonction réelle.

47
3.1 Périodicité, parité et symétrie
Définition [Link]

Soit f une fonction numérique.


— Elle est paire si ∀ x ∈ D f , (− x ∈ D f et f (− x ) = f ( x )).
— Elle est impaire si ∀ x ∈ D f , (− x ∈ D f et f (− x ) = − f ( x )).

Exemple : Soit n ∈ N, la fonction f ( x ) = x n est paire si n est pair et impaire si n est impair.

Proposition [Link]

Soit f une fonction numérique et Γ f son graphe.

La fonction f est paire ⇔ le graphe Γ f est symétrique par rapport à (Oy).


La fonction f est impaire ⇔ le graphe Γ f est symétrique par rapport à O.

Proposition [Link]

Soit f une fonction numérique.


— Soit α ∈ R. La courbe de f admet la droite d’équation x = α poux axe de symétrie si :

∀ x ∈ R, α + x ∈ D f ⇔ 2α − x ∈ D f et ∀ x ∈ D f , f ( x ) = f (2α − x ).

— Soit (α, β) ∈ R2 . La courbe de f admet le point (α, β) pour centre de symétrie si :

∀ x ∈ R, α + x ∈ D f ⇔ 2α − x ∈ D f et ∀ x ∈ D f , f ( x ) = 2β − f (2α − x ).

y y

x x
α−h α α+h α−h α α+h

Remarque : Il n’est pas simple de retenir que si la courbe de f admet la droite d’équation x = α poux axe de
symétrie alors f (α + h) = f (α − h) et que si la courbe de f admet le point (α, β) pour centre de symétrie alors
f (α + h) + f (α − h) = 2β.

Définition [Link]

Soit f une fonction numérique et T un réel non nul. On dit que x est périodique de période T si :
— ∀ x ∈ D f , x + T ∈ D f et x − T ∈ D f
— ∀ x ∈ D f , f ( x + T ) = f ( x ).
On dit alors que T est une période de f .

Exemples :

48
1. La fonction x 7→ sin( x ) est périodique de période 2π. Elle est aussi périodique de période 4π.
2. La fonction tangente est périodique de période π.
3. La fonction x 7→ x − b x c est périodique de période 1.

Proposition [Link]

Soit f une fonction périodique de période T. La courbe C de f est invariante par translation de
vecteur ( T, 0).

Définition [Link]

Soit f une fonction numérique. On dit que f est périodique s’il existe une réel T non nul tel que f soit
périodique de période T.

Remarque : si f est une fonction périodique, alors elle admet une infinité de période. En effet si T est une
période alors 2T aussi et par extension tous les nombres de la forme nT pour n ∈ Z − {0}. On parlera - par abus
- de la période d’une fonction pour la plus petite période positive.

3.2 Limites et croissances comparées


Proposition [Link]

Soit a et b deux réels strictement positifs on a les limites suivantes :

ln( x )b exp(bx )
lim x a | ln( x )|b = 0, lim = 0, lim | x | a exp(bx ) = 0 et lim = +∞.
x →0 x →+∞ xa x →−∞ x →+∞ xa

Remarques :
1. Les cas où a ou b sont négatifs peuvent se ramener ceux-ci en passant à l’inverse. D’autre part, on n’a
ln x
indiquer que les limites qui sont des formes indéterminées. Par exemple, lim = −∞ est évidente.
x →0 x
2. On peut dire pour raccourcir que l’exponentielle « l’emporte » sur les puissances et que ces dernières
« l’emportent » sur les logarithmes.
Démonstration :
exp(bx )
— Commençons par montrer lim = +∞.
x →+∞xa
 
exp(bx ) exp( x ) b
D’abord on voit que pour tout réel x, = . On est donc ramené à prouver que
xa x a/b
exp( x ) exp( x )
lim = +∞ où α = a/b est un réel positif. Si on note f : x 7→ . C’est une fonction
x →+∞ xα xα
dérivable. En calculant la dérivée, on voit qu’elle est croissante au voisinage de +∞. Il suffit donc de
montrer que la suite (un ) définie par un = f (n) tend vers +∞.
Or pour tout entier naturel n,
 α
u n +1 e n +1 n α n
= n =e → e.
un e ( n + 1) α n+1

Dès lors il existe N tel que pour n > N, un+1 > 2un . Par récurrence on montre alors que pour n > N,
u n > 2n − N u N .
— Maintenant étudions lim | x | a exp(bx ) = 0. Il suffit de voir que
x →−∞

xa (− x ) a
| x a exp(bx )| = = .
exp(b(− x )) exp(b(− x ))

49
— Il suffit de faire le changement de variables x = et (ou t = ln x). En effet on sait que lim (et ) a |t|b = 0 et
t→−∞
que lim ln x = −∞ donc, par composition de limites,
x →0

lim (eln x )| ln( x )|b = 0.


x →0

F Méthode :
— Pour étudier la limite d’un polynôme ou d’un quotient de polynôme en en ±∞ on factorise par le terme
de plus haut degré (nous verrons plus tard une autre manière de rédiger).
3x2 + x − 1
Par exemple, lim 2 . On écrit
x →∞ x + 2x + 7
 
2 3+ 1 − 1
2
3x + x − 1 x x x2 3 + 1x − x12
=   = .
x2 + 2x + 7 x2 1 + 2 + 72 1 + 2x + x72
x x

Sous cette forme on voit que la limite est 3.


— Pour déterminer la limite d’un quotient de polynôme en a quand les deux polynômes s’annulent, on peut,
au choix, faire une factorisation ou poser x = a + h. Déterminons par exemple
x3 − 2x2 − x − 6
lim .
x →3 x2 − x − 6
Proposition [Link] (Limites usuelles)

On a
sin x cos x − 1 ln(1 + x )
lim =1 lim = −1/2 lim =1
x →0 x x →0 x2 x →0 x
exp( x ) − 1 (1 + x ) − 1
α
lim =1 lim = α.
x →0 x x →0 x

Démonstration : A part celle sur les cosinus, elles se démontrent en utilisant le limite du taux d’accroissement
à l’origine. Pour ce qui est de cosinus, on remarque que pour x non nul,
 
cos x − 1 −2 cos2 ( x/2) 1 sin( x/2) 2
= =− .
x2 x2 2 x/2


3.3 Branches infinies


Le but de l’étude des branches infinies et de préciser le comportement des fonctions quand la courbe de la
fonction « part à l’infini ».
• Asymptote verticale : Soit a ∈ R. Si lim f ( x ) = ±∞, on dit que la courbe de f admet une asymptote verticale
x→a
1
d’équation x = a. Par exemple, la fonction f : x → admet une asymptote verticale d’équation x = −2 car
x+2
lim = ±∞.
x →−2
y

50
• Asymptote horizontale : Soit f une fonction. Si limx→+∞ f ( x ) = ` ∈ R (resp. limx→−∞ f ( x ) = ` ∈ R), on
dit que la courbe de f admet une asymptote horizontale d’équation y = ` en +∞ (resp. −∞). Dans ce cas, on a
−x
limx→±∞ f ( x ) − ` = 0. Par exemple, on considère la fonction f : x → e−e . Elle admet la droite y = 1 comme
asymptote en +∞ et la droite y = 0 comme asymptote en −∞
y

• Asymptote oblique : Soit f une fonction. On suppose cette fois que limx→±∞ f ( x ) = ±∞. On regarde alors
f (x) f (x)
. On suppose qu’il existe α ∈ R? un réel non nul tel que lim = α. On regarde alors la limite en ±∞
x x →±∞ x
de f ( x ) − αx. Deux cas se présentent.
— Si x 7→ f ( x ) − αx admet une limite finie β ∈ R. On dit que la droite y = αx + β est une asymptote oblique
en ±∞. On a alors
lim f ( x ) − (αx + β) = 0.
x →±∞

x2 − 6
Par exemple, on considère la fonction f : x 7→ . On calcule la limite de f ( x )/x et on trouve 1/2. On
2x − 1
calcule alors
1 x/2 − 6 1
f (x) − x = → .
2 2x − 2 4
1 1
D’où la courbe admet la droite d’équation y = x + comme asymptote en ±∞.
2 4

— Si x 7→ f ( x ) − αx n’admet pas de limite finie. C’est-à-dire que elle n’a pas de limite ou qu’elle a une
limite infinie. On dit que la droite d’équation y = αx est une direction asymptotique. Par exemple
f : x 7→ x + ln x.

51
y

f (x)
• Branche parabolique :Soit f une fonction. On encore que limx→±∞ f ( x ) = ±∞. On regarde alors .
x
f (x)
— Si lim = 0. On dit que la fonction f admet une branche parabolique de direction (Ox ). Par exemple
x →±∞ √ x
f : x 7→ x

f (x)
— Si lim = ±∞. On dit que la fonction f admet une branche parabolique de direction (Oy). Par
x →±∞ x
exemple f : x 7→ x2

52
y

4 Fonctions circulaires réciproques


4.1 La fonction arcosinus
La fonction cosinus de R dans R n’est pas bijective. Si on la restreint de [0, π ] dans [−1, 1] elle semble
bijective.

De fait, la fonction x 7→ cos x est continue, elle est strictement décroissante sur [0, π ], cos(0) = 1 et
cos(π ) = −1. C’est donc bien une bijection de [0, π ] dans [−1, 1]. Sa fonction réciproque s’appelle Arccosinus :

Arccos : [−1, 1] → [0, π ].

1
Remarque : On notera Arccos x et non pas cos−1 ( x ) pour ne pas le confondre avec .
cos x
Terminologie : La dénomination vient du fait que l’arccosinus est la longeur de l’arc dont le cosinus est connu.

53
Proposition [Link] (Propriétés de la fonction Arccosinus)

1. La fonction Arccosinus est continue et décroissante.


−1
2. La fonction Arccosinus est dérivable sur ] − 1, 1[ et Arccos0 ( x ) = √ .
1 − x2
3. Pour tout x ∈ [−1, 1], Arccos(− x ) = π − Arccos( x ).
4. On a Arccos(0) = π/2, Arccos(1) = 0 et Arccos(−1) = π.
5. Pour tout x dans [−1, 1], cos(Arccosx ) = x.
6. Pour tout x dans [0, π ], Arccos(cos x ) = x.
7. Le graphe de la fonction Arcosinus est

Démonstration : Montrons que pour tout x ∈ [−1, 1], Arccos(− x ) = π − Arccos( x ). On sait que cos(Arccos(− x )) =
− x. De plus cos(π − Arccos( x )) = − cos(Arccos( x )) = − x. Ils ont le même cosinus et sont tous les deux dans
[0, π ] donc ils sont égaux.


ATTENTION

si x ∈ [−1, 1], Arccos( x ) est un antécédent de x par cos. Plus précisément c’est le seul antécédent
de x par cos qui est dans l’intervalle [0, π ]. Par exemple Arccos(cos(9)) 6= 9 mais 9 − 2π. En effet,
si on note a = Arccos(cos(9)). Par définition, a ∈ [0, π ] et cos( a) = cos(9). On peut alors trouver
facilement que a = 9 − 2π car cos(9 − 2π ) = cos(9) par 2π-périodicité de cos et 2π 6 9 6 3π donc
9 − 2πß[0, π ].

Exercice : Calculer Arccos(cos(10)). On pourra commencer par un dessin.

4.2 La fonction arcsinus


La fonction sinus de R dans R n’est ni injective, ni surjective. Si on la considère de R dans [−1, 1] elle est
surjective mais toujours pas injective. Si on la restreint à [−π/2, π/2] elle semble bijective.

54
De fait, la fonction x 7→ sin x est continue, elle est strictement croissante sur [−π/2, π/2], sin(−π/2) = −1
et sin(π/2) = 1. C’est donc bien une bijection de [−π/2, π/2] dans [−1, 1]. Sa fonction réciproque s’appelle
Arcsinus :
Arcsin : [−1, 1] → [−π/2, π/2].

Proposition [Link] (Propriétés de la fonction Arcsinus)

1. La fonction Arcsinus est continue et croissante. Elle est impaire.


1
2. La fonction Arcsinus est dérivable sur ] − 1, 1[ et Arcsin0 ( x ) = √ .
1 − x2
3. On a Arcsin(0) = 0, Arcsin(1) = π/2 et Arcsin(−1) = −π/2.
4. Pour tout x dans [−1, 1], sin(Arcsinx ) = x.
5. Pour tout x dans [−π/2, π/2], Arcsin(sin x ) = x.
6. Le graphe de la fonction Arcsinus est

Exercices :
1. Soit x ∈ [−1, 1] calculer cos(Arcsinx ).
2. Calculer Arcsin(cos 7).

4.3 La fonction arctangente


La fonction tangente est bijective de ] − π/2, π/2[ dans R. En effet elle est continue, strictement croissante et

lim tan x = −∞ et lim tan x = +∞.


x →−π/2+ x →π/2−

Sa fonction réciproque est Arctan.

55
Proposition [Link] (Propriétés de la fonction Arctangente)

1. La fonction Arctangente est continue et croissante. Elle est impaire.


2. On a Arctan(0) = 0, Arctan(1) = π/4 et Arctan(−1) = −π/4.
3. Pour tout x dans R, tan(Arctanx ) = x.
4. Pour tout x dans [−π/2, π/2], Arctan(tan x ) = x.
5. Le graphe de la fonction Arctangente est

Proposition [Link]

On a les formules suivantes :


π
1. Pour tout x ∈ [−1, 1], Arccos( x ) + Arcsin( x ) = .
2
 
1
2. Pour tout x ∈ R+ , Arctan( x ) + Arctan = π/2
x
 
1
3. Pour tout x ∈ R− , Arctan( x ) + Arctan = −π/2
x

Démonstration : A faire 

5 Fonctions hyperboliques
5.1 Fonctions hyperboliques
Définition [Link]

La fonction cosinus hyperbolique notée ch est définie sur R par

e x + e− x
ch : x 7→ .
2
La fonction sinus hyperbolique notée sh est définie sur R par

e x − e− x
ch : x 7→ .
2

Remarque : Cette définition est analogue aux définitions de cos et sin via les formules d’Euler. Nous revien-
drons plus tard sur la signification du hyperbolique.

56
Proposition [Link]

1. Les fonctions ch et sh sont continues et dérivables et pour tout réel x,

ch 0 ( x ) = sh ( x ) et sh 0 ( x ) = ch ( x ).

2. La fonction ch est paire, la fonction sh est impaire.


3. On a ch (0) = 1 et sh (0) = 0. De plus lim ch ( x ) = +∞ et lim sh ( x ) = +∞.
x →+∞ x →+∞
4. Les courbes des fonctions ch et sh sont

-2 -1 1 2

-1

-2

-3

Démonstration : A faire 

Proposition [Link]

Soit x un réel,
ch 2 ( x ) − sh 2 ( x ) = 1.

Démonstration : A faire. 

Proposition [Link]

Soit a et b deux réels,

ch ( a + b) = ch ( a) ch (b) + sh ( a) sh (b) et sh ( a + b) = ch ( a) sh (b) + ch (b) sh ( a).

Définition [Link]

La fonction tangente hyperbolique notée th est définie sur R par

sh ( x ) e2x − 1
th : x 7→ = 2x .
ch ( x ) e +1

57
Proposition [Link]

1. La fonction tangente hyperbolique est définie continue et dérivable sur R.


1
2. Pour tout réel x, th 0 ( x ) = = 1 − th 2 ( x ).
ch 2 ( x )
3. La fonction th est impaire.
4. Sa courbe représentative est

1.0

0.5

-3 -2 -1 1 2 3

-0.5

-1.0

5. On a th (0) = 0, lim th ( x ) = −1 et lim th ( x ) = 1.


x →−∞ x →+∞

6 Fonctions à valeurs complexes


6.1 Généralités
Dans tout ce paragraphe on se fixe un intervalle I de R et f une fonction de I dans C. L’exemple principal
sera t 7→ eωt où ω est un complexe.

Définition [Link]

Avec les notations précédentes, on appelle partie réelle (resp. partie imaginaire) de f la fonction notée Re( f )
(resp. Im( f )) définie de I dans R par

Re( f ) : t 7→ Re( f (t))(resp. Im( f ) : t 7→ Im( f (t))).

Remarque : On associe comme cela à f deux fonctions à valeurs réelles.

Définition [Link]

1. La fonction f est dite continue si et seulement si Re( f ) et Im( f ) le sont.


2. La fonction f est dite dérivable si et seulement si Re( f ) et Im( f ) le sont. Dans ce cas, on note
f 0 = (Re( f ))0 + i (Im( f ))0 .
3. Si la fonction f est continue et que a et b sont deux éléments de I, on note
Z b Z b Z b
f (t) dt = Re( f )(t) dt + i Im( f )(t) dt.
a a a

Proposition [Link]

Les propriétés classiques de la dérivation et de l’intégration s’étendent à ce cas.

58
6.2 La fonction t 7→ e ϕ(t)
Proposition [Link]

Soit ϕ une fonction dérivable sur I et à valeurs dans C. La fonction f : t 7→ exp( ϕ(t)) est dérivable
et pour tout t de I,
f 0 (t) = ϕ0 (t) exp( ϕ(t)).

Démonstration

Corollaire [Link]

Soit ω un nombre complexe. On pose f : t 7→ eωt . Cette fonction est dérivable et vérifie :

∀t ∈ R, f 0 (t) = ω f (t) et f (0) = 1.

Démonstration : On applique ce qui précède à ϕ(t) = ωt. 


Remarque : Cela prouve que la fonction f vérifie l’équation différentielle y0 = ωy et y(0) = 1.

59
Ensembles,
3
applications,
relations
d’équivalence et
relations d’ordre
1 Logique 61
1.1 Assertions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.2 Ensemble, appartenance et inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
1.3 Prédicats et quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.4 Méthodes de démonstration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1.5 Principe de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2 Les ensembles 68
2.1 Sous-ensembles d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.2 Opérations dans P ( E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.3 Produit cartésien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3 Applications 71
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.2 Image directe et image réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3 Applications injectives, surjectives et bijectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.4 Application réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.5 Familles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4 Relations binaires 79
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2 Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3 Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80

60
1 Logique
1.1 Assertions
Définition [Link]

On appelle assertion une phrase mathématique qui est soit vraie soit fausse.

Exemple : La phrase « 3 > 1 » est une assertion (qui est vraie) et « 2 = 0 »est une assertion (qui est fausse)
Quand on se donne une ou plusieurs assertions, on peut construire de nouvelles assertions avec des
opérateurs logiques. La valeur logique (à savoir si elles sont vraies ou fausses) de ces dernières dépendent des
valeurs logiques des assertions dont on est parti.

Définition [Link] (Négation)

Soit P une assertion, l’assertion non P est l’assertion qui est vraie si P est fausse et fausse si P est vraie.

Exemple : Si P est l’assertion « 3 > 1 », non P est « 3 < 1 ».


On représente souvent cela sous la forme d’un tableau de vérité.

P V F
non P F V

Définition [Link] (Disjonction et conjonction)

Soit P et Q deux assertions. On définit deux nouvelles assertions :


1. L’assertion P ou Q qui est vraie si P ou Q est vraie (et fausse sinon). C’est la disjonction.
2. L’assertion P et Q qui est vraie si P et Q est vraie (et fausse sinon). C’est la conjonction.

Exemple : « 3 > 1 » ou « 2 = 0 » est vraie. « 3 > 1 » et « 2 = 0 » est fausse.


Là encore, le plus simple est de donner les tables de vérités

P V V F F P V V F F
Q V F V F Q V F V F
P ou Q V V V F P et Q V F F F

Remarques :
1. En mathématiques le ou est inclusif.
2. On note aussi ∧ pour et et ∨ pour ou.
Voici une proposition qui précise les liens entre les opérateurs et la négation.

Proposition [Link] (Lois de (De) Morgan)

Soit P et Q deux assertions.


1. L’assertion non (non P) est équivalente à P.
2. L’assertion non (P ou Q) est équivalente à (non P) et (non Q).
3. L’assertion non (P et Q) est équivalente à (non P) ou (non Q).

Remarque : Les deux dernières assertions sont connues sous le nom de Lois de Morgan.
Démonstration : Le dire en français pour le comprendre et les tableaux de vérités pour le démontrer. Par
exemple pour la deuxième.

61
P V V F F
Q V F V F
(P ou Q) V V V F
non P F F V V
non Q F V F V
non (P ou Q) F F F V
(non P) et (non Q) F F F V
On remarque bien que les deux dernières lignes sont similaires. 
Exemple : On choisit un nombre soit P l’assertion « le nombre est pair » et Q l’assertion « le nombre est divisible
par 3 ». Dès lors P et Q est « le nombre est divisible par 6 ». Le contraire est « le nombre n’est pas divisible par
6 », ce qui revient à « il n’est pas divisible par 2 » OU « il n’est pas divisible par 3 ».

Proposition [Link] (Distributivité)

Soit P, Q et R trois assertions.


1. L’assertion P ou (Q et R) est équivalente à (P ou Q ) et (P ou R).
2. L’assertion P et (Q ou R) est équivalente à (P et Q ) ou (P et R).

Définition [Link] (Implication et équivalence)

Soit P et Q deux assertions. On définit deux nouvelles assertions :


1. P implique Q. C’est l’implication que l’on note P ⇒ Q.
2. P est équivalent à Q. C’est l’équivalence que l’on note P ⇔ Q
Elles sont données par les tables de vérité suivantes :

P V V F F P V V F F
Q V F V F Q V F V F
P⇒Q V F V V P⇔Q V F F V

Remarque : Cela correspond au sens "classique" en français de l’implication et de l’équivalence. Précisément :


— si P ⇒ Q est vraie alors, si P est vraie Q aussi. Par contre si P est faux on ne peut rien dire.
— si P ⇔ Q est vraie alors P et Q ont la même valeur logique (que ce soit vrai ou faux).
On notera que l’implication ne signifie pas la causalité. Par exemple « 3 > 1 ⇒ 0 = 0 » est vraie.
Terminologie : L’implication est le connecteur principal en mathématique 1 . On a donc beaucoup de manière
pour le dire en français. Pour signifier P ⇒ Q, on dira indifféremment,
— P implique Q,
— si P alors Q,
— P est une condition suffisante pour avoir Q,
— Q est une condition nécessaire pour avoir P.
Pour signifier P ⇔ Q on dira indifféremment,
— P est équivalent à Q,
— P si et seulement si Q. (On notera d’ailleurs ssi pour si et seulement si).
— P est une condition nécessaire et suffisante pour avoir Q.
Bien évidemment, tout ce qui concerne l’équivalence est symétrique en P et Q.

ATTENTION

Le contraire de l’implication P ⇒ Q n’est pas une implication. C’est P et (non Q).

1. En effet pour montrer qu’une assertion Q est vraie, on montrera qu’une assertion P0 est vraie ainsi que P0 ⇒ P1 , P1 ⇒ P2 , . . . ,
Pn−1 ⇒ Pn et Pn ⇒ Q.

62
Exercices :
1. (Cours) Montrer que P ⇒ Q est équivalente à Q ou (non P).
2. Établir la table de vérité de (( P ⇒ Q) et ( Q ⇒ R)) ⇒ ( P ⇒ R)
3. Établir la table de vérité de A ou (nonA).

Définition [Link] (Réciproque)

Soit P et Q deux assertions. La réciproque de P ⇒ Q est Q ⇒ P.

Exemples :
1. Le théorème de Pythagore dit que si un triangle ABC est rectangle en A alors BC2 = AB2 + AC2 . C’est
une implication. Sa réciproque - qui est aussi vraie - dit que si BC2 = AB2 + AC2 alors le triangle ABC
est rectangle en A.
2. Soit n un nombre entier, on sait que si 6 divise n alors 2 divise n. Par contre la réciproque est fausse.

Proposition [Link] (Equivalence)

Soit P et Q deux assertions. L’assertion P ⇔ Q est la même que ( P ⇒ Q) et ( Q ⇒ P).

Démonstration : Il suffit de faire les tables de vérités. 


Remarque : Pour démontrer une équivalence on démontrera souvent les deux implications. Cela s’appelle la
démonstration par double implication.
Exemple : Soit (un )n∈N une suite réelle croissante. On a
(un ) est bornée ⇔ (un ) est convergente.
A-t-on pour (un )n∈N une suite réelle bornée
(un ) est croissante ⇔ (un ) est convergente ?

Définition [Link] (Contraposée)

Soit P et Q deux assertions. La contraposée de l’implication P ⇒ Q est l’implication non P ⇒ non Q.

Proposition [Link]

Soit P et Q deux assertions. Les implications P ⇒ Q et non P ⇒ non Q sont équivalentes.

Exemple : Nous voulons montrer que « pour toute fonction continue f de [0, 1] dans R, si f ne s’annule pas
alors f garde un signe constant ». Pour montrer cela on se fixe une fonction f continue de [0, 1] dans R arbitraire.
La contraposée de notre proposition est « si f change de signe alors f s’annule ». Or cette dernière proposition
est une conséquence directe du théorème des valeurs intermédiaires.

1.2 Ensemble, appartenance et inclusion


Définition [Link]

Un ensemble E est une collection d’éléments. On note x ∈ E (et on lit x appartient à E) pour dire que l’élément
x est un élément de l’ensemble E. On note x ∈/ E dans le cas contraire.

63
Exemple : On a 0 ∈ N et −1 ∈
/ N.

Définition [Link]

Soit E et F deux ensembles on dit que E est inclus dans F et on note E ⊂ F si et seulement si tous les éléments
de E sont aussi des éléments de F. On dit alors que E est un sous-ensemble (ou une partie) de F.

Proposition [Link] (Double inclusion)

Soit E et F deux ensembles. Ils sont égaux s’ils ont les mêmes éléments c’est-à-dire si E est inclus
dans F et si F est inclus dans E.

On admettra qu’il existe un ensemble vide qui se note ∅. Il ne contient aucun élément et, de ce fait, est inclus
dans tous les ensembles.

1.3 Prédicats et quantificateurs


On doit souvent utiliser des phrases mathématiques qui font intervenir des variables. Par exemple « n est
pair » ou « x > 3 ». Ce ne sont pas des assertions car la valeurs logiques de telle phrase dépend de la (ou les)
valeur prise par la (ou les) variable. On parle alors de prédicats. En théorie il faut stipuler les ensembles dans
lesquels on peut choisir les variables. Si on spécialise le prédicats en affectant des valeurs à toutes les variables
on obtient une assertion.
Exemples :
1. la phrase « n est pair » est un prédicat sur N mais pas sur R car la parité n’a pas de sens dans R.
2. la phrase « x + y > 0 » est un prédicat à deux variables (x et y) sur R.
F Quantificateur existentiel

Définition [Link]

Soit P( x ) un prédicat dépendant d’une variable x définie dans un ensemble E. L’assertion

∃ x ∈ E, P( x )

est vraie si P( x ) est vraie pour au moins une valeur que peut prendre la variable x.

Terminologie : La phrase ∃ x ∈ E, P( x ) se lit « il existe x dans E tel que P( x ) ».


Exemples :
1. L’assertion ∃ x ∈ R, x > 3 est vrai car il existe au moins un nombre qui soit supérieur à 3, par exemple 4.
2. L’assertion ∃ x ∈ R, x > 3 et x < −1 est fausse.
3. L’assertion ∃ x ∈ I, f ( x ) = 0 signifie que la fonction f s’annule sur l’intervalle I.
Remarques :
1. Il faut noter que « x > 3 » n’est pas une assertion car cela dépend de x mais « ∃ x ∈ R, x > 3 » en est une.
2. La phrase « f ( x ) = 0 » dépend de x et de f . De ce fait « ∃ x ∈ I, f ( x ) = 0 » ne dépend plus de x mais
encore de f . Par contre « ∃ f ∈ R I , ∃ x, f ( x ) = 0 » est une assertion - qui est vraie.
3. Il est souvent utile de préciser dans quel ensemble si situe la variable. Est-ce un nombre ? un réel ? un
entier ? une fonction ? Dans ce cas on écrira par exemple
∃ x ∈ R, x2 + 1 = 0.
On voit alors l’importance de préciser l’ensemble car, bien évidemment, l’assertion ci-dessus est fausse
alors que
∃ x ∈ C, x2 + 1 = 0 est vraie.
4. L’assertion ∃ x ∈ E, P( x ) ne dit rien sur le nombre d’éléments x de E tels que P( x ) soit vrai. Par commodité,
on utilisera la notation
∃!x, P( x )
pour signifier qu’il existe un unique x tel que P( x ) soit vérifié 2 .
2. cela n’est pas un quantificateur car il peut s’exprimer à l’aide des deux autres. Essayez de le faire...

64
Quantificateur universel

Définition [Link]

Soit P( x ) un prédicat dépendant d’une variable x définie sur un ensemble E. L’assertion

∀ x ∈ E, P( x )

est vraie si, P( x ) est vraie pour toutes les valeurs que peut prendre la variable x.

Terminologie : La phrase ∀ x ∈ E, P( x ) se lit « pour tout x de E, P( x ) » ou « quelque soit x dans E, P( x ) ».


Exemples :
1. L’assertion ∀ x ∈ R, x > 3 est fausse car il existe des nombre qui sont inférieurs à 3.
2. L’assertion ∀ x ∈ R, x > 3 ou x < 7 est vraie.
3. L’assertion ∀ x ∈ R, f ( x ) = 0 signifie que la fonction f est la fonction nulle.
4. L’assertion ∀ x ∈ I, ∀y ∈ I, ( x > y) ⇒ f ( x ) > f (y) signifie que l’application est croissante.
Remarque : Il faut noter que,là encore ∀ x ∈ R, P( x ) ne dépend pas de x contrairement à P( x ).
Exercice : Quelle est la valeur logique des assertions suivantes :

∃ f , ∃ x, f (x) =0 ∃ x, ∃ f , f (x) =0
∀ f , ∃ x, f (x) =0 ∀ x, ∃ f , f (x) =0
∃ f , ∀ x, f (x) =0 ∃ x, ∃ f , f (x) =0
∀ f , ∃ x, f (x) =0 ∀ x, ∃ f , f (x) =0

Négation de quantificateur
Commençons par un exemple.
Exemple : On dispose des boules dans une urne. Le contraire de « toutes les boules sont rouges » est « il y a au
moins une boule rouge » et non pas « toutes les boules ne sont pas rouges ». De même le contraire de « il y a
(au moins) une boule rouge » est « aucune boule n’est rouge » ce qui revient à « toutes les boules ne sont pas
rouges ».

Proposition [Link]

Soit P( x ) un prédicat dépendant de x.


1. L’assertion non (∀ x, P( x )) est équivalente à ∃ x,non P( x ).
2. L’assertion non (∃ x, P( x )) est équivalente à ∀ x,non P( x ).

Exemples :
1. Dire qu’une fonction f ne s’annule pas revient à non (∃ x, f ( x ) = 0) ce qui est équivalent à ∀ x, f ( x ) 6= 0.
Ecrire de même de deux manière que f n’est pas la fonction nulle.
2. Soit E un ensemble et A, B deux parties de E. Que signifie ∀ x ∈ E, x ∈ A ⇒ x ∈ B ? Quel est le contraire ?
3. Le contraire de « f est croissante » n’est pas « f est décroissante ». Cela se quantifie par : ∃ x ∈ I, ∃y ∈
I, ( x > y) et f ( x ) < f (y).

1.4 Méthodes de démonstration


Nous allons essayer de faire un catalogue des principales méthodes de démonstration.

Le raisonnement par implication


C’est le raisonnement le plus classique. Cela consiste à essayer de montrer que P implique Q (c’est-à-dire
que P ⇒ Q est vrai). Pour cela on part de P, puis par implications on arrive à Q.
Exemple : Montrons par exemple que pour tout entier naturel, si n est impair alors n2 est impair. Soit n un
entier naturel Si n est impair, alors il existe un entier k tel que n = 2k + 1. Alors, n2 = (2k + 1)2 = 4k2 + 4k + 1 =
2(2k2 + 2k) + 1. Donc n2 est impair.

65
On peut l’écrire avec des implications
n est impair ⇒ ∃k ∈ N, n = 2k + 1
⇒ ∃k ∈ N, n2 = (2k + 1)2
⇒ ∃k ∈ N, n2 = 2(2k2 + 2k) + 1
⇒ ∃K ∈ N, n2 = 2K + 1
⇒ n2 est impair.

Le raisonnement par équivalence


On cherche cette fois à montrer que P est équivalent à Q (c’est-à-dire que P ⇔ Q est vrai). Pour cela on
procède comme précédemment mais en n’utilisant que des équivalences. C’est typiquement le raisonnement
que l’on réalise lors de la résolution d’équations ou d’inéquations.

Le raisonnement par double implication


Cela consiste encore à montrer que P est équivalent à Q (c’est-à-dire que P ⇔ Q est vrai) en montrant que P
implique Q et que, réciproquement Q implique P. Très souvent dans ce genre de raisonnement, l’un des sens
est plus simple que l’autre. On commence par celui-ci.
Exemple : On se place dans le plan. On veut montrer que deux droites sont parallèles si et seulement si elles
sont orthogonales à une même troisième.

Le raisonnement par contraposé


On veut démontrer l’implication P ⇒ Q. Pour cela on montre sa contraposé (qui lui est équivalente) non
P ⇒ non Q.
Exemple : Montrons que si p2 est pair alors p est pair.

Le raisonnement par l’absurde


On veut démontrer une assertion P. Pour cela on montre que non P est fausse. On suppose que non P est
vraie et on aboutit à une absurdité.

Exemple : Montrons que 2 est irrationnel.

La disjonction de cas
On veut démontrer l’implication P ⇒ Q. Pour cela on montre [( P et A) ⇒ Q] et [( P et nonA) ⇒ Q]
n ( n + 1)
Exemple : Soit n un entier naturel. Montrer que est un entier.
2

Analyse-Synthèse
On suppose que le problème que l’on veut démontrer. On essaye alors de trouver des informations sur le
résultat. On suppose alors ces informations pro montrer le problème initial. Il est important de bien séparer la
phase d’analyse de la phase de synthèse.
Exemple : Montrer que toute fonction de R dans R est somme d’une fonction paire et d’une fonction impaire.

1.5 Principe de récurrence


Revoyons maintenant les raisonnements par récurrences. Nous y reviendrons un peu plus tard en justifiant
plus proprement pourquoi cela est vrai.

Théorème [Link] (Principe de récurrence)

Soit P(n) un prédicat défini sur N. Si :


1. P(0) est vraie.
2. ∀n ∈ N, ( P(n) ⇒ P(n + 1))
alors pour tout entier naturel n, P(n) est vraie.

Remarques :

66
1. Le principe de récurrence est intuitif. On suppose en effet que P(0) est vraie et que P(0) implique P(1).
De ce fait P(1) est vraie. Maintenant on suppose que P(1) implique P(2). De ce fait P(2) est vraie. Et
ainsi de suite. De fait, quand dans une rédaction on a envie d’écrire « et ainsi de suite » c’est que la bonne
rédaction est une récurrence.
2. Il est important de bien savoir rédiger une récurrence, en particulier la deuxième propriétés (qui s’appelle
hérédité). Il faut bien comprendre le sens des parenthèses. En effet

(∀n ∈ N, P(n)) ⇒ P(n + 1)

est stupide. En pratique, on fixe UN entier noté n et on suppose P(n) juste pour CET entier. Il reste alors à
montrer que P(n + 1) est vraie.
3. Il faut faire attention aux fausses récurrences où vous n’utilisez pas P(n) pour montrer P(n + 1). Ce n’est
logiquement pas faux mais cela montre que vous n’avez pas beaucoup de recul.
Exemples :
1. Montrons par récurrence que ∀n ∈ N, 2n > n + 1.
— Initialisation Pour n = 0, 1 = 20 > 0 + 1 est vrai.
— Hérédité Soit n une entier quelconque fixé. On suppose que 2n > n + 1. Dès lors

2n+1 = 2.2n > 2(n + 1) = 2n + 2.

Or 2n + 2 > n + 2 car n est positif. On en déduit que 2n+1 > (n + 1) + 1.


Par le principe de récurrence, ∀n ∈ N, 2n > n + 1.
2. Montrons par récurrence que ∀n ∈ N, 3n > n2 . Avant de se lancer dans la récurrence, essayons de faire
l’hérédité. On suppose que 3n > n2 . Dès lors

3n+1 = 3.3n > 3n2 .

On voudrait donc avoir 3n2 > (n + 1)2 ⇔ 2n2 − 2n − 1 > 0. Une rapide étude de signe nous montre que
ce n’est vrai que pour n supérieur ou égal à 2. Il faut donc découper le problème en deux. On le montre à
la main pour n = 0 et n = 1 puis on fait la récurrence pour n > 2.
Il existe quelques variantes de la récurrence.

Proposition [Link]

Soit n0 un entier relatif et P(n) un prédicat sur [[ n0 ; +∞ [[. Si :


1. P(n0 ) est vraie.
2. ∀n ∈ [[ n0 ; +∞ [[ , ( P(n) ⇒ P(n + 1))
alors pour tout entier n supérieur à n0 , P(n) est vraie.

Proposition [Link] (Récurrence à deux pas)

Soit n0 un entier relatif et P(n) un prédicat sur [[ n0 ; +∞ [[. Si :


1. P(n0 ) et P(n0 + 1) est vraie.
2. ∀n ∈ [[ n0 ; +∞ [[ , ( P(n) et P(n + 1) ⇒ P(n + 2))
alors pour tout entier n supérieur à n0 , P(n) est vraie.

Exemple : Soit (un ) la suite définie par u0 = 2, u1 = 1 et pour tout entier naturel un+2 = un+1 + 2un . Montrons
par récurrence que pour tout entier n, un = (−1)n + 2n .

A faire

Pour finir,

67
Proposition [Link] (Récurrence « forte »)

Soit n0 un entier relatif et P(n) un prédicat sur [[ n0 ; +∞ [[. Si :


1. P(n0 ) est vraie.
2. ∀n ∈ [[ n0 ; +∞ [[ , ( P(n0 ) et P(n0 + 1) · · · et P(n) ⇒ P(n + 1))
alors pour tout entier n supérieur à n0 , P(n) est vraie.

Remarque : La différence est que là, pour montrer P(n + 1), on suppose que P est vraie pour tous les entiers
inférieurs ou égaux à n et non plus que pour n.
Démonstration : Il suffit d’appliquer le principe de récurrence au prédicat : Q(n) : ∀k ∈ [[ n0 ; n ]] P(k). 
Exemple : Montrons que tout entier naturel n supérieur ou égal à 2 peut s’écrire comme un produit de nombre
premier. On rappelle qu’un entier naturel est premier s’il n’est divisible que par lui-même et par 1.
— Initialisation Pour n = 2, C’est un nombre premier
— Hérédité Soit n une entier quelconque fixé. On suppose que tout entier compris entre 2 et n s’écrit comme
un produit de nombres premiers. On considère n + 1. S’il est premier c’est fini. S’il n’est pas premier,
il existe un diviseur d compris entre 2 et n. De même n/d est un entier compris entre 2 et n. Il suffit
d’appliquer l’hypothèse de récurrence à d et à n/d.
Par le principe de récurrence, tout entier naturel n supérieur ou égal à 2 peut s’écrire comme un produit de
nombre premier.

2 Les ensembles
Nous allons regarder les opérations que l’on peut faire avec les ensembles. Pour des problèmes de logiques
nous considérerons la plupart des temps des parties d’un grand ensemble qui sert d’univers.

2.1 Sous-ensembles d’un ensemble


Dans toute cette section, on se fixe un ensemble E.

Définition [Link]

Soit P( x ) un prédicat défini sur E. On définit l’ensemble

F = { x ∈ E | P( x )}.

C’est la partie de E contenant les éléments x de E tels que P( x ) soit vrai.

Remarque : C’est l’une des méthodes de décrire un ensemble. Il y en a essentiellement deux autres.
— Description « en extension » : cela consiste à donner la liste de tous les éléments de l’ensemble entre
accolades.
— Description paramètres : nous y reviendrons un peu plus loin, mais essentiellement cela consiste à donner
les éléments en fonction de paramètres. Par exemple :

{(2k, k + 1) | k ∈ N} ⊂ N2 .

Définition [Link]

On définit l’ensemble P ( E) qui est l’ensemble dont les éléments sont les parties de E.

Exemples :
1. Si E = {0, 1} alors P ( E) = {∅, {0}, {1}, {0, 1}}. Il faut bien faire attention à distinguer 0 qui est un
élément de E du singleton {0} qui est une partie de E.
2. Que vaut P (∅) ? et P (P (∅)) ?

68
2.2 Opérations dans P ( E)
Définition [Link]

Soit E un ensemble et A et B deux parties de E.


1. La réunion de A et B : A ∪ B = { x ∈ E | x ∈ A ou x ∈ B}.
2. L’intersection de A et B : A ∩ B = { x ∈ E | x ∈ A et x ∈ B}.
3. Le complémentaire de A dans E : {E A = A = { x ∈ E | x ∈
/ A }.
4. La différence : A − B = { x ∈ E | x ∈ A et x ∈
/ B }.
5. La différence symétrique : A∆B = ( A ∪ B) \ ( A ∩ B).

A∪B

A B

A∩B A−B

A B A B

Remarque : La notation {E A est plus précise que A car elle indique dans quel "univers" on se situe.
Exercice : On pose E = R, A = [0, 3] et B =] − 1, 2[. Déterminer A ∪ B, A ∩ B, A, A − B et B − A.
Exercice : On pose E = R, F = N et A = {0, 1}. Déterminer {E A et {F A.

Proposition [Link] (Commutativité et associativité de la réunion et de l’intersection)

Soit E un ensemble et A et B deux parties de E on a :


1. A ∪ B = B ∪ A
2. A ∪ ( B ∪ C ) = ( A ∪ B) ∪ C
3. A ∩ B = B ∩ A
4. A ∩ ( B ∩ C ) = ( A ∩ B) ∩ C

Proposition [Link]

Avec les mêmes notations.


( A ∩ B) ⊂ A et A ⊂ ( A ∪ B).

Exercice : Soit E un ensemble. Soit A, B et C trois parties de E. Montrer que



( A ∪ B) ⊂ ( A ∪ C )
⇒ B ⊂ C.
( A ∩ B) ⊂ ( A ∩ C )

69
Proposition [Link]

Soit E un ensemble. Soit A et B deux parties de E.


1. A ∩ B = A ⇔ A ⊂ B
2. A ∪ B = A ⇔ B ⊂ A

Proposition [Link] (Distributivité)

Soit E un ensemble et A, B et C trois parties de E on a :


1. L’intersection est distributive sur la réunion : A ∩ ( B ∪ C ) = ( A ∪ B) ∩ ( A ∪ C )
2. La réunion est distributive sur l’union : A ∪ ( B ∩ C ) = ( A ∩ B) ∪ ( A ∩ B)

Notation : On généralise cela à un ensemble de parties. Si ( Ai )i∈ I sont des parties de E on note
[ \
Ai = { x ∈ E | ∃i ∈ I, x ∈ Ai } et Ai = { x ∈ E | ∀i ∈ I, x ∈ Ai }.
i∈ I i∈ I

Nous allons maintenant regarder le complémentaire d’une partie. Intuitivement cela correspond aux élé-
ments qui ne sont pas dans la partie que l’on regarde. Précisément on a :

Proposition [Link]

Soit E un ensemble et A, B deux parties de E. On a :


1. A = {E B si et seulement si B = {E A.
2. {E ({E A) = A.
3. A ⊂ B ⇔ {E B ⊂ {E A.

De plus, les liens entre le complémentaire et les réunions et intersections sont donnés par la proposition suivante.

Proposition [Link]

Soit E un ensemble et A, B deux parties de E. On a :


1. Le complémentaire d’une réunion est l’intersection des complémentaires :

{E ( A ∪ B) = {E A ∩ {E B.

2. Le complémentaire d’une intersection est la réunion des complémentaires :

{E ( A ∩ B) = {E A ∪ {E B.

Remarque : C’est juste les lois de Morgan.

2.3 Produit cartésien


Définition [Link]

Soit E et F deux ensembles. On appelle produit cartésien de E et F, et on note E × F, l’ensemble dont les
éléments sont les couples ( x, y) où x est un élément de E et y un élément de F. On a donc :

E × F = {( x, y) | x ∈ E, y ∈ F }.

70
Notation : On notera E2 pour E × E.
Remarques :
1. On prendra garde que l’ordre compte dans un couple. L’élément (1, 2) ∈ R × R est différent de l’élément
(2, 1).
2. Il ne faut pas confondre le couple (1, 2) avec l’ensemble {1, 2}.
Exemple : On considère l’ensemble R × R. Ses éléments sont les couples de nombres réels. On peut donc

→ − →
représenter cet ensemble de la manière suivante. On considère le plan P et on le muni d’un repère (O, i , j ).
On associe alors à un point du plan son couple de coordonnées et réciproquement.
Voici une représentation de [0, 2] × [−1, 3].

Dessin
On peut aussi généraliser le produit cartésien à plus de deux ensembles.

Définition [Link]

Soit n un entier naturel supérieur ou égal à 2 et E1 , E2 , . . . , En des ensembles. Le produit cartésien E1 × E2 ×


· · · × En est défini par :
n
∏ Ei = E1 × E2 × · · · × En = {(x1 , x2 , . . . , xn ) | x1 ∈ E1 , x2 ∈ E2 , . . . , xn ∈ En }.
i =1

La liste ordonnée ( x1 , x2 , . . . , xn ) est appelée un n-uplet.

Notation : De même que ci dessus, on notera En pour E × E × · · · × E (n fois).

3 Applications
3.1 Généralités
Définition [Link]

Soit E et F deux ensembles. Une application de E dans F est la donnée d’une partie Γ de E × F telle que pour
tout x dans E il existe un unique y dans F tel que ( x, y) ∈ Γ. La partie Γ s’appelle le graphe de l’application.

Remarques :
1. Cette définition correspond bien à la notion d’application vue en terminale. En effet, à tout élément x de E
on associe l’unique élément y de F tel que ( x, y) ∈ Γ.
2. Il faut retenir que l’on associe, par définition, à tout élément de l’ensemble de départ, un unique élément
de l’ensemble d’arrivé. Il faut aussi noter que l’ensemble de départ et d’arrivé font partie intégrante de la
définition.
Exemples :
1. L’application "carré" de R dans R qui associe à un nombre x son carrée. Son graphe est la parabole
d’équation y = x2 .
2. L’application de N dans [0; 1] qui associe à un entier n le nombre sin(n) si n est pair et cos(n) s’il est
impair.
3. Pour des ensembles finis on peut la représenter par des diagrammes :

71
E F

× ×

×
×
×
×
×

× ×

Terminologie :
— On note f : E → F une application de E dans F.
— Soit f : E → F, l’ensemble E s’appelle ensemble de départ et F s’appelle ensemble d’arrivé.
— Soit f : E → F. Si x est un élément de E, l’élément de F que l’on lui associe est noté f ( x ) et s’appelle
l’image de x par f .
— Si y est un élément de F, les éléments x de E tels que y = f ( x ) s’appellent les antécédents de y par f . Il
faut noter qu’un élément peut avoir zéro, un ou plusieurs antécédents.
— Soit f et g deux fonctions de E dans F. Elles sont égales si :

∀ x ∈ E, f ( x ) = g( x ).

— On note
f : E → F
x 7→ f (x)

— L’ensemble des application de E dans F se note F E ou F ( E, F ) (le F est pour fonction).


Exemples :
1. Soit E un ensemble, on appelle application identité et on note IdE l’application :

IdE : E → E
x 7→ x.

2. Soit E et F deux ensembles et y0 ∈ F un élément fixé. On appelle application constante de valeur y0


l’application qui associe à tout élément x de E, l’élément y0 .
3. Soit E et F deux ensembles. On appelle première projection (resp. deuxième projection) l’application
 
p1 : E × F → E p2 : E × F → F
resp. .
( x, y) 7→ x ( x, y) 7→ y

4. La fonction partie entière de R dans R associe à tout réel x, l’unique entier p tel que p > x < p + 1. Son
graphe est :

-4 -3 -2 -1 0 1 2 3 4

-1

-2

-3

72
Définition [Link]

Soit E un ensemble et A une partie de E. On appelle fonction indicatrice de A (ou fonction caractéristique de
A) et on note 1 A (on trouve aussi χ A ) la fonction de E dans {0, 1} définie par

1A : E →  {0, 1}
1 si x ∈ A .
x 7→
0 si x ∈
/A

Les fonctions indicatrices permettent de transformer les problèmes sur les ensembles en problèmes sur les
fonctions (et cetla peut-être utile).

Proposition [Link]

Soit E un ensemble et A, B deux parties de E. On a

1 A∩ B = 1 A × 1B

Exercice : Trouver les formules pour 1 A , 1 A∪ B et 1 A\ B .


Comme on a vu les ensembles de départ et d’arrivé font partie intégrante de la définition d’une application.
Nous aurons donc recours à des prolongements et des restrictions.

Définition [Link] (Restriction et prolongement)

Soit E et F deux ensembles.


— Soit f : E → F et A ∈ P ( E). On appelle restriction de f à E et on note f | A l’application :

f|A : A → F
x 7→ f ( x ).

— Soit A ∈ P ( E) et f : A → F. Un prolongement de f à E est une application f˜ : E → F telle que

∀ x ∈ A, f˜( x ) = f ( x ).

Exemples :
1. Soit [.] la fonction partie entière de R dans R. Sa restriction à l’intervalle [0; 1[ est la fonction constante
égale à zéro. Sa restriction à N est la fonction IdN .
2. Soit
f : ]0; +∞[ → R
x 7→ x ln x.
On veut prolonger f en 0. On sait que
lim x ln x = 0.
x →0+

On prolongera f par continuité en posant f˜ définie par :

f˜ : [0; +∞[ → R
x ln x si x > 0
x 7→
0 si x = 0.

Dessin

73
Définition [Link]

Soit E, F et G trois ensembles. Soit f : E → F et g : F → G. L’application composée, qui se note g ◦ f est


définie par :
g◦ f : E → G
x 7→ g( f ( x )).

Exemples :
1. Soit f : R → R l’application définie par f ( x ) = cos( x ) et g : R → R l’application définie par g( x ) = x2 .
Alors f ◦ g est x 7→ cos( x2 ) et g ◦ f est x 7→ cos2 x. On voit que la composition n’est pas commutative.
2. Dessin avec des patates.

Proposition [Link] (Associativité de la composition)

Soit E, F, G et H quatre ensembles. Soit f : E → F, g : F → G et h : G → H. On a

h ◦ ( g ◦ f ) = (h ◦ g) ◦ f .

3.2 Image directe et image réciproque


Définition [Link]

Soit E et F deux ensembles ainsi que f : E → F.


— Soit A ∈ P ( E). L’image directe de A par f est :

f ( A) = {y ∈ F | ∃ x ∈ A, y = f ( x )} = { f ( x ) | x ∈ A}.

— Soit B ∈ P ( F ). L’image réciproque de B par f est :

f # ( B ) = { x ∈ E | f ( x ) ∈ B }.

— On appelle image de f et on note Im ( f ) l’image de l’ensemble de départ : Im ( f ) = f ( E).

Remarques :
1. L’image directe d’une partie A par une application f : E → F est l’ensemble des images par f des éléments
de A. C’est une partie de F.
2. L’image réciproque d’une partie B par une application f est l’ensemble des antécédents par f des éléments
de B. C’est une partie de E.
Exemples :
1. Soit f : R → R définie par ∀ x ∈ R, f ( x ) = x2 + x. Soit A = [−3; 4] et B =]2, 6].On cherche f ( A) et f # ( B).
Dans ce cadre, nous pourrons plus tard utiliser des théorèmes du type du TVI. Essayons de la faire pour
le moment « à la main ». On peut remarquer que graphiquement on voit la solution à savoir :

f ( A) = [−1/4, 20] et f # ( B) = [−3, −2[∪]1, 2].

Cela se prouve par le calcul.


Pour f ( A). On cherche
f ( A) = {y ∈ R | ∃ x ∈ A, f ( x ) = y}.
On cherche donc les éléments y tels que l’équation x2 + x = y a des solutions dans A.
Pour f # ( B). On cherche
f # ( B ) = { x ∈ R | f ( x ) ∈ B }.
On résout donc l’inéquation 2 < x2 + x 6 6.

74
Dessin
2. Un exemple avec des patates.

Proposition [Link]

Soit f ∈ F ( E, F ). Soit A et B des parties de E


1. f ( A ∪ B) = f ( A) ∪ f ( B)
2. f ( A ∩ B) ⊂ f ( A) ∩ f ( B)

Démonstration

Remarque : Soit f : E → F et A et B deux parties de E. Alors f ( A ∩ B) ⊂ f ( A) ∩ f ( B) mais ce n’est pas


obligatoirement une égalité. En effet, si y est dans f ( A ∩ B), il existe x dans A ∩ B tel que y = f ( x ). Dès lors y
est dans f ( A) car x est dans A et de même y est dans f ( B) car x est dans B. Par contre si f n’est pas injective, il
n’y a pas obligatoirement égalité par exemple si A et B sont disjoints et que F est un singleton.
Exercice : Trouver et démontrer les relations analogues avec f # ( A ∩ B) et f # ( A ∪ B). (ici tout marche bien)

3.3 Applications injectives, surjectives et bijectives


On a vu que si f : E → F était une application alors tous les éléments x de E on une unique image dans F. À
l’inverse, si y est un élément de F il peut avoir 0, 1 ou plusieurs antécédents.

Définition [Link]

Soit E et F deux ensembles ainsi que f : E → F.


— L’application f est dite injective si tous les éléments de F ont au plus un antécédent.
— L’application f est dite surjective si tous les éléments de F ont au moins un antécédent.
— L’application f est dite bijective si tous les éléments de F ont exactement un antécédent.

Terminologie : Une application injective s’appelle une injection ; une application surjective s’appelle une
surjection ; une application bijective s’appelle une bijection.
Exemples :
1. Illustrons ces définitions avec des patates.
2. Illustrons maintenant cela avec des application de R dans R
— Une application est injective si son graphe coupe au plus une fois les droites horizontales. Par
exemple x 7→ e x .
— Une application est surjective si son graphe coupe toutes les droites horizontales. Par exemple
x 7→ x3 − x. On prendra garde à l’ensemble d’arrivée. Par exemple x 7→ x2 n’est pas surjective si elle
est considérée de R dans R mais elle le devient si on regarde de R dans R+ .
— L’application de R dans R qui associe x3 à x est bijective.

Faire un exercice avec des papates

Proposition [Link]

Avec les notations précédentes.

f est bijective ⇔ ( f est injective et surjective).

Nous allons maintenant réécrire ces définitions avec des quantificateurs :


— f surjective ⇔ ∀y ∈ F, ∃ x ∈ E, y = f ( x ).

75
— f bijective ⇔ ∀y ∈ F, ∃!x ∈ E, y = f ( x ).
La quantification de l’injctivité est moins immédiate. On a

Proposition [Link]

Avec les mêmes notations

f injective ⇔ (∀( x, x 0 ) ∈ E × E, f ( x ) = f ( x 0 ) ⇒ x = x 0 ).

Remarque : C’est cela que nous prendrons comme définition.


Démonstration :
— ⇒ : On suppose que f est injective. Soit x et x 0 deux éléments de E ayant même image y. Ils sont tous les
deux dans f # ({y}). Or cet ensemble a au plus un élément d’où x = x 0 .
— ⇐ : On suppose l’assertion de gauche. Par l’absurde, supposons qu’il existe un élément y de F tel
que f # ({y}) a plus de deux éléments. On choisit alors x et x 0 distincts dans f # ({y}). Dès lors, comme
f ( x ) = f ( x 0 ) = y on a x = x 0 ce qui est impossible car on les a pris distincts.

Remarque : En pratique on se servira aussi de la contraposée. On a

f injective ⇔ (∀( x, x 0 ) ∈ E × E, x 6= x 0 ⇒ f ( x ) 6= f ( x 0 )).

Exercice : Écrire la quantification de non injective, non surjective.


Exemple : Montrons à l’aide de la quantification que l’application x 7→ x3 est injective sur R.
Soit x et x 0 deux éléments de R. On suppose que x3 = x 03 et on veut montrer que x = x 0 . On a

x 3 = x 03 ⇔ x 3 − x 03 = 0
⇔ ( x − x 0 )( x2 + xx 0 + x 02 ).
On suppose que x 0 est fixé et on étudie le trinôme x 7→ x2 + xx 0 + x 02 . Son discriminant est ∆ = −3x 02 .
— si x 0 6= 0 alors ∆ < 0 et ∀ x ∈ R, x2 + xx 0 + x 02 6= 0.
— si x 0 = 0 alors ∆ = 0 et la racine double de x2 = 0 est x = 0.
On a bien
x 3 = x 03 ⇒ x = x 0 .

Proposition [Link]

Soit E, F et G trois ensembles ainsi que f : E → F et g : F → G.


1. Si f et g sont injective alors g ◦ f aussi.
2. Si f et g sont surjective alors g ◦ f aussi.
3. Si g ◦ f est bijective alors g aussi.

Démonstration :
1. On suppose que f et g sont injectives et on veut montrer que g ◦ f l’est aussi. Soit x et x 0 tels que
g ◦ f ( x ) = g ◦ f ( x 0 ). On a g( f ( x )) = g( f ( x 0 )) donc f ( x ) = f ( x 0 ) car g est injective. De plus f étant aussi
injective f ( x ) = f ( x 0 ) implique que x = x 0 .

Exercice : Montrer que Soit E, F et G trois ensembles ainsi que f : E → F et g : F → G.
1. Si g ◦ f est injective alors f aussi.
2. Si g ◦ f est surjective alors g aussi.

76
3.4 Application réciproque
Définition [Link] (Application réciproque)

Soit E et F deux ensembles et f une bijection de E dans F. La bijection réciproque de f est l’application de F
dans E qui associe à tout élément de E son unique antécédent. On la note f −1 .

Remarques :
1. Il est nécessaire que f soit bijective. En effet si f n’est pas injective on peut "avoir le choix" entre plusieurs
antécédents et si f n’est pas surjective on peut trouver des éléments de F qui n’ont pas d’antécédents.
2. Pour tout x de E on a f −1 ( f ( x )) = x. Cela signifie que f −1 ◦ f = IdE . De même f ◦ f −1 = IdF .
Exemples :
1. La fonction ln : R?+ → R est l’application réciproque de exp : R → R?+ .

2. La fonction :R+ → R+ est l’application réciproque de la restriction de x 7→ x2 à R+ .
Remarque : dans la plupart des cas, on ne sait exprimer l’application réciproque. C’est de ce fait une "nouvelle"
application.
Exercice : Soit f la fonction définie par :

f : R − {3} → R − {2}
2x + 3
x 7→ .
x−3
Montrer que f est bijective et trouver sa bijection réciproque.
Quelques propriétés des applications réciproques maintenant.

Proposition [Link]

Soit f : E → F une application on a :



il existe une application g telle que
f est bijective ⇔
f ◦ g = IdF et g ◦ f = IdE .

— ⇒ : par définition de l’application réciproque.


— ⇐ : Soit y dans F. On note x = g(y). Dés lors f ( x ) = f ( g(y)) = y car f ◦ g = IdF . Donc x est
un antécédent de y et f est surjective. Supposons maintenant qu’il existe x 0 tel que f ( x 0 ) = y. On a
x = g(y) = g( f ( x 0 )) = x 0 . Cela prouve l’injectivité de f .

Remarque : Dans certain cas, pour montrer qu’une application f est bijective on se contentera d’exhiber une
fonction g telle que f ◦ g = IdF et g ◦ f = IdE .
Exemple : Pour montrer que
Φ : P ( E) → P ( E)
A 7→ A
est une bijection il suffit de voir que Φ ◦ Φ = IdP (E)

Corollaire [Link]

Soit f : E → F une bijection on a :


( f −1 ) −1 = f .

On fera attention au comportement des applications composées. Précisément on a

77
Proposition [Link]

Si f : E → F et g : F → G sont deux bijections, alors g ◦ f est bijective et

( g ◦ f ) −1 = f −1 ◦ g −1 .

Démonstration : On remarque d’abord que g ◦ f est bijective car elle est injective et surjective. De plus on a :

g ◦ f ◦ f −1 ◦ g−1 = g ◦ IdF ◦ g−1 = g ◦ g−1 = IdE .

De même dans l’autre sens... 


Remarque : La notation des applications réciproques est compatibles avec celle des image réciproque. En effet,
si f est une bijection de E dans F alors on a

∀y ∈ F, f # ({y}) = { f −1 (y)}.

Plus généralement, si A est une partie de F on a :

f # ( A ) = f −1 ( A ).

C’est à dire que l’image réciproque de A par f est aussi l’image directe de A par f −1 .

3.5 Familles
Définition [Link]

Soit E et I deux ensembles. Une famille d’éléments de E indexées par I est une application de I dans E.
C’est-à-dire que pour tout élément i de I on se donne un élément xi de E. On note ( xi )i∈ I la famille.

Remarques :
1. Une famille indexée par N s’appelle une suite.
2. La donnée d’une famille ( xi )i∈ I d’éléments de E indexée par I permet de se donner une partie de E notée :

{ x i | i ∈ I }.

On peut généraliser les intersections et les réunions à plus de deux ensembles.

Définition [Link]

Soit E et I des ensembles et ( Ai )i∈ I une famille de parties de E.


[
1. La réunion des ensembles Ai que l’on note Ai est l’ensemble des éléments de E qui sont dans au
i∈ I
moins un des ensembles Ai .
[
Ai = { x ∈ E | ∃i ∈ I, x ∈ Ai }.
i∈ I
\
2. L’intersection des ensembles Ai que l’on note Ai est l’ensemble des éléments de E qui sont dans tous
i∈ I
les ensembles Ai . [
Ai = { x ∈ E | ∀i ∈ I, x ∈ Ai }.
i∈ I

Exemple : Soit E = R, A1 = [0, 2], A2 = [−1, 1] et A3 = [3, 6]. On a alors


3
[ 3
\
A1 ∪ A2 ∪ A3 = Ai = [−1, 3] ∪ [3, 6] et A1 ∩ A2 ∩ A3 = Ai = ∅.
i =1 i =1

78
Définition [Link]

Soit E un ensemble, on appelle partition de E la donnée d’une famille ( Ai )i∈ I de parties de E telles que :
1. elles "recouvrent" l’ensemble E : [
Ai = E
i∈ I

2. elles sont deux à deux disjointes : soit i et j deux éléments disjoints de I alors Ai ∩ A j = ∅.

Remarques :
1. La définition précédente signifie pour pour chaque x dans E il existe un unique i dans I tel que x ∈ Ai .
2. Dans certains ouvrages on demande de plus à une partition que les ensembles Ai soient distincts de
l’ensemble vide. Cela n’est qu’un point de détail.
Exercices :
1. Écrire la deuxième condition à l’aide de quantificateurs
2. Donner toutes les partitions en ensembles non vides de {0, 1} puis de {0, 1, 2}.

4 Relations binaires
4.1 Généralités
Définition [Link]

Soit E un ensemble. On appelle relation binaire R sur E la donnée d’une partie Γ de E × E.

Terminologie :
— L’ensemble Γ s’appelle le graphe de la relation
— Soit x et y deux éléments de E. On note xRy si ( x, y) ∈ Γ. On dit alors que x et y sont en relation.
Exemples :
1. On peut définir une relation en prenant Γ = ∅. Dans ce cas aucun élément n’est en relation avec un autre
(ce n’est pas passionnant).
2. On peut définir une relation en prenant Γ = E × E. Dans ce cas tout élément est en relation avec tout autre
élément (ce n’est pas passionnant non plus).
3. Sur R. On peut définir la relation binaire définie par xRy si et seulement si x et y sont de même signe.
Quel est son graphe ?

4.2 Relation d’équivalence


Définition [Link]

Soit E un ensemble. Une relation d’équivalence sur E est une relation binaire qui vérifie les condition suivante :
1. Elle est réflexive c’est-à-dire : ∀ x ∈ E, xRx.
2. Elle est symétrique c’est-à-dire : ∀( x, y) ∈ E2 , xRy ⇒ yRx.
3. Elle est transitive c’est-à-dire : ∀( x, y, z) ∈ E3 , xRy et yRz ⇒ xRz.

Remarque : Pourquoi demander la symétrie alors que cela semble découler de la réflexivité et de la transitivité ?
Notation : Les relations d’équivalences se notent ∼, ', ∼
=, ≈, ≡. Dans la suite nous les noterons '.
Exemples :
1. Soit E un ensemble. La relation d’égalité définie par xRy ⇔ x = y est une relation d’équivalence.
2. Dans R. La relation de congruence modulo un réel A vu au chapitre des nombres complexes est une
relation d’équivalence.

79
3. Soit Z l’ensemble des entiers relatifs et N un entier non nul. On définit la relation xRy ⇔ x − y est
divisible par N. Vérifions que c’est une relation d’équivalence. On note alors x ≡ y[ N ].

Définition [Link]

Soit E un ensemble et ' une relation d’équivalence.


1. Soit x un élément de E. On appelle classe d’équivalence de x pour la relation ' l’ensemble :

Cx = { y ∈ E | y ' x }.

2. On appelle classe d’équivalence de E pour la relation ', toute partie A de E telle qu’il existe un élément
x de E dont c’est la classe d’équivalence. Les éléments x dont c’est la classe d’équivalence s’appellent les
représentants de A.

Exemples :
1. Si on reprend l’égalité sur E. Les classes d’équivalences sont les singletons.
2. Si on reprend la congruence modulo N. Les classes d’équivalence sont de la forme {n + kN | k ∈ Z}.

Proposition [Link]

Soit E un ensemble muni d’une relation d’équivalence '.


1. Les classes d’équivalences sont des ensembles non vides.
2. Soit x et y deux éléments de E,
Cx = Cy ⇔ x ' y.
3. Tout élément de x est dans une classe d’équivalence et une seule.

Démonstration

Remarque : La dernière assertion signifie que les classes d’équivalence définissent une partition de E.

4.3 Relation d’ordre


Définition [Link]

Soit E un ensemble. Une relation d’ordre sur E est une relation binaire qui vérifie les condition suivante :
1. Elle est réflexive c’est-à-dire : ∀ x ∈ E, xRx.
2. Elle est antisymétrique c’est-à-dire : ∀( x, y) ∈ E2 , xRy et yRx ⇒ x = y.
3. Elle est transitive c’est-à-dire : ∀( x, y, z) ∈ E3 , xRy et yRz ⇒ xRz.
La donnée de E et de la relation d’ordre s’appelle un ensemble ordonnée.

Notation : Nous noterons les relations d’ordre >, 6.


Exemples :
1. La relation d’ordre classique dans R (ou Q, Z, N).
2. La relation < n’est pas une relation d’ordre car elle n’est pas antisymétrique.
3. Soit E un ensemble, la relation d’inclusion dans P ( E) est une relation d’ordre.
4. Soit E1 et E2 deux ensembles munis chacun d’une relation d’ordre. On peut ordonner E1 × E2 par l’ordre
lexicographique défini par

( x1 , y1 ) 6 ( x2 , y2 ) ⇔ ( x1 < y1 ) ou [( x1 = y1 ) et ( x2 6 y2 )].

Où on a noté x1 < y1 pour x1 6 y1 et x1 6= y1 .

80
Définition [Link]

Soit ( E, 6) un ensemble ordonné. On dit que l’ordre est total ou que E est totalement ordonnée si pour tout
couple ( x, y) de E × E, x 6 y ou y 6 x.
Si l’ordre n’est pas total on dit qu’il est partiel.

Exemples :
1. L’ordre classique dans R est un ordre total.
2. L’inclusion dans P ( E) est un ordre partiel dès que E a au moins deux éléments.

Définition [Link]

Soit ( E, 6) un ensemble ordonné et A une partie non vide de E. Soit x un élément de E


— On dit que x est un majorant de A s’il est plus grand que tout les éléments de A. C’est-à-dire :

∀ a ∈ A, a 6 x.

En particulier, il est comparable à tous les éléments de A


— On dit que x est un minorant de A s’il est plus petit que tout les éléments de A C’est-à-dire :

∀ x ∈ A, x 6 a.

En particulier, il est comparable à tous les éléments de A


— On dit que x est un plus grand élément de A s’il est dans A et que c’est un majorant.
— On dit que x est un plus petit élément de A s’il est dans A et que c’est un minorant.
De manière générale :
— la partie A est dite majorée s’il existe un majorant.
— la partie A est dite minorée s’il existe un minorant.
— la partie A est dite bornée s’il existe un majorant et un minorant.

Exemples :
1. L’ensemble [0, 1] est bornée. Il admet 1 comme majorant mais aussi π. Son plus grand élément est 1.
2. L’ensemble ] − e, +∞[ est minoré mais n’est pas majoré. −e est un minorant, −50 aussi. Par contre il n’y a
ni plus grand élément, ni plus petit élément.
3. L’ensemble Q n’est pas borné.

Proposition [Link]

Avec les notations précédentes.


1. Si A admet un plus grand élément alors il est unique. On le note Max( A).
2. Si A admet un plus petit élément alors il est unique. On le note Min( A).

Remarque : Cela n’est pas vrai pour les majorants/minorants.

81
1 Généralités
Primitives
4 82
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
1.2 Primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2 Méthodes de calculs 84
2.1 Intégration par partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.2 Changement de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.3 Calculs classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

Nous allons revoir les notions principales déjà vues en terminale sur les primitives. Nous verrons aussi la
méthode du changement de variables pour calculer les primitives.
Dans tout ce paragraphe I désigne un intervalle de R.

1 Généralités
1.1 Définition
Définition [Link]

Soit f une fonction définie sur I. On dit qu’une fonction F est une primitive de f sur I si et seulement si F et
dérivable et F 0 = f .

Théorème [Link]

Si f est une fonction continue sur I. Elle admet des primitives.

Démonstration : Ce théorème est admis pour le moment. Sa démonstration sera obtenue dans le chapitre sur
l’intégration. 
Remarque : On peut trouver des fonctions non continues qui admettent des primitives. Si on prend par
exemple   
 2 1
x sin si x 6= 0
F : x 7→ x

0 sinon

82
On vérifie que cette fonction est dérivable mais sa dérivée
    
 1 1
2x sin − cos si x 6= 0
f : x 7→ x x

0 sinon

n’est pas continue.

Proposition [Link]

Soit f une fonction définie sur I admettant une primitive F sur I. L’ensemble des primitives de f sur
I sont les fonctions de la forme
x 7→ F ( x ) + C.

Démonstration : On voit de manière évidente que ces fonctions sont bien des primitives de f . Réciproquement,
si G est une primitive de f alors la fonction F − G est de dérivée nulle. Or I est un intervalle donc F − G est
constante. 
Remarques :
1. Le fait qu’une fonction de dérivée nulle sur un intervalle set constante sera démontré par la suite.
2. Il est essentielle d’être sur un intervalle. Par exemple, si on considère f : x 7→ 1/x sur R? . On a x 7→ ln | x |
comme primitive mais aussi 
ln x + 1 si x > 0
x 7→
ln(− x ) + 2 si x < 0
Notation : ZAvec les mêmes notations, si a est un élément de I. On notera l’unique primitive de f qui s’annule
x
en a : x 7→ f (t) dt.
a
De même, pour désigner une primitive de f , on notera
Z x
f (t) dt.

Ce n’est qu’une notation. On a par exemple :


Z x
dt
∀ x ∈ R+ , = ln x
t
mais aussi, Z x
dt
∀ x ∈ R+ , = 3 + ln x.
t

1.2 Primitives usuelles


Voici le tableaux des primitives usuelles

83
Fonction Primitive Intervalle
x n +1
x n (n ∈ N) R
n+1
x n +1
x n (n ∈ Z, n < −1) R?+ ou R?−
n+1
x α +1
x α (α ∈ R \ {−1}) sur R?+
α+1
1/x ln | x | R?+ ou R?−
ln | x | x ln | x | − x R?+ ou R?−
ex ex R
cos x sin x R
sin x − cos x R
ch x sh x R
sh x ch x R
tan x − ln | cos x | ] − π/2 + kπ, π/2 + kπ [
cotanx ln | sin x | ]kπ, (k + 1)π [
th x ln | ch x | R
1/(cos2 x ) tan x ] − π/2 + kπ, π/2 + kπ [
1/(sin2 x ) −cotantx ]kπ, (k + 1)π [
1/( ch 2 x ) th x R
1/( sh 2 x ) −1/ th x R?+ ou R?−
1/(1 + x2 ) arctan x R
1 1+x
1/(1 − x2 ) ln ] − ∞, −1[ ou ] − 1, 1[ ou ]1, +∞[
√ 2 1−x
1/ 1 − x2 arcsin x ] − 1, 1[
1 √ √ √
√ (h ∈ R? ) ln | x + x2 + h| R si h > 0; ] − ∞, − −h[ et ] −h, +∞[ sinon
h + x2

O PÉRATIONS SUR LES PRIMITIVES


Fonction Primitive Paramètre
u0 + v0 u+v
k.u0 k.u k∈R
0
− uu2 1
u
u0 .eu eu
u0
u ln |u|
[Link]−1 .u0 un n ∈ N?

Remarques :
1. La primitive de ln se retrouve à l’aide d’une intégration par parties.
2. Ne pas confondre a x avec x a .
Exemple : On a ∀ x ∈ R?+ ,
Z x
1 1
dt = ln2 ( x ).
t ln(t) 2

2 Méthodes de calculs
Les méthodes de calculs de primitives sont les mêmes que les méthodes pour calculer les intégrales. La seule
différence est dans la gestion des constantes. Nous alternerons donc entre les deux visions.

2.1 Intégration par partie


On sait que la dérivée d’un produit de deux fonctions dérivables f et g est donné par la formule ( f g)0 =
f 0 g + g0 f .
En intégrant, on trouve la propriété suivante.

84
Proposition [Link]

Soit u et v deux fonctions dérivables sur I = [ a, b] dont les dérivées sont continues. On a
Z b Z b
u0 v = [uv]ba − uv0 .
a a

Cela donne (en primitives) :


Z x Z x
∀ x ∈ I, u0 v = u( x )v( x ) − uv0 .

Remarque : Les hypothèses sont nécessaires car u0 et v0 doivent être continues.

Définition [Link]

Soit f une fonction définie sur un intervalle I. On dit qu’elle est de classe C 1 si elle est dérivable et que sa
dérivée est continue.

Exemple : On a Z x Z x
∀ x ∈ R, tet dt = xe x − et dt = xe x − e x .

2.2 Changement de variables


Autant l’intégration par partie est juste une écriture pour les intégrale de la formule ( f g)0 = f 0 g + g0 f autant
le changement de variables sera une écriture de la formule ( f ◦ g)0 = g0 × f 0 ◦ g. Commençons par un exemple.
Exemple : Soit f (t) = sin t et g(t) = ln t. On pose F (t) = ( f ◦ g)(t) = sin(ln t). Elle est dérivable et F 0 (t) =
1
cos(ln t). On en déduit que
t Z 2
cos(ln t) dt
= [sin(ln t)]21 = sin(ln 2).
1 t
Le problème est que la primitive ne saute pas aux yeux. Essayons de voir comment retrouver ce résultat. On
Z 2
cos(ln t) dt
part donc avec . Le cos(ln t) posant problème on pose u = ln t ce qui correspond à t = eu . On
1 t
doit alors
— Remplacer les t par des eu (ou les ln t par des u).
— Remplacer le dt par un du. La méthode est pour cela d’utiliser la « recette » suivante. On sait que u = ln t
donc en physique vous écririez :
du 1
= .
dt t
Cette notation n’est pas correcte en mathématiques mais on écrira - sans savoir exactement la signification
-
1
du = dt ou dt = t du = eu du.
t
Cela est juste : du = u0 (t) dt.
— Remplacer les bornes. Quand t = 1 on a u = ln t = 0 et quand t = 2 on a u = ln t = ln 2.
On trouve donc : Z ln 2
cos(u) du = [sin u]ln 2
0 = sin(ln 2).
0
Z 4 √ t −1 √
e dt
Exercice : Appliquer la recette pour calculer √ . On posera u = t.
1 2 t

85
Théorème [Link]

Soit ϕ de classe C 1 sur un intervalle I et f de classe C 0 sur ϕ( I ) on a :


Z b Z ϕ(b)
( f ◦ ϕ)(t) × ϕ0 (t)dt = f (u)du.
a ϕ( a)

Démonstration : Soit F une primitive de f sur ϕ([ a, b]).


Z ϕ(b)
ϕ(b)
— On a f (u)du = [ F ] ϕ(a) = F ( ϕ(b)) − F ( ϕ( a)).
ϕ( a)
— De même F ◦ ϕ est de classe C 1 sur [ a, b] et ( F ◦ ϕ)0 = ϕ0 × f ◦ ϕ d’où
Z b
( f ◦ ϕ)(t) × ϕ0 (t)dt = [ F ◦ ϕ]ba = F ( ϕ(b)) − F ( ϕ( a)).
a


Remarques :
1. Cette formule peut se lire dans les deux sens nous allons le voir sur deux exemples.
2. Il n’est pas nécessaire que ϕ soit bijective.
Exemples :
Z 7
1. Calculons −2 cos7 t sin t dt. On pose u = cos t. C’est le sens de l’exemple précédent. Cela consiste
3
à lire la formule ci-dessus de gauche à droite. La fonction t 7→ cos t est de classe C 1 sur [3, 7] et on a
du = − sin t dt. D’où
Z 7 Z cos(7)
7 cos8 (7) − cos8 (3)
−2 cos t sin t dt = 2u7 du = .
3 cos(3) 4
Z 1 p
2. Calculons 1 − u2 du. On pose u = cos t. Cette fois-ci on va lire l’égalité de la proposition de la droite
−1
vers la gauche. Là encore t 7→ cos t est de classe C 1 sur R. De plus du = − sin t dt. Le changement des
bornes est un peu plus subtil. En effet on doit « inverser »le changement de variables. Ici on doit trouver
a et b tel que cos( a) = −1 et cos(b) = 1. De fait on choisit les antécédents que l’on veut. Je vais prendre
a = π et b = 0. On a alors
Z 1 p Z 0p
1 − u2 du = 1 − cos2 t(− sin t) dt
−1 π
Z π
= sin t sin t dt
0
Z π
1 − cos(2t) dt
=
0 2
 
π sin(2t) π
= −
2 4 0
π
= .
2
Remarque : On peut aussi se servir du changement de variables pour trouver des primitives. Il faudra alors
faire attention aux bornes. Essayons par exemple, en reprenant l’exemple ci-dessus de déterminer la primitive F
Z xp

de u 7→ 1 − u2 sur [−1, 1] qui s’annule en 0. On a F ( x ) = 1 − u2 du. On pose là encore le changement
0
de variables u = cos t On trouve alors
Z arccos( x) π  √
sin(2 arccos x ) π x 1 − x2
F(x) = − sin t sin t dt = − arccos x + = − arccos x + .
π/2 2 4 2 2
Notons d’ailleurs que cette fonction est, par construction, de classe C 1 sur [−1, 1] comme primitive de
fonction continue contrairement à ce que l’arccosinus pourrait faire croire.
Exercices :
1. Refaire le calcul du deuxième exemple en prenant −π pour antécédent de −1.
ln t
2. Déterminer une primitive de t 7→ .
t

86
Utilisation de changements de variables affines
1. Parité : Si f est une fonction paire définie sur un intervalle I. On peut utiliser le changement de variable
u = −t. On trouve alors que pour tout x dans I,
Z x Z −x Z 0
f (t) dt = − f (−u) du = f (u) du.
0 0 −x
Z x Z x
On en déduit que f (u) du = 2 f (u) du.
−x 0
De même si f est impaire,
Z x Z −x Z 0
f (t) dt = − f (−u) du = − f (u) du.
0 0 −x
Z x
On en déduit que f (u) du = 0.
−x
2. Fonctions périodiques : Soit f une fonction périodique de période T. En posant u = t + T on trouve que
pour tout ( a, b),
Z b Z b+ T Z b+ T
f (t) dt = f (u − T ) du = f (u) du.
a a+ T a+ T
On en déduit que pour tout a,
Z a+ T Z T Z 0 Z T Z a+ T Z T
f− f = f+ f+ f− f = 0.
a 0 a 0 T 0

3. Transformation en une intégrale sur [0, 1] : Soit f une fonction continue. Si on pose t = a + (b − a)u. On
obtient Z b Z 1
f (t) dt = (b − a) f ( a + (b − a)u) du.
a 0

2.3 Calculs classiques


Passons en revue quelques classiques classiques qu’il faut connaitre.

Primitive d’une fonction de la forme t 7→ P(t)et


On fait des intégrations par parties en dérivant le polynôme jusqu’à ce qu’il « disparaisse ».

Primitive d’une fonction de la forme t 7→ P(t) ln(t)


On fait des intégrations par parties en intégrant le polynôme et en dérivant le ln.

Intégrale des fonctions de la forme t 7→ cos p t. sinq t


Dans tous les cas on peut linéariser ces expressions. On peut cependant faire plus rapide dans un cas
particulier.
Si p ou q est impair : on peut alors intégrer à vue, sans linéariser. Par exemple :

Z x Z x
∀ x ∈ R, sin5 t. cos2 t dt = sin t.(1 − cos2 t)2 cos2 t dt
Z x
= sin t.(cos2 t − 2 cos4 t + cos6 t) dt
1 2 1
= − cos3 x + cos5 x − cos7 x.
3 5 7
Si p et q sont pairs : la méthode précédente ne fonctionne plus. On va linéariser.

87
1
Calculs des primitives des fonctions de la forme t 7→
at2 + bt + c
Soit ( a, b, c) trois réels (avec a 6= 0 sinon on sait faire). On veut calculer une primitive (ou une intégrale) de
1
t 7→ 2 en se plaçant sur un intervalle I où at2 + bt + c ne s’annule pas.
at + bt + c
Il y a trois cas :
— Si at2 + bt + c a deux racines réels distinctes (discriminant strictement positif) que l’on note α et β. On
peut le factoriser
at2 + bt + c = a(t − α)(t − β).
Par la suite, on chercher A, B tels que
1 A B
∀t ∈ I, = +
a(t − α)(t − β) t−α t−β

On peut les déterminer en mettant tout au même dénominateur ou en multipliant par (t − α) pour
déterminer A et par (t − β) pour déterminer B. Cette méthode sera justifiée un peu plus tard dans le
chapitre sur les fractions rationnelles.
Par exemple, calculons sur I = [0, 1]
Z x
dt
2
.
2t − 2t − 4
On factorise et on obtient
1 1
∀t ∈ I, 2 = .
2t − 2t − 4 2(t + 1)(t − 2)
On cherche alors A, B tels que
1 A B
∀t ∈ I, = + .
2(t + 1)(t − 2) t+1 t−2
On trouve A = −1/6 et B = 1/6. On a donc
Z x Z x Z x 
dt 1 dt dt 1 x−2
= − = ln .
2t2 − 2t − 4 6 t−2 t+1 6 x+1

— Si at2 + bt + c a une racine double notée α. Là encore on factorise,

at2 + bt + c = a(t − α)2 .

Il ne reste qu’à intégrer classiquement


Par exemple sur I = [0, 1]
Z x Z x
dt 1 dt 1
= = .
2t2 − 8t + 8 2 ( t − 2)2 2( x − 2)

— Si at2 + bt + c a deux racines complexes conjuguées (discriminant strictement négatif). On fait la mise
Z
du
sous forme canonique et on se ramène à par un changement de variables.
Z x
1 + u2
dt
Calculons par exemple . On a
t2 − 4t + 6
Z x Z x
dt dt
2
=
t − 4t + 6 ( t − 2)2 + 2
Z x
1 dt
=  
2 t−2 2
√ +1
2
t−2
On pose alors u = √ et on obtient :
2
Z x Z ( x −2) / √2 √ √  
dt 1 2 du 2 x−2
= = arctan √ .
t2 − 4t + 6 2 u2 + 1 2 2
Z 1
dt
Exercice : Calculer
0 t2 + t + 1
Remarques :

88
1. Cette méthode est très importante. Elle permet de calculer toutes les primitives des fractions ration-
nelles (voir plus loin).
2. On peut gérer le dernier cas comme le premier en passant dans C. En effet, on peut aussi se ramener
à des primitives du type
Z x
dt
t−α
avec α ∈ C. Il suffit alors d’utiliser (ou de redemonter) le lemme suivant

Lemme [Link]

1
Soit α = u + iv ∈ C avec v 6= 0. La fonction t 7→ est continue sur R et admet donc des
(t − α)n
primitives sur R. De plus


 1 1
Z x  si n 6= 1
dt − n + 1 ( x − α ) n −1  
n
= 1 x−u
(t − α) 
 2 2
 ln(( x − u) + v ) + i arctan si n = 1
2 v

Démonstration : La partie n 6= 1 est juste la formule classique de la primitive de ( x − α)k en prenant


garde qu’ici, k = −n. Pour démontrer la partie pour n = 1 on peut juste dériver le terme de droite,
nous allons le faire autrement ce qui permet de retrouver la formule si on l’a oubliée.
On a pour tout t dans R,

1 t−α
=
t−α | t − α |2
t−α
=
( t − u )2 + v2
t−u v
= 2 2
+i
(t − u) + v ( t − u )2 + v2
t−u 1 1
= +i
( t − u )2 + v2 v ((t − u)/v)2 + 1
Il ne reste qu’à intégrer. 

89
Équations
5
différentielles
1 Généralités 90
1.1 Définition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1.2 Équations différentielles linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

2 Équation différentielle linéaire d’ordre 1 93


2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2.2 Résolution des équations différentielles linéaires homogènes d’ordre 1 . . . . . . . . . . . . . 93
2.3 Équation différentielle linéaire d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.4 Equation avec condition initiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.5 Raccordement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.6 Méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

3 Équation différentielle linéaire d’ordre 2 à coefficients constants 97


3.1 Équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2 Équations avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.3 Equation avec des conditions initiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

Une équation différentielle est une équation reliant les valeurs d’une fonction aux valeurs de ses déri-
vées. Les équations différentielles sont très utilisées en physique (principe fondamental de la dynamique,
électromagnétisme, radioactivité...).
Dans tout ce chapitre, nous nous intéresserons à des fonctions définies sur un intervalle I (non réduit à un
point) et à valeurs dans K = R ou C.

1 Généralités
1.1 Définition et exemples
Nous allons donner une définition générale de ce que nous entendrons par équation différentielles. Dans la
pratique nous nous intéresserons seulement à des cas très particuliers.

90
Définition [Link]

Soit n un entier non nul. On appelle équation différentielle d’ordre n, la donnée d’une application F définie sur
une partie de R × Kn . On note alors l’équation :

y(n) = F (t, y, y0 , . . . , y(n−1) ).

Remarque : Dans la pratique on travaille uniquement avec n = 1 (équation différentielle du premier ordre :
y0 = F (t, y)) et n = 2 (équation différentielle du second ordre : y00 = F (t, y, y0 )).

Définition [Link]

Soit I un intervalle de R et y(n) = F (t, y, y0 , . . . , y(n−1) ) une équation différentielle. On appelle solution de
l’équation différentielle sur I toute fonction f définie et suffisamment dérivable sur I telle que pour tout t dans
I,
y(n) (t) = F (t, y0 (t), . . . , y(n−1) (t)).

Remarques :
1. Il est important de noter que résoudre une équation différentielle n’a de sens que sur un intervalle fixé. Si
on considère par exemple l’équation
1
y0 = .
x
On sait que sur R?+ les solutions sont x 7→ ln x + K où K ∈ R. Alors que sur R?− les solutions sont
x 7→ ln(− x ) + K où K ∈ R. De plus il est essentiel d’être sur un intervalle et non sur une partie de R
quelconque car les équations différentielles correspondent à la « propagation » d’un phénomène. Si on
travaille par exemple sur R? ce que l’on va trouver pour les nombre négatifs ne sera pas lié à ce que l’on
va obtenir pour les nombres positifs.
2. Il faut avoir conscience, que l’on ne sait résoudre de manière exacte qu’un très petit nombre d’équations
différentielles. Nous n’étudierons que deux cas très particuliers. Dans la pratique, on a recours à de
méthode approchée via des simulations numériques sur ordinateurs.
Exemples :
1. y0 = 0
2. yy0 = 2
3. y000 + sin(y) = 0.
4. La désintégration radioactive : Si on considère un échantillon d’un élément radioactif. Si on note N (t) le
nombre d’atomes présent dans l’échantillon à l’instant t, alors :

N (t) = −λN (t).

Où λ est la constante radioactive de l’élément.


5. Chute libre. On se donne un mobile de masse m et on note z son altitude. Dans le cas d’une chute libre :

mz00 = −mg.

6. Oscillateur. Si on se donne un ressort linéaire de raideur k sa position x vérifie

mx 00 = −kx.

Si on rajoute une force de frottement (oscillateur amorti) on trouve

mx 00 = −kx − λx 0 .

Pour finir, on peut entretenir les oscillations (oscillateur forcé) on trouve :

mx 00 + λx 0 + kx = A sin(ωt).

91
1.2 Équations différentielles linéaires

Définition [Link] (Équations différentielles linéaires)

Soit n un entier non nul et I un intervalle. Un équation différentielle linéaire d’ordre n est une équation de la
forme :
a n ( t ) y ( n ) + · · · + a1 ( t ) y 0 + a0 ( t ) y = b ( t ) ,
où les a0 , a1 , . . . , an et b sont des fonctions définies sur I. Les fonctions a0 , . . . , an s’appellent les coefficients
de l’équation différentielle et la fonction b s’appelle le second membre.

Exemples :
1. Une équation différentielle linéaire d’ordre 1 s’écrit donc
a1 ( t ) y 0 + a0 ( t ) y = b ( t ).
2. Une équation différentielle linéaire d’ordre 2 s’écrit donc
a2 (t)y00 + a1 (t)y0 + a0 (t)y = b(t).
Remarque : On ne demande pas aux fonctions ai d’être linéaire... L’équation y00 + cos(t)y0 − et y = sin t est
linéaire mais sin(y0 ) = 2y ne l’est pas.

Définition [Link]

Soit ( E) une équation différentielle linéaire :

a n ( t ) y ( n ) + · · · + a1 ( t ) y 0 + a0 ( t ) y = b ( t ) (E)

Elle est dite homogène si b est la fonction nulle. De manière générale, l’équation différentielle linéaire homogène
obtenue en prenant b = 0 pour second membre (et en conservant les mêmes coefficients) s’appelle équation
différentielle linéaire homogène associée.

Théorème [Link] (Structure de l’ensemble des solutions)

Soit ( E) une équation différentielle linéaire d’ordre n définie sur un intervalle I et ( H ) l’équation
homogène associée.
1. L’ensemble S H des solutions de ( H ) est un sous-espace vectoriel de F ( I, K).
2. S’il existe une solution f 0 de ( E) on a SE = { f + f 0 | f ∈ S H }. On dit alors que SE est un
espace affine de direction S H . C’est-à-dire

f ∈ SE ⇐⇒ ( f − f 0 ) ∈ S H .

Démonstration
Proposition [Link] (Principe de superposition)

On considère deux équations différentielles linéaires ayant les mêmes coefficients :

an (t)y(n) + · · · + a1 (t)y0 + a0 (t)y = b1 (t) (E1 )

et

a n ( t ) y ( n ) + · · · + a1 ( t ) y 0 + a0 ( t ) y = b − 2( t ). (E2 )

Soit f 1 une solution de (E1 ) et f 2 une solution de (E2 ). Alors f 1 + f 2 est solution de l’équation :

an (t)y(n) + · · · + a1 (t)y0 + a0 (t)y = b1 (t) + b2 (t).

92
2 Équation différentielle linéaire d’ordre 1
2.1 Généralités
Définition [Link]

Une équation différentielle linéaire d’ordre 1 s’écrit :

a1 ( t ) y 0 + a0 ( t ) y = b ( t ).

où a1 , a0 et b sont des fonctions définies sur un intervalle I.


Si la fonction b est la fonction nulle, l’équation est dite homogène (ou sans second membre).

Remarque : On se ramènera toujours à une équation du type

y 0 + a ( t ) y = b ( t ).

Pour cela, il suffit de diviser par a1 (t) en ayant pris soin de découper l’intervalle de définition aux éventuelles
racines de a1 .

2.2 Résolution des équations différentielles linéaires homogènes d’ordre 1


On sait résoudre les équations différentielles linéaires homogènes d’ordre 1. On a

Théorème [Link]

Soit I un intervalle et a : I → R une fonction continue sur I. Les solutions de l’équation différentielle
y0 + a(t)y = 0 sont les fonctions f définies sur I par :

∀ x ∈ I, f (t) = λ.e− A(t) ,

où λ ∈ R et x 7→ A(t) est une primitive de a.

Remarques :
1. Le fait que a soit continue assure l’existence des primitives A.
2. Modifier une primitive A par une autre primitive de la forme B(t) = A(t) + C revient à modifier la
constante λ.
3. On peut retrouver la formule par le calcul suivant.
y0 = ay → y0 = − ay
y0
→ = −a
y
Z x 0 Z x
y
→ =− a
y
→ ln(y) = − A( x ) + K
→ y = λ.e− A(t) .
Attention, le calcul précédent n’est pas rigoureux et ne constitue pas une preuve du théorème.
Démonstration : On commence par vérifier que les fonctions x 7→ λ.e− A(t) sont bien des solutions.
Maintenant, soit f une solution de l’équation différentielle. On considère la fonction g définie par :

∀t ∈ I, g(t) = f (t)e A(t) .


La fonction g est dérivable et

∀t ∈ I, g0 (t) = f 0 (t)e A(t) + a(t) f (t)e A(t) = 0.


On en déduit qu’il existe λ ∈ R tel que ∀t ∈ I, g(t) = λ. 
Exemples :

93
1. Considérons l’équation y0 = 0. Les solutions sont les fonctions définies sur R par t 7→ λ avec λ ∈ R.
2. Considérons l’équation y0 = y. Les solutions sont les fonctions définies sur R par t 7→ λet avec λ ∈ R.
2
3. Considérons l’équation y0 = ty. Les solutions sont les fonctions définies sur R par t 7→ λet /2 avec λ ∈ R.
y
4. Considérons l’équation y0 = . Les solutions sont les fonctions définies sur R?− ou R?+ par t 7→ λx avec
t
λ ∈ R.
2y
5. Considérons l’équation y0 = . Les solutions sont les fonctions définies sur R?− ou R?+ par t 7→ λt2 avec
t
λ ∈ R.

2.3 Équation différentielle linéaire d’ordre 1


On se propose de résoudre l’équation différentielle

y0 + a(t)y = b(t) (E)

où a et b sont des fonctions continues sur un intervalle I.


On commence par considérer l’équation homogène sans second membre associée.

y0 + a(t)y = 0. (H)

Voici alors la méthode à appliquer pour résoudre l’équation (E).


1. On exprime l’équation homogène associée (H).
2. On résout (H).
3. On trouve une solution particulière de (E) - voir plus bas.
4. On exprime la forme générale des solutions.
Exemple : On veut résoudre

y0 + ty = t (E)

L’équation homogène associée est

y0 + ty = 0. (H)

Les solutions de l’équation homogène sont


2 /2
S H = {t 7→ λe−t | λ ∈ R }.

De plus on remarque que la fonction constante égale à 1 est solution de (E). On en déduit que :
2 /2
SE = {t 7→ 1 + λe−t | λ ∈ R }.

La plupart du temps, il ne sera pas aussi simple de trouver une solution particulière. On a alors recours à la
méthode dite de la variation de la constante.
Le principe est de chercher une solution particulière de la forme :

f : t 7 → λ ( t ) e− A(t)

où λ est un fonction. On a donc

∀t ∈ I, f 0 (t) = λ0 (t)e− A(t) − λ(t) a(t)e− A(t) .

D’où
f solution de E ⇐⇒ ∀t ∈ I, f 0 (t) + a(t) f (t) = b(t)
⇐⇒ ∀t ∈ I, λ0 (t)e− A(t) − λ(t) a(t)e− A(t) + a(t)λ(t)e− A(t) = b(t)
⇐⇒ ∀t ∈ I, λ0 (t) = b(t)e A(t) .
On en déduit donc

94
Proposition [Link]

Les solutions de l’équation différentielle sur I

y0 + a(t)y = b(t)

où a et b sont des fonctions continues sur I sont de la forme


Z t 
t 7→ b(u)e A(u)
du e− A(t) + Ke− A(t) .

Remarque : On peut supprimer la constante si on fait varier la borne « en bas »de l’intégrale.
Exemples :
1. On veut résoudre

y0 + y = cos x (E)

L’équation homogène associée est

y0 + y = 0. (H)

Les solutions de l’équation homogène sont

S H = { x 7→ λe− x | λ ∈ R}.

On va chercher la solution particulière sous la forme :

f : x 7→ λ( x )e− x où λ : R → R,

est une fonction dérivable.


Dés lors on a
f vérifie (E) ⇔ ∀x ∈ R, f 0 ( x ) + f ( x ) = cos x
⇔ ∀x ∈ R, λ0 ( x )e− x − λ( x )e− x + λ( x )e− x = cos x
⇔ ∀x ∈ R, λ0 ( x )e− x = cos x la simplification aura toujours lieu
⇔ ∀x ∈ R, λ0 ( x ) = e x cos x

Il ne reste plus qu’a trouver une primitive de e x cos x. Pour cela on remarque que
 
∀ x ∈ R, e x cos x = Re e(1+i)x .

On en déduit qu’une primitive de e x cos x est donnée par


!  
e (1+ i ) x (1 − i )e x (cos x + i sin x ) 1
Re = Re = (cos x + sin x ).
1+i 2 2

On en déduit que la fonction x 7→ 12 (cos x + sin x )e− x est une solution particulière et que
 
1 −x
SE = x 7→ (cos x + sin x + λ)e | λ ∈ R .
2

2. On peut penser au principe de superposition.


Si on veut résoudre l’équation

y0 + y = 1 + cos x (E)

L’équation homogène associée est

y0 + y = 0. (H)

95
On voit que la fonction constante égale à 1 est solution de y0 + y = 1. On sait de plus que x 7→ 12 (cos x +
sin x )e− x est solution de y0 + y = cos x. On en déduit que

1
x 7→ 1 + (cos x + sin x )e− x
2
est une solution particulière de (E). Donc on a
 
1 −x
SE = x 7→ 1 + (cos x + sin x + λ)e | λ ∈ R .
2

Exercice : Résoudre l’équation différentielle :

xy0 + y = x cos x.

2.4 Equation avec condition initiale


On considère une équation différentielle du premier ordre

y0 + a( x )y = b( x )

avec a et b des fonctions continues sur un intervalle I. Soit t0 dans I et y0 dans K. Résoudre l’équation avec
la condition initiale y(t0 ) = y0 revient à trouver toutes les fonctions f dérivables sur I, solution de l’équation
différentielle et vérifiant que f (t0 ) = y0 .
Remarque : On dira alors que l’on cherche à résoudre le problème de Cauchy :
 0
y + a( x )y = b( x )
y ( t0 ) = y0 .

Théorème [Link]

Le problème de Cauchy 
y0 + a( x )y = b( x )
y ( t0 ) = y0 .
a une unique solution donnée par
Z t 
t 7→ b(u)e A(u)
du e− A(t) + y0 e A(t0 )− A(t) .
t0

Remarque : Le problème de Cauchy 


y0 + a( x )y = 0
y(t0 ) = 0.
a pour unique solution la fonction nulle.

2.5 Raccordement
On peut se poser la question de la résolution d’une équation différentielle

a0 y 0 + a1 y = b

sur un intervalle I où a0 s’annule. Le principe est alors de résoudre l’équation sur chaque sous-intervalle de I
où a0 ne s’annule pas et d’essayer ensuite de recoller les solutions. Il n’y a plus de résultats généraux. Traitons
un exemple.
Exemples :
1. Résolvons l’équation (E)
ty0 − 2y = 0
sur R. On pose I+ =]0, +∞[ et I− =] − ∞, 0[. On va résoudre l’équation sur chacun de ses intervalles. On
pose (E’) l’équation
2
y0 − y = 0.
t

96
2
Un primitive de t 7→ − sur I+ ou I− est A : t 7→ −2 ln |t|. On en déduit que les solutions sont
t

S± = {t 7→ λt2 }.

Soit f une éventuelle solution de (E) sur R, sa restriction à R+ et à R− vérifie l’équation. On en déduit
qu’il existe λ+ et λ− tels que 
? λ+ t2 si t > 0
∀t ∈ R , f (t) =
λ− t2 si t < 0
Comme de plus, f doit être dérivable donc continue, on a f (0) = 0.
Réciproquement toutes ces fonctions sont solutions de l’équation sur R.
2. Résolvons maintenant l’équation (E)
ty0 − y = t2

(· · · )
On en déduit que les solutions sont
S± = {t 7→ λt + t2 }.
Soit f une éventuelle solution de (E) sur R, sa restriction à R+ et à R− vérifie l’équation. On en déduit
qu’il existe λ+ et λ− tels que

? λ+ t + t2 si t > 0
∀t ∈ R , f (t) =
λ− t + t2 si t < 0

Là encore, on doit avoir f (0) = 0. Mais cette fois, la fonction n’est dérivable que si λ− = λ+ .
Exercice : Résoudre sur ]0, +∞[ l’équation, t ln(t)y0 + y = 0.

2.6 Méthode d’Euler


Vous avez du voir ( ?) au lycée la méthode d’Euler pour résoudre de manière approchée les équations
différentielles. Je renvoie au cours d’informatique de deuxième période.

3 Équation différentielle linéaire d’ordre 2 à coefficients constants


On va essayer de résoudre l’équation différentielle

ay00 + by0 + cy = f (t) (E)

où a, b et c sont des constantes complexes avec a 6= 0 et f une fonction définie sur un intervalle I. L’équation
homogène associée est alors

ay00 + by0 + cy = 0. (H)

Remarque : Nous allons chercher les solutions dans F ( I, C). Cependant, nous verrons comment « revenir » à
R quand les constantes sont réelles.

3.1 Équation homogène


On considère l’équation

ay00 + by0 + cy = 0. (H)

Lemme [Link]

Soit f : t 7→ eαt . La fonction f vérifie (H) si et seulement si aα2 + bα + c = 0.

Démonstration

97
Définition [Link]

On appelle équation caractéristique de (H) l’équation du second degré :

X 2 + aX + b = 0.

Théorème [Link] (Cas Complexe)

Avec les notations précédentes, on note ∆ = b2 − 4ac le discriminant de l’équation caractéristique.


On a alors
— Si ∆ 6= 0 : on note α1 et α2 les deux racines de l’équation caractéristique. On a

S H = {t 7→ λeα1 t + µeα2 t | (λ, µ) ∈ R2 }.

— Si ∆ = 0 : on note α la racine double de l’équation caractéristique. On a

S H = {t 7→ (λt + µ)eαt | (λ, µ) ∈ R2 }.

En particulier, c’est un C-espace vectoriel de dimension 2.

Démonstration : On peut commencer par remarquer que ce sont des solutions de manière évidente. Reste à
montrer que ce sont les seules. On va se ramener au cas d’une équation d’ordre 1. On considère α une solution
de l’équation (que ∆ soit nul ou non).
Soit f ∈ F (R, C) on considère g : t 7→ f (t)e−αt et donc f : t 7→ g(t)eαt . On caclule alors les dérivées de f en
fonction de celles de g et on trouve que pour tout t dans R :

f (t) = g(t)eαt , f 0 (t) = [αg(t) + g0 (t)]eαt , f 00 (t) = [α2 g(t) + 2αg0 (t) + g00 (t)]eαt .

On a alors

f solution de E ⇐⇒ ∀t ∈ R, (2aα + b) g0 (t) + ag00 (t) = 0


⇐⇒ g0 solution de F

où (F) est l’équation


ay0 + (2aα + b)y = 0
ou  
0 b
y + 2α + y = 0.
a
On sépare alors les deux cas.
b
— Si ∆ = 0 alors 2α = − donc l’équation ( F ) est juste y0 = 0. On en déduit que g0 est de la forme t 7→ λ,
a
puis, par intégration, g : t 7→ λt + µ. On obtient bien alors

S H = {t 7→ (λt + µ)eαt | (λ, µ) ∈ R2 }.

δ
— Si ∆ 6= 0. Dans ce cas 2aα + b = ± 6= 0 où δ vérifie que δ2 = ∆. Les solutions de ( F ) sont de la forme
a

t 7→ λe−δt/a .

On en déduit que g est de la forme


t 7→ λ0 e−δt/a + µ.
Il ne reste plus qu’à multiplier par eαt . On a bien

S H = {t 7→ λeα1 t + µeα2 t | (λ, µ) ∈ R2 }.

98

Exemple : Résolvons l’équation y00 + iy0 − y = 0. L’équation caractéristique est X 2 + iX − 1 = 0. Le discriminant
vaut ∆ = 3 d’ou √ √
−i + 3 −i + 3
α1 = et α2 = .
2 2
Les solutions sont donc de la forme
√ √
t 7→ λeα1 t + µeα2 t = (λe 3t/2
+ µe− 3t/2
)e−it/2 .
Très souvent (en physique par exemple) on s’intéresse au cas où a, b et c sont des réels et on cherche les
solutions réelles de l’équation différentielle.

Théorème [Link] (Cas réel)

Avec les notations précédentes, suppose que a, b et c sont des réels. On note ∆ = b2 − 4ac le
discriminant de l’équation caractéristique. On a alors
— Si ∆ > 0 : on note α1 et α2 le deux racines réelles de l’équation caractéristique. On a

S H = {t 7→ λeα1 t + µeα2 t | (λ, µ) ∈ R2 }.

— Si ∆ = 0 : on note α la racine double réelle de l’équation caractéristique. On a

S H = {t 7→ (λt + µ)eαt | (λ, µ) ∈ R2 }.

— Si ∆ < 0 : on note α + iβ et α − iβ le deux racines complexes conjuguées de l’équation


caractéristique. On a

S H = {t 7→ eαt (λ cos( βt) + µ sin( βt)) | (λ, µ) ∈ R2 }.

Là encore l’ensemble des solutions est un R-espace vectoriel de dimension 2.

Démonstration :
— Les deux premiers cas sont les mêmes que dans C.
— Pour le troisième, on cherche d’abord les fonctions à valeurs complexes qui vérifient (H). Si on note α ± iβ
les deux racines conjuguées. Les solutions sont alors de la forme

t 7→ λe(α+iβ)t + µe(α−iβ)t où (λ, µ) ∈ C2 .

En particulier les fonctions


1  (α+iβ)t  1  (α+iβ)t 
t 7→ eαt cos( βt) = e + e(α−iβ)t et t 7→ eαt sin( βt) = e − e(α−iβ)t
2 2i
appartiennent à S H .
Réciproquement, une solution réelle est de la forme

t 7→ λe(α+iβ)t + µe(α−iβ)t où (λ, µ) ∈ C2 .

Or elle est réelle, elle est donc égale à sa partie réelle qui est

t 7→ eαt (Re(λ) cos( βt) − Im(λ) sin( βt) + Re(µ) cos( βt) + Im(µ) sin( βt)) .

C’est de la forme cherchée.


Exemples :
1. On considère l’équation y00 = 0. Son équation caractéristique est X 2 = 0. On voit que 0 est racine double.
Les solutions sont de la forme :
x 7→ λx + µ avec (λ, µ) ∈ R2 .
2. On considère l’équation y00 − y = 0. Son équation caractéristique est X 2 − 1 = 0. On voit que −1 et 1 sont
racines simples. Les solutions sont de la forme :

x 7→ λe x + µe− x avec (λ, µ) ∈ R2 .

99
3. On considère l’équation y00 − 2y0 + 2y = 0. Son équation caractéristique est X 2 − 2X + 2 = 0. On voit que
1 − i et 1 + i sont racines simples. Les solutions sont de la forme :

x 7→ e x (λ cos x + µ sin x ) avec (λ, µ) ∈ R2 .

4. Ce genre d’équations apparaissent en physique. Prenons par exemple un mobile attaché à un ressort.
On note f (t) la position relative du mobile par rapport au point d’équilibre (c’est-à-dire l’allongement
du ressort). On note k > 0 la constante de raideur du ressort et m la masse du mobile. On suppose que
l’on étire le ressort à la situation initiale (c’est-à-dire f (0) = 1) et que l’on le lâche sans vitesse initiale
(c’est-à-dire f 0 (0) = 0).
— La cas sans frottements : Dans ce cas, le principe fondamental de la dynamique (ou deuxième loi
de Newton) affirme que
m f 00 (t) = −k f (t).
Autrement dit, la fonction f vérifie l’équation différentielle :

k
y00 + y=0
m

k/m > 0. L’équation caractéristique est X 2 + k/m = 0. Ses racines sont ω = i k/m et ω =
où√
−i k/m. On en déduit qu’il existe des constantes λ et µ telles que pour tout t ∈ R,
√  √ 
f (t) = λ cos k/mt + µ sin k/mt .
√ 
En utilisant alors que f (0) = 1 et f 0 (0) = 0 on en déduit que f (t) = cos k/mt .
— La cas avec frottements : Dans ce cas, on suppose de plus que le mobile est soumis à une force de
frottement qui est inversement proportionnelle à la vitesse. Il existe une constante C > 0 telle que la
force soit −C f 0 (t). Dès lors, le principe fondamental de la dynamique (ou deuxième loi de Newton)
affirme que
m f 00 (t) = −C f 0 (t) − k f (t).
Autrement dit, la fonction f vérifie l’équation différentielle :

k
y00 + Cy0 + y = 0.
m

L’équation caractéristique est X 2 + CX + k/m = 0. Le discriminant est ∆ = C2 − 4α2 . On a donc


— Si ∆ > 0, (c’est-à-dire pour C > 2α) : L’équation a deux racines réelles distinctes. Notons les u et
v. La fonction f est de la forme : f : t 7→ λeut + µevt . On peut déterminer λ et µ en utilisant les
conditions initiales.
— Si ∆ < 0, (c’est-à-dire pour C < 2α) :
p p
Les racines complexes conjuguées sont ω = −C/2 + i (∆)/2 et ω = −C/2 − i (∆)/2.
On en déduit qu’il existe des constantes λ et µ telles que pour tout t ∈ R,
 q  q 
f (t) = e−Ct/2 λ cos (∆)t/2 + µ sin (∆)t/2 .

Exercice : Résoudre l’équation y00 + y0 + y = 0.

3.2 Équations avec second membre


On va maintenant résoudre l’équation

ay00 + by0 + cy = d (E)

où a, b et c sont des constantes complexes et d une fonction définie sur un intervalle I. On est, par le théorème de
structure ramené à chercher des solutions particulières. On sait trouver des solutions particulières dans certain
cas.

100
Théorème [Link]

Soit

ay00 + by0 + cy = Aeλx (E)

où A et λ sont des constantes complexes.


Il existe une solution particulière de (E) de la forme x 7→ Bx α eλx où
— α = 0 si λ n’est pas une racine de l’équation caractéristique,
— α = 1 si λ est une racine simple de l’équation caractéristique,
— α = 2 si λ est une racine double de l’équation caractéristique.

Remarque : le théorème précédent englobe les cas suivants

x 7→ c( x ) λ
Une constante 0
cos x i
e x cos x 1+i

Exemples :
1. On considère l’équation

y00 − 3y0 + 2y = e x (E)

L’équation caractéristique est X 2 − 3X + 2 = ( X − 1)( X − 2). On voit que 1 est racine. On peut chercher
une solution de la forme f : x 7→ axe x .
On trouve
S = { x 7→ (− x + λ)e x + µe2x | (λ, µ) ∈ R2 }.
En fait, il n’est pas nécessaire de mettre le b car il s’annule dans les calculs.
2. On considère l’équation

y00 − 4y0 + 3y = e x cos(2x ) (E)

On a e x cos(2x ) = Re(e(1+2i) x ). On regarde alors

y00 − 4y0 + 3y = e(1+2i) x (E’)

L’équation caractéristique est X 2 − 4X + 3 = ( X − 1)( X − 3). On a (1 + 2i ) n’est pas une racine de


l’équation caractéristique. On cherche une solution sous la forme x 7→ Be(1+2i) x . On trouve que B ∈ C
vérifie :
B((1 + 2i )2 − 4(1 + 2i ) + 3) = 1
D’où
1 1−i
B=− =− .
4(1 + i ) 8
On en déduit que (E’) admet pour solution particulière

1−i x
x 7→ − e (cos(2x ) + i sin(2x )).
8
En prenant la partie réelle, on obtient que :

1
x 7→ − (cos(2x ) − +2 sin(2x ))e x
8
est une solution particulière de (E).

1
S = { x 7→ − (cos(2x ) − +2 sin(2x ))e x + λe x + µe3x | (λ, µ) ∈ R2 }.
8
3. Résoudre y00 + y0 + y = cos2 x

101
3.3 Equation avec des conditions initiales
On se donne (E) une équation différentielle linéaire du second ordre à coefficients constants :

ay00 + by0 + cy = d(t)


où d est une fonction définie sur un intervalle I
On suppose que l’on connait une solution particulière f 0 .

Proposition [Link]

Soit t0 ∈ I et y0 , y00 dans K. Il existe une unique solution f de (E) qui vérifie que f (t0 ) = y0 et
f 0 (t0 ) = y00 .

Démonstration : Ce théorème est admis. Donnons quand même une idée de la preuve. On se place dans le cas
où K = C et où les deux racines de l’équations caractéristiques sont distinctes. Commençons déjà par justifier
qu’il existe une solution f 0 de l’équation ( E). Afin de simplifier les notations, on voit que quitter à diviser
par a qui n’est pas nul on peut supposer que a = 1. Ensuite, on note α et β les racines dans C de l’équation
caractéristique. On remarque alors que pour toute fonction y,
 0  
(y − αy)0 − β(y0 − αy) = y00 − (α + β)y0 + αβy = y00 + by0 + cy.

De ce fait, pour toute fonction y, on a

y vérifie ( E) ⇐⇒ z = y0 − αy vérifie z0 − βz = d(t).

Or on sait qu’il existe des solutions z0 de l’équation z0 − βz = d(t). De plus l’équation y0 − αy = z0 a elle aussi
des solutions. On en déduit qu’il existe bien (au moins une) fonction f 0 vérifiant ( E).
On peut alors dire que
SE = { f 0 + h | h ∈ S H }
où (H) est l’équation homogène associée. On en déduit qu’il suffit alors de montrer que pour tout t0 ∈ I et tout
z0 , z00 dans C, il existe une unique solution h de ( H ) vérifiant

h(t0 ) = z0 et h0 (t0 ) = z00 .

Le résultat voulut en découle en prenant z0 = y0 − f 0 (t0 ) et 0 = y00 − f 00 (t0 ).


Il suffit de montrer qu’il existe un unique couple (λ, µ) ∈ C2 tel que g : t 7→ λeαt + µe βt vérifie les conditions
initiales voulues. Cela signifie 
λeαt0 + µe βt0 = z0
λαeαt0 + µβe βt0 = z00

Or ce système a une unique solution car son déterminant ( β − α)e(α+ β)t0 6= 0.




102
Nombres entiers,
6
sommes et produits
1 Les ensembles N et Z 103
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
1.2 Division euclidienne dans N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
1.3 Principe de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2 Suites classiques 105
2.1 Suites arithmétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2.2 Suites géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2.3 Suites artithmético-géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2.4 Suites récurrentes linéaires d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3 Calculs de sommes et produits 108
3.1 Les signes ∑ et ∏ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.2 Sommes classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109

1 Les ensembles N et Z
1.1 Généralités
Définition [Link]

On appelle ensemble des entiers naturels (resp. relatifs) et on note N (resp. Z) l’ensemble :

N = {0, 1, 2, 3, . . .} (resp. Z = {0, 1, −1, 2, −2, . . .}).

On les considère avec les opérations usuelles + et ×.

103
Théorème [Link] (Admis)

L’ensemble N muni de son ordre naturel qui est total vérifie les propriétés suivantes :
1. Toute partie non vide de N admet un plus petit élément.
2. L’ensemble N n’est pas majoré.
3. Toute partie non vide majorée admet un plus grand élément.

Remarque : Toutes ces propriétés correspondent à l’intuition que l’on a sur les entiers naturels. De fait cela
permet de définir l’ensemble N car on peut prouver qu’il n’existe qu’un seul ensemble qui vérifie cela.

Corollaire [Link]

L’ensemble Z des entiers relatifs vérifie les propriétés suivantes :


1. L’ensemble Z n’est ni majoré ni minoré.
2. Toute partie non vide et minorée de Z admet un plus petit élément.
3. Toute partie non vide majorée de Z admet un plus grand élément.

Démonstration : Cela découle du théorème précédent. Démontrons par exemple que toute partie non vide et
minorée de Z admet un plus petit élément. Soit A une partie minorée de Z et m un minorant de A. On considère
à = {n − m | n ∈ A}.
Par construction c’est une partie non vide de N. Notons d son plus petit élément et posons a = m + d. On
voit d’abord que a est un minorant de A. En effet pour tout n de A,

n − m > d ⇔ n > d + m = a.

De plus a est un élément de A car d est un élément de Ã. On en déduit que a est le plus petit élément de A.
Le reste est identique. 
Remarques :
1. Une propriété essentielle des entiers est que si on considère un entier n naturel, il y a un entier (appelé
le successeur) qui est « juste après ». Pour cela il suffit de considérer l’ensemble A = {m ∈ N | m > n}.
Cet ensemble n’est pas vide car N n’est pas majoré. Il admet donc un plus petit élément. C’est n + 1. En
particulier, on a :
x > n ⇔ x > n + 1.
On a une propriété identique dans Z.
2. De même si on considère un entier naturel n non nul, il existe un entier (appelé prédécesseur) qui est
« juste avant » et de même dans Z sans l’hypothèse différent de 0.
Notation : Soit a et b deux entiers relatifs on note

[[ a ; b ]] = {n ∈ Z | a 6 n 6 b}.

1.2 Division euclidienne dans N


Commençons par un lemme

Lemme [Link] (Propriété d’Archimède)

Soit a et b deux entier naturels avec b 6= 0. Il existe n dans N tel que a < nb.

Démonstration : On considère l’ensemble A = {nb | n ∈ N}. On veut montrer que cet ensemble n’est pas
majoré par a. Supposons par l’absurde que A est majorée. Dans ce cas il admet un plus grand élément que l’on
peut noter Nb pour N ∈ N. Alors ( N + 1)b est dans A et ( N + 1)b > Nb ce qui contredit que Nb est le plus
grand élément de A.
On en déduit donc que A n’est pas majoré. De ce fait il existe n dans N tel que nb > a. 

104
Théorème [Link] (Division euclidienne)

Soit a et b deux entiers naturels avec b non nul. Il existe un unique couple (q, r ) dans N2 qui vérifie :

a = qb + r et 0 6 r < b.

Le nombre q est le quotient et r le reste de la division euclidienne de a par b.

Démonstration : On considère A = {nb | n ∈ N} ∩ [[ 0 ; a ]] . Cet ensemble n’est pas vide car il contient 0. De
plus il est majoré par a. On en déduit qu’il existe un plus grand élément. On le note qb. On pose aussi r = a − qb
de telle sorte que a = qb + r.
Maintenant, a majore A, de ce fait, qb 6 a d’où r > 0. D’autre part, (q + 1)b n’est pas dans A (car il est
strictement supérieur à qb). On en déduit que

(q + 1)b > a ⇔ a − qb < b.


Exemples :
1. La division de 17 par 5 est 17 = 3 × 5 + 2.
2. On voit que a est divisible par b si et seulement si r est nul.
Remarque : Voir le cours d’informatique pour l’implémentation de ce calcul.

1.3 Principe de récurrence


On a déjà revu le principe de récurrence. Voyons pourquoi cela découle de notre axiomatisation de N.

Théorème [Link] (Principe de récurrence)

Soit P(n) un prédicat défini sur N. Si :


1. P(0) est vraie.
2. ∀n ∈ N, ( P(n) ⇒ P(n + 1))
alors pour tout entier naturel n, P(n) est vraie.

Démonstration : On considère l’ensemble A = {n ∈ N | P(n) est fausse}. Supposons par l’absurde que cet
ensemble ne soit pas vide. Dans ce cas il admet un plus petit élément N qui ne peut pas être 0 car 0 ∈ / A. On a
alors que N − 1 ∈/ A et de ce fait P( N − 1) est vraie. D’après la deuxième hypothèses, P( N ) est alors aussi vraie
ce qui est absurde. On peut donc conclure que A est vide et c’est ce que l’on voulait. 

2 Suites classiques
2.1 Suites arithmétiques
Définition [Link]

Une suite (un ) à valeur complexe est une suite arithmétique s’il existe un complexe r tel que

∀n ∈ N, un+1 − un = r.

Le nombre r s’appelle la raison de la suite (un ).

Remarque : Pour montrer qu’une suite est une suite arithmétique, on pourra calculer un+1 − un .

105
Proposition [Link]

Soit (un ) une suite arithmétique de raison r. Soit n, p deux entier,

un = u p + (n − p)r.

En particulier si (un ) est définie en 0 on a

un = u0 + nr.

2.2 Suites géométriques


Définition [Link]

Une suite (un ) à valeur complexe est une suite géométrique s’il existe un complexe r tel que

∀n ∈ N, un+1 = run .

Le nombre r s’appelle la raison de la suite (un ).

u n +1
Remarque : Pour montrer qu’une suite est une suite géométrique, on pourra calculer après avoir montré
un
que la suite ne s’annule pas...

Proposition [Link]

Soit (un ) une suite géométrique de raison r. Soit n, p deux entier,

un = r n− p u p .

En particulier si (un ) est définie en 0 on a

u n = u0 r n .

2.3 Suites artithmético-géométriques


Définition [Link]

Une suite (un ) à valeur complexe est une suite arithmético-géométrique s’il existe des nombres complexes a et
b tels que
∀n ∈ N, un+1 = aun + b.

Remarque : Si a = 1 on retrouve une suite arithmétique. Si b = 0 on retrouve une suite géométrique.


F Méthode : Pour trouver le terme général d’une suite arithmético-géométrique (un ), où a 6= 1, on cherche un
« point fixe » qui est un nombre α qui vérifié α = aα + b. Par la suite, on montre que (un − α) est une suite
géométrique.
Exemple : Trouvons le terme général de la suite (un ) définie par

u0 = 7 et ∀n ∈ N, un+1 = −2un + 3.

106
2.4 Suites récurrentes linéaires d’ordre 2
Définition [Link]

Une suite (un ) à valeur complexe est une suite récurrente linéaire d’ordre 2 (homogène) s’il existe des nombres
complexes a, b et c tels que
∀n ∈ N, aun+2 + bun+1 + cun = 0.

Remarque : Si a = 0, la suite est alors arithmético-géométrique. Dans toute la suite on supposera donc a 6= 0.

Définition [Link]

Soit (un ) une suite récurrente linéaire d’ordre 2 vérifiant la relation

∀n ∈ N, aun+2 + bun+1 + cun = 0.

On appelle polynôme caractéristique le polynôme P = aX 2 + bX + c. C’est un polynôme de degré 2.

Nous allons déterminer la terme général de ces suites. L’idée est la même que pour les équations différen-
tielles d’ordre 2 à coefficients constants. On va d’abord chercher des suites géométriques qui vérifient la même
relation de récurrence.
Dans toute la suite on se fixe a, b et c trois complexes. On note P = aX 2 + bX + c et on note (F) la relation :
∀n ∈ N, aun+2 + bun+1 + cun = 0.

Proposition [Link]

Soit α ∈ C.
1. On a P(α) = 0 ⇐⇒ la suite (αn ) vérifie la relation (F).
2. Si α 6= 0. On a P(α) = P0 (α) = 0 ⇐⇒ les suites (αn ) et (nαn ) vérifient la relation (F).

Démonstration :
1. On a
la suite (αn ) vérifie la relation (F) ⇐⇒ ∀n ∈ N, aun+2 + bun+1 + cun = 0
⇐⇒ ∀n ∈ N, aαn+2 + bαn+1 + cαn = 0
⇐⇒ ∀n ∈ N, αn P(α) = 0
⇐⇒ P(α) = 0
Pour la dernière équivalence, le sens ⇒ s’obtient en prenant n = 0.
2. Il suffit de procéder par double implication. Le fait que α 6= 0 sert pour le sens ⇐.

On en déduit le théorème suivant
Théorème [Link] (Cas complexe)

On note ∆ le discriminant de l’équation aX 2 + bX + c = 0 où (b, c) 6= (0, 0).


1. Si ∆ 6= 0. On note α et β les deux racines. Alors ((αn ), ( βn )) vérifient (F) et pour toute suite
(un ) vérifiant cette relation est de la forme, il existe (λ, µ) ∈ C2 tels que

∀n ∈ N, un = λαn + µβn .

2. Si ∆ = 0. On note α la racine double qui est non nulle. Alors ((αn ), (nαn )) vérifient (F) et pour
toute suite (un ) vérifiant cette relation est de la forme, il existe (λ, µ) ∈ C2 tels que

∀n ∈ N, un = (λ + nµ)αn .

107
2
Exemple√: Si on considère√ la suite de Fibonnacci ( f n ). On trouve que les solutions de X − X − 1 = 0 sont
1+ 5 1− 5
ϕ= et ϕ0 = . Donc il existe λ et µ tels que ∀n ∈ N, f n = λϕn + µϕ0n . En résolvant le système
2 2
pour n = 0 et n = 1 on obtient
 √
  
 5
 λ =
λ+µ = 0 λ+µ = 0 5 √ .
⇐⇒ ⇐⇒
λϕ + µϕ0 = 1 µ( ϕ0 − ϕ) = 1 
 1 5
 µ = =−
( ϕ0 − ϕ) 5

Donc √ √ !n √ !n !
5 1+ 5 1− 5
∀n ∈ N, f n = − .
5 2 2

Démonstration : La démonstration se base sur le lemme suivant :

Lemme [Link]

Soit (un ) et (vn ) deux suites qui vérifient (F). Si u0 = v0 et u1 = v1 alors (un ) = (vn ).

Démonstration du lemme : Par récurrence double 


Revenons à la démonstration du théorème.
1. Il est aisé de vérifier que les suites de la forme (λαn + µβn ) vérifient (F) quand P(α) = P( β) = 0. Il suffit
donc de chercher des solutions au système

λ+µ = u0
λα + µβ = u1

Or ce système a toujours des solutions car α 6= β.


2. On procède pareil et on se ramène au système

λ = u0
( λ + µ ) α = u1

Ce dernier a des solutions car α 6= 0.




3 Calculs de sommes et produits


3.1 Les signes ∑ et ∏
Nous allons (re)voir les notations et certains calculs afférents aux sommes et produits. Le but n’est pas de
traiter la théorie des séries qui relève de la la fin de l’année.
On utilisera les signes ∑ et ∏ pour désigner des sommes et des produits :
n
n ( n + 1)
∑i = 1+2+···+n =
2
i =1
n
∏i = 1 × 2 × · · · × n = n!.
i =1

Remarque : Dans ces deux cas le i est une variable muette. On a


n n
∑i= ∑j
i =0 j =0

108
Définition [Link]

si ( ai )i∈ I est une famille de nombres indexée par un ensemble fini I on note ∑ ai la somme des nombres et
i∈ I
∏ ai leur produit. Dans le cas où I = [[ 1 ; n ]] on a donc
i∈ I

n n
∑ a i = a1 + a2 + · · · + a n et ∏ a i = a1 × a2 × · · · × a n .
i =1 i =1

Proposition [Link] (Linéarité des sommes)

Soit n un entier, ( ai )i∈ I , (bi )i∈ I deux familles indexées par un ensemble fini I et λ un nombre. On a

∑(ai + bi ) = ∑ ai + ∑ bi et ∑(λ × ai ) = λ × ∑ ai .
i∈ I i∈ I i∈ I i∈ I i∈ I

Proposition [Link] (Décalage d’indices)

Soit n un entier, ( ai )16i6n une famille indexée par [[ 1 ; n ]].

n n +1 n −1 n −1
∑ a i = ∑ a i −1 = ∑ a i +1 = ∑ a n − i .
i =1 i =2 i =0 i =0

Remarque : Il ne faut pas hésiter (au moins au brouillon) à revenir à l’écriture en extension avec des points de
suspensions pour vérifier ces formules.

Proposition [Link]

Soit I et J deux ensembles finis. Soit ( ai )i∈ I et (b j ) j∈ J deux familles de nombres complexes.
! !
∑ ai × ∑ bj = ∑ ai b j .
i∈ I j∈ J (i,j)∈ I × J

En particulier
!2
n n
∑ ai = ∑ ai a j = ∑ a2i + ∑ ai a j .
i =1 2 i =1 2
(i,j)∈[[ 1 ; n ]] (i,j)∈[[ 1 ; n ]]
i6= j

Exercice : Le démontrer par récurrence.

3.2 Sommes classiques


Somme des termes d’une suite arithmétique

Proposition [Link]

Soit (u) une suite arithmétique. Pour tous entiers a et b on a :

b
u a + ub
∑ u i = ( b − a + 1) × 2
.
i=a

109
Remarques :
1. Cette formule peut se retenir en disant que la somme vaut

(nombre de termes) × (terme moyen)

En faisant attention que le nombre de termes entre a et b est b − a + 1 et non b − a.


2. On retiendra en particulier le cas r = 1, u0 = 0 qui donne :
n
n ( n + 1)
∑i= 2
.
i =0

Démonstration : Par récurrence. 

Somme des termes d’une suite géométrique

Proposition [Link]

Soit (u) une suite géométrique de raison r. Pour tous entiers a et b on a :



b  1 − r b − a +1
u . si r 6= 1
∑ ui =  a
1−r
i=a ( b − a + 1) u a si r = 1.

Démonstration : Par récurrence 


Remarques :
1. Penser à séparer le cas où la raison est 1 quand on utilise cette formule.
2. Cette formule se retient sous la forme
n
1 − (raison)(nb de termes)
∑ ui = (premier terme) × 1 − (raison)
.
i=a

Formule du binôme et identité remarquables


Commençons par rappeler rapidement la définition des coefficients binomiaux.

Définition [Link]

Soit n et p deux entiers on note



   n!
n si p 6 n
= p!(n − p)!
p 
0 sinon.

Remarque : Nous reverrons plus loin la signification combinatoire de cette formule.

Proposition [Link] (Propriétés des coefficients binomiaux)

     
n n n n ( n + 1)
1. Pour tout entier n, = 1, = n et = .
0 1 2 2
2. Pour tout couple d’entiers (n, p),
     
n+1 n n
= + (Formule de Pascal).
p+1 p p+1

110
Démonstration

Remarque : On en déduit la construction du triangle de Pascal.

Proposition [Link] (Formule du binôme de Newton)

Soit ( a, b) ∈ C2 . On a   n
n k n−k
∀n ∈ N, ( a + b) = ∑ n
a b .
i =0
i

Démonstration

Remarque : Cette formule généralise les identité remarquables

( a + b)2 = .., ( a − b)2 = .., ( a + b)3 = ..

Corollaire [Link]

On a les égalités suivantes pour n ∈ N :


n   n  
n n
∑ i = 2n et ∑ (−1)i i
= 0.
i =0 i =0

Démonstration : On applique la formule du binôme avec a = b = 1 pour la première égalité puis avec a = −1
et b = 1 pour la seconde. 
On peut aussi généraliser l’identité remarquable a2 − b2 = ...

Proposition [Link]

Soit a et b deux nombres complexes et n un entier


n
a n +1 − b n +1 = ( a − b ) ∑ ak bn−k .
k =0

Démonstration

Somme téléscopique
Commençons par un exemple :
Exemple : si (un )n∈N est une suite alors
5
∑ ( u k +1 − u k ) = ( u 6 − u 5 ) + ( u 5 − u 4 ) + ( u 4 − u 3 ) + ( u 3 − u 2 ) + ( u 2 − u 1 ) = u 6 − u 1 .
k =1

Proposition [Link]

si (un )n∈N est une suite alors pour tout entier n,


n
∑ ( u k +1 − u k ) = u n +1 − u 0 .
k =0

111
Démonstration : Par les décalages d’indices. 
Exemple : On va calculer la somme des carrés (la somme des cubes se traite de manière identique). On remarque
que pour tout entier i,
(i + 1)3 − i3 = 3i2 + 3i + 1.
On en déduit que
n n n n
∑ (i + 1)3 − i3 = 3 ∑ i2 + 3 ∑ i+ ∑ 1.
i =0 i =0 i =0 i =0

Or cela se calcule par un télescopage. On en déduit :


n
n ( n + 1)
3 ∑ i 2 = ( n + 1)3 − 0 − 3 − ( n + 1).
i =0
2

D’où
n
n(n + 1)(2n + 1)
∑ i2 = 6
.
i =0

Exercice :
1. Rappeler la formule de Pascal pour les coefficients binomiaux.
n  
i
2. En déduire ∑ .
i= p
p

Produit téléscopique
De manière identique on a

Proposition [Link]

si (un )n∈N est une suite de nombres non nuls, alors pour tout entier n,
n
u k +1 u
∏ u k
= n +1 .
u0
k =0

Sommes des carrés et des cubes


On a vu précédemment comment calculer la somme des n premiers entiers. On va maintenant calculer la
somme des n premiers carrés puis des n premiers cubes.

Proposition [Link]

Pour tout entier n on a :


n n
n(n + 1)(2n + 1) n2 ( n + 1)2
∑ i2 = 6
et ∑ i3 = 4
.
i =0 i =0

Remarque : il est simple de se souvenir de la formule de la somme des cubes car on trouve le carré de la
somme des n premiers entiers.
Démonstration : Cela se démontre par récurrence. On peut les retrouver de proches en proche en utilisant le
calculs fait ci-dessus avec un télescopage. 

Terme général d’une suite de la forme un+1 = un + αn


On considère une suite définie par

u0 ∈ C et ∀n ∈ N, un+1 = un + αn

112
. Dans certains cas, si (αn ) n’est pas trop compliquée on peut retrouver le terme général. En effet, par télescopage :

n −1 n −1
∀ n ∈ N ? , u n − u0 = ∑ u k +1 − u k = ∑ α k .
k =0 k =0

Par exemple, si
u0 = 3 et ∀n ∈ N, un+1 = un + n + 2n
. On a
n −1
n ( n − 1 ) 1 − 2n n ( n − 1)
∀n ∈ N? , un − 3 = ∑ n + 2n = 2
+
1−2
=
2
+ 2n − 1.
k =0

On a donc
n ( n − 1)
+ 2n + 2.
∀n ∈ N, un =
2
On voit que la formule est encore vérifiée pour n = 0.

Sommes doubles
On peut travailler avec des sommes « sur des tableaux à deux dimensions ».

Proposition [Link] (Somme « carrées »)

Soit n, m deux entiers naturels non nuls. Soit ( aij ) une famille de nombres indexés par [[ 1 ; n ]] ×
[[ 1 ; m ]].
On a
n m m n
∑ aij = ∑ ∑ aij = ∑ ∑ aij .
(i,j)∈[[ 1 ; n ]]×[[ 1 ; m ]] i =1 j =1 j =1 i =1

Exemple : Calculons ∑ 2i + 3j.


(i,j)∈[[ 1 ; n ]]×[[ 1 ; m ]]

Proposition [Link] (Somme « triangulaires »)

Soit n un entier naturel non nul. Soit ( aij ) une famille de nombres indexés par [[ 1 ; n ]]2 .
On a
n m n j
∑ aij = ∑ ∑ aij = ∑ ∑ aij .
16 i 6 j 6 n i =1 j = i j =1 i =1

Exemple : Calculons ∑ 2i + 3j.


16 i 6 j 6 n

113
Systèmes linéaires
7
Dans tout ce chapitre nous désignerons par K les ensembles de nombres R et C. Notre but est de résoudre
des systèmes d’équations linéaires. Les solutions d’un système à p inconnue sera une partie de K p . C’est pour
cette raison que nous allons commencer par étudier (rapidement) l’ensemble K p ainsi que sa structure.

1 L’ensemble K p
1.1 Définitions
Définition [Link]

Soit p ∈ N? , on rappelle que K p est le produit cartésien K × · · · × K (p fois). C’est-à-dire que K p est
l’ensemble des p-uplets d’éléments de K. On appellera les éléments de K p des vecteurs.

Remarques :
1. On pourrait à la limite définir aussi K0 . La meilleure méthode consiste alors à le définir comme étant un
l’ensemble ne contenant que 0. Cependant, nous essayerons d’éviter de traiter ce cas.
2. Nous expliquerons plus tard en détails la terminologie vecteur. Mais nous pouvons déjà remarquer que,
via un système de coordonnées, l’ensemble des vecteurs du plan est en correspondance avec R2 et que
l’ensemble des vecteurs de l’espace est en correspondance avec R3 .
3. On peut penser au plan et à l’espace pour se représenter R2 et R3 . Malheureusement il n’y a plus de telles
"images" pour Rn avec n > 4. Cependant, on peut continuer à avoir une intuition "géométrique".
Exemples :
1. Le vecteur (1, −1, π ) est un vecteur de R3 mais aussi de C3 . Le vecteur (i, 0) est un vecteur de C2 .
2. Soit n un entier fixé et i ∈ [[ 1 ; n ]] on notera souvent ei le vecteur dont la i-ème coordonnée est 1 est les
autres 0. Par exemple pour n = 3 on a :

e1 = (1, 0, 0), e2 = (0, 1, 0) et e3 = (0, 0, 1).

3. On notera 0 (ou 0 ou 0K p ) le vecteur dont toutes les coordonnées sont nulles. Il s’appelle le vecteur nul.

1.2 Opérations sur K p


Que savons-nous faire sur des vecteurs du plan ou de l’espace ? On sait en faire la somme et on sait aussi
faire la multiplication par un réel. Ce sont ses deux opérations que nous allons généraliser à l’ensemble K p .

114
Remarquons que l’on sait aussi faire le produit scalaire de deux vecteurs mais dans ce cas nous n’obtenons pas
un vecteur : cette opération ne sera donc pas prise en compte.
• Somme :

Définition [Link]

Soit u et v deux vecteurs de K p . On note

u = ( x1 , . . . , x p ) et (y1 , . . . , y p ).

On appelle somme de u et de v et on note u + v le vecteur :

u + v = ( x1 + y1 , . . . , x p + y p ).

C’est la somme terme à terme.

Remarques :
1. Cela correspond à la somme de deux vecteurs du plan ou de l’espace.
2. On ne peut pas additionner des vecteurs de taille différente. Par exemple un vecteur du plan et un vecteur
de l’espace.
• Multiplication externe :

Définition [Link]

Soit u un vecteur de K p et λ un élément de K (un scalaire). On note

u = ( x1 , . . . , x p )

On appelle multiplication de u par λ et on note λ.u le vecteur :

λ.u = (λ.x1 , . . . , λ.x p );

C’est le produit terme à terme.

Remarques :
1. Cela correspond à la multiplication des vecteurs du plan ou de l’espace.
2. On ne multiplie pas un vecteur par un autre vecteur mais un vecteur par un scalaire.
• Propriétés :

Proposition [Link]

Les opérations vérifient les propriétés suivantes :


1. L’addition est associative : ∀(u, v, w) ∈ (K p )3 , (u + v) + w = u + (v + w).
2. L’addition est commutative : ∀(u, v) ∈ (K p )2 , u + v = v + u.
3. Distributivité à droite : ∀λ ∈ K, ∀(u, v) ∈ (K p )2 , λ.(u + v) = λ.u + λ.v.
4. Distributivité à gauche : ∀(λ, µ) ∈ K2 , ∀u ∈ (K p ), (λ + µ).u = λ.u + µ.u.
5. Compatibilité de la multiplication : ∀(λ, µ) ∈ K2 , ∀u ∈ (K p ), λ.(µ.u) = (λ × µ).u.
6. Propriétés du vecteur nul : ∀λ ∈ K, ∀u ∈ (K p ), λ.0K p = 0K p , 0.u = 0K p et u + 0K p = u.

Remarque : Les propriétés ci-dessus expriment le fait que K p est un espace vectoriel.

115
Définition [Link]

Soit (u1 , . . . , un ) ∈ (K p )n . Une combinaison linéaire des (u1 , . . . , un ) est un vecteur v ∈ K p qui peut s’écrire
n
v= ∑ λi .ui où les λi sont des scalaires. L’ensemble des combinaisons linéaires des vecteurs (u1 , . . . , un ) se
i =1
note Vect(u1 , . . . , un ). C’est une partie de K p .

Remarque : Soit (u1 , . . . , u p ) ∈ (K p ) p alors 0K p ∈ Vect(u1 , . . . , u p ).


Exemples :
1. Dans R. On considère u = 7. On a Vect(u) = R.
2. Dans R2 , on considère u = (1, 2). L’ensemble Vect(u) est l’ensemble des vecteurs de la forme (λ, 2λ).
C’est une droite.
3. Dans R2 on considère u = (1, 2) et v = (−1, 1). On veut alors montrer que Vect(u, v) = R2 . Il faut
montrer que tous les vecteurs de R2 sont des combinaisons linéaires de u et de v, c’est à dire que pour tout
couple w = ( x, y) ∈ R2 , il existe (λ, µ) ∈ R2 tels que
λ.u + µ.v = w.
Or λ.u + µ.v = (λ − µ, 2λ + µ). Il faut donc résoudre le système :

  x+y
 λ =
λ−µ = x 3
⇔ y − 2x
2λ + µ = y 
 µ =
3
4. Dans R3 , on considère u = (1, 2, −1). L’ensemble Vect(u) est l’ensemble des vecteurs de la forme
(λ, 2λ, −λ). C’est une droite.
5. Dans R3 on considère u = (1, 2, −1) et v = (−1, 1, 0). On veut alors déterminer Vect(u, v). Soit w =
( x, y, z) ∈ R3 , on cherche s’il existe (λ, µ, ) ∈ R tels que
λ.u + µ.v = w.
Or λ.u + µ.v = (λ − µ, 2λ + µ, −λ = z). Il faut donc résoudre le système :

 x+y
 
 λ =
 λ−µ = x 
 3
y − 2x
2λ + µ = y ⇔ µ =
 
 3
−λ = z 
 0 = z+ x+y

3
On trouve qu’un vecteur w = ( x, y, z) ∈ R3 est dans Vect(u, v) si et seulement si x + y + 3z = 0. C’est à
dire s’il est dans le plan d’équation x + y + 3z = 0.
6. Dans R3 , si u = (1, 2, −1), v = (−1, 1, 0) et w = (1, 0, 0) alors Vect(u, v, w) = R3 .

2 Systèmes linéaires
2.1 Définitions
Définition [Link]

On appelle système linéaire de n équations à p inconnues un système du type




 a11 x1 + · · · + a1p x p = b1 ( L1 )

 a21 x1 + · · · + a2p x p = b2 ( L2 )
(S) .. .. .


 . . = ..

an1 x1 + · · · + anp x p = bn ( Ln )

— Les aij pour (i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] s’appellent les coefficients du système.


— Les x j pour j ∈ [[ 1 ; p ]] s’appellent les inconnues du système.
— Les bi pour i ∈ [[ 1 ; n ]] forment le second membre du système.

116
Notations :
1. Les solutions du système (S) sont les vecteurs ( x1 , . . . , x p ) ∈ K p dont les coordonnées vérifient le système.
2. Si tous les termes du second membre sont nuls, le système est dit homogène.
3. Le système obtenu en conservant les coefficients mais en prenant un second membre nul s’appelle le
système homogène associé.
4. Les systèmes ayant autant de lignes que de colonnes s’appellent des systèmes carrés. C’est ceux que nous
étudierons le plus souvent.
Exemples :

2x + 3y = 2
1. Soit (S) le système
x − y = 7

 2x + 3y − z + t = 0
2. Soit (S) le système y + t = 0

x + t= 0
3. Soit (S) le système x1 − x2 + · · · + (−1)n+1 xn = 7.

2.2 Structure de l’ensemble des solutions


• Cas sans
 solution : Commençons par noter qu’un système peut ne pas avoir de solutions. Par exemple le
x − y = 2
système n’a pas de solutions.
x − y = 4
• Réduction au cas homogène : Si on suppose que le système a une solution, on peut se ramener à l’étude
du système linéaire associé. Si on considère le système


 a11 x1 + · · · + a1p x p = b1 ( L1 )

 a21 x1 + · · · + a2p x p = b2 ( L2 )
(S) .. .. .


 . . = ..

an1 x1 + · · · + anp x p = bn ( Ln )
Si on suppose disposer d’une solutions (α1 , . . . , α p ) ∈ K p . On peut alors se ramener au système homogène


 a11 ( x1 − α1 )+ · · · + a1p ( x p − α p ) = 0 ( L1 )

 a21 ( x1 − α1 )+ · · · + a2p ( x p − α p ) = 0 ( L2 )
(H) .. .. .


 . . = ..

an1 ( x1 − α1 )+ · · · + anp ( x p = α p ) = 0 ( Ln )

• Étude du cas homogène : On considère un système homogène ( H ). On peut remarquer qu’il a toujours
des solutions en particulier 0K p =(0,...,0) est une solution de ( H ). De plus, si u et v sont deux solutions de ( H )
alors toute combinaison linéaire de u et de v est encore une solution.

Théorème [Link] (Structure des solutions)

1. Soit ( H ) un système linéaire homogène.


— Le vecteur nul est solution.
— Toute combinaison linéaire de solutions est encore une solution.
— S’il y a une solution alors il y en a une infinité.
2. Soit (S) un système linéaire et ( H ) le système linéaire homogène associé.
— Le système peut ne pas avoir de solutions.
— Si (S) a une solution u0 ∈ K p alors

∀u ∈ K p , (u est solution de (S)) ⇔ ((u − u0 ) est solution de ( H )).

Définition [Link]

Un système n’ayant pas de solution est dit incompatible. Au contraire un système ayant des solution est dit
compatible. Un système carré n’ayant qu’une unique solution est dit de Cramer ou inversible.

117
Remarque : le fait d’être compatible ou non dépend en grande partie du second membre. En effet, un système
homogène est toujours compatible.
Exemples :
1. Les solutions d’un système homogène à trois inconnues est une partie de K3 stable par combinaisons
linéaires. Cela ne peut être que : l’ensemble réduit à 0, une droite passant par l’origine, un plan passant
par l’origine ou tout K3 .

 2x + 3y + z = 0
— Le système y − z = 0 est inversible. Son unique solution est (0, 0, 0).

y + z = 0

 2x − y − z = 0
— Le système y − z = 0 n’est pas inversible. Le vecteur u = (1, 1, 1) est une solu-

x − z = 0
tion. De fait ses solutions sont la droite Vect(u).

 x + y + z = 0
— Le système 2x + 2y + 2z = 0 n’est pas inversible. Les vecteurs u = (1, −1, 0) et v =

3x + 3y + 3z = 0
(1, 0, −1). sont des solutions. De fait ses solutions sont le plan Vect(u, v).
2. Si on considère des systèmes qui ne sont plus homogènes.

 2x + 3y + z = −2
— Le système y − z = 0 a pour solution le vecteur (−2, 1, 1). Comme le système

y + z = 1
homogène associé n’a que 0 comme solution c’est la seule.

 2x − y − z = 1
— Le système y − z = 1 a pour solution u = (1, 1, 0). On en déduit que l’ensemble

x − z = 1
des solutions est la droite affine

S = {(1, 1, 0) + λ.(1, 1, 1) | λ ∈ R} = {(1 + λ, 1 + λ, λ) ∈ R3 | λ ∈ R}.



 2x − y − z = 2
— Le système y − z = 1 est incompatible.

x − z = 1

2.3 Écriture matricielle des systèmes


Le plus long dans la résolution d’un système est de l’écrire. Nous adopterons une notation « matricielle » (le
terme sera justifié au chapitre suivant) pour alléger l’écriture. Pour le moment il faut voir cela comme une
simple notation. On se rend compte que lors de la résolution du système le noms des variables n’importe pas
on ne va donc noter
 que les coefficients.
 a11 x1 + · · · + a1p x p = b1 ( L1 )  

 a11 · · · a1p b1p
 a21 x1 + · · · + a2p x p = b2 ( L2 )
 ..  .
Le système .. .. .. sera noté  ... ..
. . 

 . . = .

 an1 · · · anp bnp
an1 x1 + · · · + anp x p = bn ( Ln )
De plus, quand nous considérerons un système homogène nous ne noterons pas le second membre car il n’y
a que des zéros.  
 2x − y − z = 0 2 −1 −1
Le système y − z = 0 sera noté  0 1 −1 .

x − z = 0 1 0 −1

2.4 Systèmes diagonaux, triangulaires et echelonnés


Nous allons voir certains cas particuliers de systèmes qui sont plus faciles à résoudre.
— Systèmes diagonaux : Soit n ∈ N? . Un système carré de n équations à n inconnues est dit diagonal si
tous ses coefficients hors de la diagonal sont nuls. C’est-à-dire :

∀(i, j) ∈ [[ 1 ; n ]]2 , i 6= j ⇒ aij = 0.

118
Il est donc de la forme  
a11 0 ··· 0 b1
 0 a22 0 b2 
 
 .. .. .. .. .
 . . . . 
0 ··· ··· ann bn
Ces systèmes sont particulièrement simples à résoudre. En effet, ils peuvent être vus comme n équations
distinctes. Exemples :
 
2 0 0 4
1. On considère le système  0 −1 0 3  . Sa solution est {(2, −3, 0)}.
0 0 1 0
 
2 0 0 2
2. On considère le système  0 0 0 3  . Il est incompatible.
0 0 1 −1
 
2 0 0 2
3. On considère le système  0 0 0 0  . Ses solutions sont {(1, y, −1) ∈ R3 | y ∈ R}.
0 0 1 −1

Proposition [Link]
 
a11 0 ··· 0 b1
 0 a22 0 b2 
 
Soit (S) un système diagonal  .. .. .. .. .
 . . . . 
0 ··· ··· ann bn
1. Si tous les aii sont non nuls, le système est inversible et son unique solution est
 
b1 bn
,..., .
a11 ann

2. S’il existe un i tel que aii = 0, le système n’est pas inversible. On note I l’ensemble des i tel que
aii = 0 et J son complémentaire.
— si pour tous les i dans I on a bi = 0 le système a une infinité de donnée. Le système
homogène ayant pour solution Vect((ei )i∈ I ).
— s’il existe un i de I tel que bi 6= 0 le système est incompatible.

— Systèmes triangulaires : Soit n ∈ N? . Un système carré de n équations à n inconnues est dit triangulaire
supérieur (resp. inférieur) si tous ses coefficients sous la diagonale (resp. sur la diagonale) sont nuls.
C’est-à-dire :
∀(i, j) ∈ [[ 1 ; n ]]2 , i > j ⇒ aij = 0 (resp. ∀(i, j) ∈ [[ 1 ; n ]]2 , i > j ⇒ aij = 0).
Il est donc de la forme
    
a11 a12 ··· a1n b1 a11 0 ··· 0 b1
 0 a22 a2n b2    a21 a22 0 b2 
    
 .. .. .. ..  resp.  .. .. .. ..  .
 . . . .    . . . . 
0 ··· ··· ann bn an1 · · · · · · ann bn

La résolution d’un système triangulaire supérieur se fait « en remontant ».


Exemples :
 
2 1 3 5
1. On considère le système  0 −1 1 3  . Si on note ( x, y, z) une solution, on voit que z = 0.
0 0 1 0
On en déduit alors que y = −3 puis en remplaçant y par sa valeur que x = 4. La solution est donc
(4, −3, 0).
 
2 1 2 2
2. On considère le système  0 0 4 3  . Là encore on peut tenter une remontée. On a z = −1
0 0 1 −1
mais ensuite ou est bloqué... Le système est incompatible.

119
 
2 1 2 2
3. On considère le système  0 0 4 −4  . La remontée, nous donne z = −1, y quelconque et
0 0 1 −1
x = 2 − y/2. L’ensemble des solution est alors : {(2 − y, 2y, −1) | y ∈ R}.
Les système triangulaires inférieurs se résolvent de la même manière mais en descendant. Cependant
nous n’en rencontrerons peu.

Proposition [Link]
 
a11 a12 ··· a1n b1
 0 a22 a2n b2 
 
Soit (S) un système triangulaire supérieur,  .. .. .. .. .
 . . . . 
0· · · · · · ann bn
1. Si tous les coefficients diagonaux sont non nuls, le système est inversible.
2. S’il y a au moins un coefficient nul, le système est soit incompatible, soit il a une infinité de
solutions.

Remarques :
1. On a les même propriétés pour les systèmes triangulaires inférieurs.
2. On comprend bien, d’où arrive cette proposition. On commence par le bas et on remonte. Si on veut
être précis, cela se démontre par récurrence sur la taille n du système.
— Systèmes échelonnés : les systèmes échelonnés sont un peu plus généraux. Ils sont très importants car
nous allons voir par la suite que l’on peut toujours se ramener à un système échelonné. On peut voir un
système triangulaire supérieur comme un système on l’on ajoute à chaque ligne un zéro en plus à gauche.
Un système échelonné sera un système on on ajoutera au moins un zéro à chaque ligne.

Définition [Link]

Soit (S) un système de n équations à p inconnues on pose

d: [[ 1 ; n ]] → ( N
n+1 si ∀ j ∈ [[ 1 ; p ]] aij = 0
i 7→ Min{ j | aij 6= 0} sinon

L’application d associe à un nombre i la colonne la plus à gauche qui contient un coefficient non nul à la
ligne i.
 
2 1 3 5
Exemple : On considère le système  0 −1 1 3  . On a d(1) = 0, d(2) = 2 et d(3) = 1.
−1 0 1 0

Définition [Link]

Soit (S) un système de n équations à p inconnues. On dit que le système est échelonné si l’application d est
strictement croissante.

Remarque : contrairement aux systèmes diagonaux et triangulaires, les systèmes échelonnés ne sont pas
obligatoirement carrés (mais ils peuvent l’être).
Exemples :
 
2 1 3 5 3
 
1. Le système  0 -1 1 0 3  est échelonné.
0 0 1 0 0

120
 
2 1 3 5 3
 
2. Le système  0 0 1 0 3  est échelonné.
0 0 0 1 1
 
2 1 3 5 3
 
 0 -1 1 0 3 
 
3. Le système  0 0 0 1 1  est échelonné.
 
 0 0 0 0 0 
0 0 0 0 5
Notations :
1. Soit i ∈ [[ 1 ; n ]], si d(i ) < n + 1, l’équation de la ligne i s’appelle une équation principale. Le coefficient
non nul le plus à gauche aid(i) s’appelle le pivot de la ligne i.
2. Soit i ∈ [[ 1 ; n ]], si d(i ) = n + 1, l’équation de la ligne i s’appelle une équation de compatibilités. Elle
est de la forme 0 = bi .
3. Les inconnues dont la colonne contient un pivot s’appellent les inconnues principales.
4. Les inconnues dont la colonne ne contient pas de pivot s’appellent les inconnues auxiliaires ou
variables libres.

Proposition [Link]

Soit (S) un système échelonné.


1. Si les équations de compatibilités sont vérifiées, le système a des solutions.
2. Dans ce cas, le système a une unique solution, si et seulement s’il n’y a pas d’inconnues
auxiliaires.

Démonstration : Comme précédemment, la démonstration rigoureuse doit être faite par récurrence sur p.
Nous nous contenterons de donner les grandes lignes de la méthode de résolution.
— On regarde les équations de compatibilités. Si dans ces équations le second membre est nul, on a
0 = 0 et on peut l’ôter. Si le second membre n’est pas nul, le système est incompatibles.
— On suppose donc que les éventuelles équations de compatibilités sont vérifiées. On procède alors à
une remontée. On passe les inconnues auxiliaires dans le second membre.
— On est ramené à un système triangulaire supérieur.
 
1 −1 1 −1 2
 
Exemple : On veut résoudre le système  0 1 −1 −1 1 . On peut noter x, y, z, t les inconnues.
0 0 0 -1 4
On voit que z est une inconnue auxiliaire. On la passe dans le second membre et on obtient le système

 x − y − t = 2−z
y − t = 1+z

− t = 4

Ses solutions sont alors de la forme {(−5, −3 + z, z, −4) | z ∈ R} = {(−5, −3, 0, −4) + z(0, 1, 1, 0) | z ∈ R}.
Exercice : Résoudre les systèmes suivants
 
  2 1 −2 3 1  
2 1 −2 3 1   2 1 −2 3 1
 0  0 7 4 −5 5   
7 4 −5 5     0 7 4 −5 5  .
 0 0 2 1 3 
0 0 0 0 −8 0 0 2 1 3
0 0 0 1 1

3 Méthode du pivot de Gauss


La méthode du pivot de Gauss, consiste à associer de manière systématique et algorithmique à un système
(S) un système (S0 ) échelonné qui a les mêmes solutions que (S). Pour cela nous allons faire des opérations sur
les lignes du système.

121
3.1 Systèmes équivalents et opérations
Définition [Link]

Soit (S) et (S0 ) deux systèmes. On dit que (S) et (S0 ) sont équivalents et on note (S) ∼ (S0 ) s’ils ont les
mêmes solutions.

Proposition [Link] (Opérations sur les lignes)

Soit (S) un système de n équations à p inconnues. On note L1 , . . . Ln les n lignes/équations. Les


opérations suivantes conduisent à un système (S0 ) équivalent à (S)
1. Echanger deux lignes. Cela se note ( Li ↔ L j ) pour (i, j) ∈ [[ 1 ; n ]]2 .
2. Multiplier une ligne par un réel non nul. Cela se note ( Li ← λLi ) pour i ∈ [[ 1 ; n ]] et λ ∈
K \ {0}.
3. Ajouter une ligne à une autre. Cela se note ( Li ← Li + L j ) pour (i, j) ∈ [[ 1 ; n ]]2 .

Démonstration : Les deux premiers points sont évidents. Le troisième découle du fait que si on considère deux
nombres A et B alors
( A = 0 et B = 0) ⇔ ( A = 0 et A + B = 0).


Corollaire [Link]

Avec les mêmes notations, on obtient un système équivalent en remplaçant une ligne Li par une
combinaison linéaires des lignes ( Li ← λ1 L1 + · · · + λn Ln ) a condition que le coefficient λi soit non
nul.

Démonstration : il suffit d’appliquer les points 2 et 3 de la proposition précédente. 


Exemple : L’opération ( L2 ← 2L1 − L2 + 7L3) est obtenu ...
Remarque : il est TOUJOURS nécessaire de vérifier que le coefficient de la ligne que l’on remplace est non nul.
Dans les exercices, il y aura souvent des paramètres et il faudra distinguer des cas.

3.2 Méthode du pivot de Gauss


Théorème [Link] (Pivot de Gauss)

Tout système est équivalent à un système échelonné.

Nous allons d’abord le faire sur deux exemples avant de passer au cas général.
Exemples :
 
1 2 −1 3
1. On considère le système (S)  2 1 −1 2 . Le coefficient en haut à gauche est pris comme pivot.
3 0 1 0
On remplace alors les lignes L2 et L3 par des combinaisons linéaires Li ← Li + λi L1 afin de ne mettre que
des zéros dans le première colonne (sous le pivot).
 
1 2 −1 3
(S) ∼  0 -3 1 −4  .
0 −6 4 −9

122
On recommence en descendant d’une ligne. On fait ( L3 ← L3 − 2L2 ). On obtient
 
1 2 −1 3
 
(S) ∼  0 -3 1 −4  .
0 0 2 1

On voit alors que le système obtenu est échelonné (il est même triangulaire). Ses coefficients diagonaux
sont non nuls (il y a autant de pivots que de lignes/colonnes) il est donc inversible. Son unique solution
est (1/2, 3/2, 1/2)
 
1 2 −1 1 1
2. On considère le système (S)  2 4 1 0 2 . On fait les opérations ( L2 ← L2 − 2L1 ) et ( L3 ←
−1 −1 1 0 2
L3 + L1) et on obtient  
1 2 −1 1 1
( S ) ∼  0 0 3 −2 1  .
0 1 0 1 3
On ne peut pas faire comme précédemment car le coefficient a22 est nul. On inverse donc les lignes
( L2 ↔ L3 ) et on continue  
1 2 −1 1 1
 
(S) ∼  0 1 0 1 3 .
0 0 3 −2 1
Le système est échelonné.
 
1 2 −1 1 1
3. On considère le système (S)  2 4 1 0 2 . On fait les opérations ( L2 ← L2 − 2L1 ) et ( L3 ←
−1 −2 2 0 2
L3 + L1) et on obtient
 
1 2 −1 1 1
(S) ∼  0 0 3 −2 1  .
0 0 1 1 3
Là aucun coefficient de la deuxième colonne (sans compter le première ligne) n’est non nul donc, on se
décale et on passe à la troisième colonne. On peut faire l’opération ( L3 ← L3 − 13 L2 ). Afin d’éviter les
rationnels on va faire ( L3 ← 3L3 − L2). On obtient
 
1 2 −1 1 1
 
( S ) ∼  0 0 3 −2 1  .
0 0 0 5 8

Le système est échelonné.


Démonstration : On considère un système à n équations et p inconnues. Les coefficients sont notés aij pour
(i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] . On regarde le coefficient en haut à gauche, c’est à dire a11 . Il se présente plusieurs cas
— Si a11 6= 0. C’est notre pivot on va alors « mettre » des zéros sous ligne dans la colonne. Pour cela on fait
les opérations ( Li ← a11 Li − ai1 L1 ). Cela donne un système équivalent car a11 6= 0.
— Si a11 = 0 on va chercher un pivot dans la première colonne.
— Si tous les coefficients de la première colonne sont nuls (∀i ∈ [[ 1 ; n ]] ai1 = 0), on se décale et on
passe à la colonne suivante.
— S’il y a un coefficient non nul dans le première colonne (∃i ∈ [[ 1 ; n ]] ai1 6= 0), on le prend et on
échange les lignes 1 et i : ( L1 ↔ Li ). On peut alors procéder comme ci-dessus avec a11 6= 0
À la fin de cette première étape, si la première colonne ne comportait que des zéros, on passe à la deuxième
colonne et on recommence en partant avec a12 . Si on a trouvé un pivot, on a mis des zéros en dessous. On peut
alors continuer en « ôtant » la première ligne et la première colonne. On considère donc a22 . 
Remarques :
1. Là encore, la méthode rigoureuse consiste à faire une récurrence sur le nombre p d’inconnues.
2. On peut remarquer que la résolution ci-dessus, ne dépend que des coefficients du système et pas du
second membre.

123
Proposition-Définition [Link]

Le nombre de pivots dans le système échelonné obtenu ne dépend ni du second membre, ni de la


résolution. On l’appelle le rang du système. Il se note rg (S).

Remarque : le nombre d’inconnues est égal au rang plus le nombre d’inconnue auxiliaires. De même, le nombre
de lignes, est égal au rang plus le nombre d’équations de compatibilitées.

Proposition [Link]

Si (S) est un système carré de taille n. Les propositions suivantes sont équivalentes
1. Le système est inversible
2. Le rang de (S) est n
3. Il n’y a pas d’inconnues auxiliaires
4. Il n’y a pas d’inconnues de compatibilités.
5. À chaque étape on trouve un pivot.

3.3 Retour sur le résolution des systèmes échelonnés


Les opérations sur les lignes permettent de résoudre entièrement les système échelonnés en gardant la
présentation matricielle. Pour cela on « remonte » le système en utilisant les pivots trouvés pour mettre des
zéros « au-dessus » des pivots. On ne touche pas aux colonnes sans pivots (inconnues auxiliaires).
Exemples :
1. Résolution de  
1 4 −2 3 2
 2 3 0 5 α 

(S) ∼  .
0 1 0 1 1 
−1 0 1 0 0

2. Résolution de  
1+m 0 −1
(S) ∼  0 m 0 .
−1 0 1+m

124
Ensemble des
8
nombres réels
1 Le corps des nombres réels 125
1.1 Introduction et définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1.2 Borne inférieure et borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2 Propriétés des réels 127
2.1 Inégalités et valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.2 Droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.3 Intervalles de R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.4 Partie entière et nombres décimaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.5 Densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

1 Le corps des nombres réels


1.1 Introduction et définition
Revenons rapidement sur la construction historique des nombres. Au début on a construit l’ensemble N des
entiers naturels. Par la suite, on a voulu disposer de nombres nombres négatifs on a donc construit l’ensemble
Z des entiers relatifs. Cependant dans Z on ne pouvait pas faire de division. On a donc introduit la notion de
nombres rationnels. Leur ensemble est Q. √
Là c’est un peu plus compliqué. On s’est rendu compte qu’il manquait encore des nombres (par exemple 2
qui est un nombre qui apparait naturellement comme la longueur de la diagonale d’un carré de coté 1). Il fallait
trouver un moyen de caractériser l’ensemble de tous les nombres réels (que nous noterons R) par rapport à
l’ensemble Q. Il y a plusieurs constructions. Nous utiliserons celle de la borne supérieure.

1.2 Borne inférieure et borne supérieure


On considère un ensemble E muni d’un ordre total.
On a vu que les plus grands et plus petits éléments sont plus utiles que les simples majorants et minorants -
en particulier du fait de leur unicité. Cependant on a aussi vu qu’il n’y en avait pas toujours. On voudrait trouver
une définition qui remplace le plus grand élément (resp. le plus petit élément) et qui, pour ]0, 1[ donnerait
1 (resp. 0). En effet dans le cas ci-dessus cela est simple de voir que c’est 0 et 1 qui vont nous servir mais si
2
l’ensemble est donné sous la forme A = {y ∈ R|∃ x ∈ R, y = e− x } cela semble plus complexe.
Commençons sur un exemple. On considère A = [0, 1]. L’ensemble de tous les majorants de A est [1, +∞[.
Cet ensemble a un plus petit élément qui est 1. Maintenant si on part avec A = [0, 1[. L’ensemble de tous les
majorants de A est encore [1, +∞[ et son plus petit élément qui est encore 1.

125
Définition [Link]

Soit A une partie non vide de R.


— On appelle borne supérieure, et on note sup A, (s’il existe) le plus petit des majorants. C’est-à-dire le
plus petit élément de l’ensemble des majorants.
— On appelle borne inférieur, et on note inf A, (s’il existe) le plus grand des minorants. C’est-à-dire le plus
grand élément de l’ensemble des minorants.

Remarque : Les bornes supérieures et inférieures étant définies comme étant des plus grands/petits éléments
d’un ensemble ils sont uniques s’ils existent.
Commençons par remarquer qu’il existe dans Q des ensembles majorés qui n’ont pas de borne supérieure.
En effet si on pose X = { x ∈ Q+ | x2 < 2}. Cet ensemble est clairement majoré par 2 par exemple. Supposons
qu’il admette une borne supérieure (dans Q) que nous noterons α.
— Commençons par montrer que α2 > 2. En effet, par l’absurde, si α2 < 2 on peut trouver un entier
n tel que (α + 1/n)2 < 2. En effet (α + 1/n)2 = α + 2α/n + 1/n2 . Il suffit donc de prendre n tel que
(2α/n + 1/n2 ) < 2 − α2 .
— Comme on sait de plus que α2 6= 2 car α ∈ Q, alors α2 > 2. Maintenant un raisonnement similaire au
précédent montre alors que l’on peut trouver n tel que (α − 1/n) soit encore un majorant ce qui contredit
la définition de la borne supérieure.

Définition [Link]

L’ensemble de nombres réels est le seul corps commutatif contenant Q totalement ordonné dont toute partie
majorée admet une borne supérieure.

Remarques :
1. On dit qu’il vérifie la propriété de la borne supérieure (contrairement à Q).
2. Nous verrons plus loin la définition d’un corps. En gros il s’agit d’un ensemble muni de deux opérations :
une addition (+) et un produit (x), qui vérifie les règles classiques de calculs : commutativité, associativité,
distributivé et dont tout élément x a un opposé (noté − x) et, s’il est non nul, un inverse noté 1/x.
3. On demande que la relation d’ordre soit totale et compatible avec les opérations à savoir que pour tout
x, y et z dans R3 ,
x 6 y ⇒ x + z 6 y + z et ( x 6 y et z > 0) ⇒ xz 6 yz.
4. L’ensemble Q est un sous-ensemble de R. Les éléments de R \ Q s’appellent les nombres irrationnels.

Proposition [Link]

Tout partie non vide minorée de R admet une borne inférieure.

Démonstration : Soit X une partie non vide de R. On considère X 0 = { x ∈ R | − x ∈ X }. La partie X 0 est


majorée et non vide. Elle admet donc une borne supérieure que nous notons m. Alors −m est une borne inférieur
de X. 

Proposition [Link] (Caractérisation de la borne supérieure)

Soit A une partie non vide de R et m ∈ R on a :



∀ x ∈ A, x 6 m
sup A = m ⇔
∀ε > 0, ∃ x ∈ A, x > m − ε.

Démonstration :

126
— ⇒ Si m est la borne supérieure alors c’est un majorant A donc ∀ x ∈ A, x 6 m. De plus, pour tout ε > 0,
le nombre m − ε est strictement inférieur à m ce n’est donc pas un majorant de A (car m est le plus petit
des majorants de A). On en déduit qu’il existe x dans A tel que x > m − ε.
— ⇐ La première partie dit que m est un majorant de A. Supposons par l’absurde que ce ne soit pas le plus
petit. Il existe alors m0 un majorant de A strictement inférieur à m. On note ε = m − m0 > 0. D’après la
deuxième assertion il existe x dans A tel que x > m − ε = m0 ce qui contredit que m0 soit un majorant de
A.

Remarque : la double expression de droite signifie que m est un majorant et que tout nombre plus petit n’en
n’est plus un. C’est donc
 le plus petit des majorants.

n 1 ?
Exercice : Soit A = (−1) + | n ∈ N . Déterminer les éventuels plus grand élément, plus petit élément,
n
borne supérieur, borne inférieure.
On a aussi :

Proposition [Link] (Caractérisation de la borne inférieure)

Soit A une partie non vide de R et m ∈ R on a :



∀ x ∈ A, m 6 x
inf A = m ⇔
∀ε > 0, ∃ x ∈ A, x < m + ε.

2 Propriétés des réels


2.1 Inégalités et valeur absolue
Revoir le chapitre 2

2.2 Droite numérique achevée


Définition [Link]

On appelle droite numérique achevée et on note R̄ l’ensemble :

R̄ = R ∪ {±∞}.

Proposition [Link]

On peut prolonger l’ordre usuel sur R en un ordre total sur R̄ en posant :

∀ x ∈ R, x 6 +∞, ∀ x ∈ R, −∞ 6 x et − ∞ 6 +∞.

On obtient ainsi une relation d’ordre sur R̄.

Proposition [Link]

Soit X une partie de R.


— Si elle n’est pas majorée dans R, on note sup X = +∞.
— Si elle n’est pas minorée dans R, on note inf X = −∞.

Remarque : cela correspond bien aux bornes supérieures et inférieures dans (R̄, 6).

127
Notation : De même si I est un intervalle de R on note I l’ensemble obtenu en ajoutant les bornes. Par exemple

[0, 1[ = [0, 1] et ] − ∞, 0] = {−∞}∪] − ∞, 0].

Remarques :
1. On évitera de noter [−∞, 0].
2. Cette notation a un sens plus précis en mathématiques (adhérence) que vous verrez l’année prochaine.

2.3 Intervalles de R
Proposition [Link]

Les intervalles de R sont les parties convexes de R, c’est-à-dire les parties I qui vérifient :

∀ x ∈ I, ∀y ∈ I, [ x, y] ⊂ I.

Démonstration : Pour commencer, les intervalles sont des parties convexes.


Réciproquement, si I est une partie convexe de R montrons que c’est un intervalle. Si I est l’ensemble vide
c’est bon. Supposons maintenant que I est non vide.
— Supposons que I n’est ni majoré, ni minoré et montrons alors que I = R. Soit x un élément quelconque de
R. Il existe a dans I qui est inférieur à x (car I n’est pas minoré par x). De même il existe b dans I qui est
supérieur à x (car I n’est pas majoré par x). Dès lors

x ∈ [ a, b] ⊂ I

donc x ∈ I. On en déduit que I = R.


— Supposons que I n’est pas majoré mais qu’il est minoré. Notons a = inf I.
— Si a est un élément de I, on va montrer que I = [ a, +∞[. Il est évident que I ⊂ [ a, +∞[. Reciproque-
ment, pour tout réel x supérieur à a, il existe b dans I tel que x 6 b (car sinon x serait un majorant) et
donc x ∈ [ a, b] ⊂ I. D’où x ∈ I. On en déduit donc que I = [ a, +∞[.
— Si a n’est pas un élément de I. On va montrer que I =] a, +∞[. Là encore l’inclusion I ⊂] a, +∞[
est évidente. Réciproquement si x est un élément de ] a, +∞[ on peut trouver α et β dans I tels que
a < α < x < β. On en déduit que x ∈ I.
Les autres cas se traitent de manière identique. 

2.4 Partie entière et nombres décimaux


Proposition [Link]

Le corps des nombres réels est archimédien, c’est-à-dire :

∀ x ∈ R?+ , ∀y ∈ R, ∃n ∈ N, nx > y.

Démonstration : Supposons par l’absurde qu’il existe x dans R?+ et y dans R tel que ∀n ∈ N, nx < y. Cela
signifie que
A = {nx | n ∈ N}
set majoré. De ce fait il admet une borne supérieure α. Comme α est la borne supérieure de A, α − x n’est pas un
majorant de A. Il existe donc N dans N tel que

Nx > α − x ⇔ ( N + 1) x > α.

Ceci est absurde car α est un majorant de A. 


Remarque : On a utilisé la propriété de la borne supérieure pour démontrer cette propriété mais ce n’est pas
une condition nécessaire puisque Q est aussi archimédien.

128
Corollaire [Link]

Soit x un réel strictement supérieur à 1 et y un réel, il existe un entier naturel n tel que x n > y.

Démonstration : Il suffit de remarquer que x n = (1 + ( x − 1))n > 1 + n( x − 1) > n( x − 1). Il ne reste plus qu’à
utiliser que R est archimédien. 

Définition [Link]

Soit x un nombre réel. Il existe un unique entier p tel que

p 6 x < p + 1.

On appelle cet entier la partie entière de x et on le note b x c.

Remarque : On peut généraliser cette propriété en « faisant des pas de longueur a ». C’est-à-dire que pour pour
tout réel strictement positif a et tout réel x, il existe un unique entier p tel que pa 6 x < ( p + 1) a.
Démonstration : On considère l’ensemble A = {n ∈ Z | n 6 x }. Le fait que R soit archimédien permet
d’affirmer que A est non vide. En effet il existe n tel que − x 6 n et donc −n 6 x. De plus, A est aussi majorée
(toujours çar R est archimédien). La partie A admet donc un plus grand élément que nous noterons p. Il vérifie
p 6 x. De plus, p + 1 n’appartient pas à A donc x < p + 1.

Remarques :
1. On définit ainsi une application de R dans R (ou dans Z car son image est égale à Z). Son graphe est

-5 0 5

2. Soit x un réel, le nombre x − b x c s’appelle la partie décimale (ou fractionnaire) de x.

Définition [Link]

On appelle ensemble des nombres décimaux et on note D l’ensemble


[
D= 10−n Z.
n∈N

p
C’est l’ensemble des nombres qui s’écrivent avec p un entier relatif et n un entier naturel.
10n

Remarques :
1. C’est la définition classique des nombres décimaux qui s’écrivent avec un nombre de chiffres fini après la
virgule dans l’écriture décimale.
2. Par construction, D ⊂ Q.

129
Définition [Link]

Soit x un nombre réel.


1. Pour tout entier naturel, on appelle approximation décimale de x à 10−n près par défaut le nombre
b10n x c
.
10n
2. Pour tout entier naturel, on appelle approximation décimale de x à 10−n près par défaut le nombre
b10n x c + 1
.
10n

Remarque : Les approximations décimales d’un réel x sont des nombres décimaux par construction. De plus,

b10n x c b10n x c
b10n x c 6 10n x < b10n x c + 1 ⇒ n
6x< + 10−n .
10 10n
b10n x c
Si on note αn = . On a donc
10n
| x − αn | 6 10−n et αn 6 x.
b10n x c + 1
De la même manière, si on note β n = on obtient
10n
| x − β n | 6 10−n et β n > x.

2.5 Densité
Définition [Link]

Soit A une partie R. On dit que A est dense si pour tout couple de réels x, y tels que x < y, A∩] x, y[6= ∅.

Proposition [Link]

Les ensembles D, Q et R \ Q sont denses dans R.

1
Démonstration : Soit n tel que 10n > . On a alors 10−n 6 y − x. De ce fait l’approximation décimale par
y−x
défaut de y à 10−n près appartient à ] x, y[√
. De plus c’est
√ un nombre décimal donc rationnel.
Si on applique ce raisonnement à x + 2 et y + 2 on trouve un rationnel r tel que
√ √ √
x + 2 < r < y − 2 ⇒ x < r − 2 < y.

Or r étant rationnel, r − 2 est irrationnel. 

Proposition [Link]

Tout réel est limite d’une suite de nombres rationnels.

Démonstration : Il suffit de prendre la suite des approximation de x par défaut à 10−n près. 

130
Suites numériques
9
1 Généralités sur les suites réelles 131
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1.2 Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
2 Convergence 134
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
2.2 Convergence et suite extraite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
2.3 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2.4 Construction de suite à limite donnée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
2.5 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
2.6 Convergence monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2.7 Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3 Relations de comparaison 143
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
3.3 Croissances comparées et équivalents classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4 Extension au cas des suites complexes 146
4.1 Définition et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.3 Popriétés des suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.4 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

1 Généralités sur les suites réelles


1.1 Définitions
Définition [Link]

Une suite réelle est une application de N dans R. On note alors pour tout entier n, un l’image de n par
l’application et non pas u(n) comme d’habitude. La suite elle même sera notée un∈N .

Remarques :
1. On peut en théorie faire des suites à valeurs dans autre choses que R comme des suites de complexes, de
fonctions ou des suites de polynômes. Cependant, on omettra de spécifier « réelles » la plupart du temps.

131
2. On désignera encore par suite une application de N? dans R. C’est une suite qui commence à 1. On notera
alors un∈N? .
3. Faire attention à le pas confondre un qui est un nombre - le n-ième terme de la suite - et un∈N qui est
l’intégralité de la suite. C’est la même distinction qu’entre la fonction f et f ( x ) qui est la valeur de la
fonction en x.
Notations :
1. par abus, nous noterons aussi u pour un∈N . La plupart du temps nous noterons une suite juste u.
2. L’ensemble des suites réelles se note RN .
Exemples :
1. On peut définir une suite par son terme général : soit u la suite telle que ∀n ∈ N, un = (−12)n .
2. On peut définir une suite par une formule de récurrence : soit u la suite définie par u0 = 1, u1 = 1 et
∀n ∈ N, un+2 = un+1 + un .
3. Il y a d’autres manières de définir les suites : soit u la suite définie par

u2n−1 si n est pair
u1 = 1, ∀n ∈ N, u2n = 0 et u2n+1 =
la n-ieme décimale de π sinon

Remarque : de manière générale, il faut vérifier que la définition définissent


pbien une et une seule image pour
tous les entiers. Par exemple on ne peut définir une suite par ∀n ∈ N, un = sin(n) car pour n = 4, sin(4) < 0.

Définition [Link]

Soit u une suite réelle.


— Soit M ∈ R, la suite u est majorée par M si : ∀n ∈ N, un 6 M.
— Soit m ∈ R, la suite u est minorée par m si : ∀n ∈ N, m 6 un .
— La suite u est majorée s’il existe un réel M tel quelle soit majorée par M.
— La suite u est minorée s’il existe un réel m tel quelle soit minorée par m.
— La suite u est bornée si elle est majorée et minorée.

Remarque : Le fait d’être majorée (resp. minorée, bornée) est une propriété globale sur la suite en entier. En
particulier, cela n’a aucun sens d’écrire « ∀n ∈ N, un est majorée ».
Exemples :
1. La suite u définie par ∀n ∈ N, un = n n’est pas majorée mais elle est minorée.
2. La suite u définie par ∀n ∈ N? , un = 1/n est bornée.

Définition [Link]

Soit u une suite réelle.


— La suite u est croissante si ∀n ∈ N, un+1 > un .
— La suite u est décroissante si ∀n ∈ N, un > un+1 .
— La suite u est strictement croissante si ∀n ∈ N, un+1 > un .
— La suite u est strictement décroissante si ∀n ∈ N, un > un+1 .
— La suite u est monotone (resp. strictement monotone) si elle est croissante ou décroissante (resp.
strictement croissante ou strictement décroissante).

Remarques :
1. On pourrait plus simplement dire que la suite u est croissante si elle est croissante comme application. En
effet (∀n ∈ N, un+1 > un ) ⇔ (∀(n, n0 ) ∈ N2 , n > n0 ⇒ un > un0 )
2. Là encore le contraire de croissante n’est pas décroissante.
3. Là encore c’est une notion globale et (∀n ∈ N, un est croissante) n’a pas de sens
4. Dire que la suite u est monotone ne s’écrit pas ∀n ∈ N, un+1 > un ou un+1 6 un .

132
F Méthode : pour étudier la monotonie d’une suite u la méthode standard est de considérer les quantités
un+1 − un . Si, par exemple, pour tout entier n, un+1 − un > 0 la suite u est croissante. Dans le cas d’une suite
u
strictement positive, on peut aussi considérer les quotients n+1 . On a alors :
un
 
u
∀n ∈ N, n+1 > 0 ⇔ la suite u est croissante.
un

Exercice : Quantifier « u n’est pas majorée » et « u n’est pas bornée ».


n!
Exemple : Étudions les variations de la suite un = .
n+2

Définition [Link]

On peut munir l’ensemble RN d’une relation d’ordre 6 en posant

∀(u, v) ∈ (RN )2 , u 6 v ⇔ ∀n ∈ N, un 6 vn .

Remarques :
1. Ce n’est clairement pas un ordre total.
2. Une suite u est majorée s’il existe une suite constante égale à M notée M par abus tel que u 6 M.

Définition [Link]

Soit u ∈ RN . On appelle suite extraite de u toute suite v telle qu’il existe une application strictement croissante
ϕ de N dans lui-même vérifiant que :
∀n ∈ N, vn = u ϕ(n) .

Terminologie : Une suite extraite s’appelle aussi une sous-suite.


Exemples :
1. Soit u on peut considérer (u2n ) et (u2n+1 ), les suites extraites des termes d’indices pairs et celle des termes
d’indices impairs.
2. Soit u une suite et N un entier. La suite (un+ N )n∈N dont le premier terme est u N est une suite extraite de
( u ).

Définition [Link]

Soit P une proposition dépendant d’une suite. On dit qu’une suite u vérifie la propriété P à partir d’un certain
rang s’il existe un entier N tel que la suite extraite (un + N )n> N vérifie P.

Exemple : La suite un = n − 7 est positive à partir d’un certain rang.

Définition [Link]

Une suite u est dite stationnaire si elle est constante à partir d’un certain rang.

1.2 Opérations sur les suites


Nous allons définir des opérations sur les suites. On ne rentrera pas dans les détails car c’est assez similaire
aux opérations sur les polynômes et les fonctions.

133
Définition [Link] (Somme)

Soit u et v deux suites. La somme est la suite u + v dont le terme de rang n est un + vn .

Définition [Link] (Multiplication externe)

Soit λ un réel et uune suite. La suite λ.u est la suite dont le terme de rang n est λ.un .

Définition [Link] (Produit et quotient)

Soit u et v deux suites. Le produit est la suite u.v dont le terme de rang n est un .vn . De plus si, pour tout
u un
entier n, vn 6= 0, on peut définir la suite quotient comme étant la suite dont le terme de rang n est .
v vn

Notation : on notera aussi


  (un + vn )n∈N la suite somme, (λ.un )n∈N la multiplication externe, (un .vn )n∈N la
un
suite produit ainsi que la suite quotient.
vn n∈N

Proposition [Link]

Ces opérations vérifient les propriétés classiques (associativité, commutativité, distributivité,...)

Remarque : en particulier l’ensemble des suites est un espace vectoriel.

2 Convergence
2.1 Généralités
Définition [Link]

Soit u une suite et ` un réel on dit que la suite u tend vers ` ou que ` est la limite de la suite u si les termes un
de la suite sont très proches de ` quand n tend vers l’infini.
C’est-à-dire que « tout intervalle ouvert contenant ` contient tous les termes de la suite à partir d’un certain
rang ». Cela peut s’exprimer par la phrase, pour tout réel positif ε, tous les termes assez grands de la suite sont
à distance de ` inférieur à ε.

∀e > 0, ∃ N ∈ N, ∀n ∈ N, (n > N ) ⇒ |un − `| 6 ε.


On note alors un → `.

Remarques :
1. Dire que |un − `| 6 ε revient à dire que un ∈ [` − ε, ` + ε].
2. Il suffit de tester que tout intervalle de la forme [` − ε, ` + ε] contient tous les termes de la suite à partir
d’un certain rang. En effet, tout intervalle ouvert contenant ` contient un tel intervalle.
Exercice : Nier les phrases précédentes.

Définition [Link]

Soit u une suite. On dira qu’elle est convergente s’il existe un réel ` tel que la suite u tend vers `. Dans le cas
contraire elle est divergente.

134
Théorème [Link]

Soit u une suite convergente. Sa limite est unique.

Idée de la preuve : Par l’absurde on suppose que la suite tend vers ` et vers `0 . Si on prend ε très petit, les
termes de la suites doivent être dans [` − ε, ` + ε] et dans [`0 − ε, `0 + ε]. Or si on prend ε assez petit ces deux
intervalles sont disjoints.

`−ε `+ε `0 − ε `0 + ε


Notation : Pour dire qu’une suite u tend vers ` on note

lim un = ` ou lim u = ` ou un → `.
n→+∞

Exercice : les assertions suivantes sont elles vraies ou fausses :


— Une suite croissante est convergente
— Une suite convergente est monotone
— Une suite positive tendant vers 0 est décroissante
— Une suite convergente est bornée.
— Une suite tendant vers 1 est positive.
Exemples :
1. On considère la suite définie par ∀n ∈ N, un = 1/n. Elle tend vers 0. Soit ε > 0, il existe un entier N > 1/ε.
Pour n ∈ N, si n > N, n > N > 1/ε > 0 d’où
1
0< < ε.
n
1
On a bien lim = 0.
n→+∞ n
2. On considère la suite définie par ∀n ∈ N, un = (−1)n . Montrons qu’elle est divergente. Supposons par
l’absurde qu’elle converge vers un réel `. En particulier pour ε = 1/3, tous les termes assez grands de
la suite sont dans l’intervalle ]` − 1/3, ` + 1/3[. C’est impossible car si 1 est dedans, −1 ne l’est pas et
réciproquement.

Définition [Link]

Soit u une suite réelle. On dit que u tend vers +∞ et on note lim un = +∞ si
n→+∞

∀ M ∈ R, ∃ N ∈ N, ∀n ∈ N, (n > N ) ⇒ un > M.

De même, on dit que u tend vers −∞ et on note lim un = −∞ si


n→+∞

∀ M ∈ R, ∃ N ∈ N, ∀n ∈ N, (n > N ) ⇒ un 6 M.

Remarque : une suite qui tend vers +∞ est une suite divergente. Cependant la réciproque n’est pas vraie.
Exercice : Trouver une suite tendant vers +∞ qui n’est pas croissante.
Exemple : (Fondamental) Soit ρ ∈ R. On considère la suite géométrique (ρn )n∈N? .
— si |ρ| < 1 la suite converge vers 0.
— si ρ = 1 la suite est constante égale à 1 et donc tend vers 1.
— si ρ 6 −1 la suite est divergente.
— si ρ > 1 la suite est divergente et tend vers +∞.

135
Proposition [Link]

Soit u une suite et ` un réel.

( lim u = `) ⇔ La suite (un − `)n∈N tend vers 0.


n→+∞

Cette proposition est utile car elle permet de ramener la convergence de toute suite à l’étude d’une conver-
gence vers 0. On peut en particulier l’utiliser avec la proposition suivante pour se ramener à l’étude d’une suite
positive.

Proposition [Link]

Soit u une suite.


lim un = 0 ⇔ lim |un | = 0.
n→+∞ n→+∞

Exercices :
2n + sin n
1. Montrer que la suite un = tend vers 2
n+1
2. La propriété précédente reste vrai pour une limite non nulle ?

Proposition [Link]

Soit u une suite. Si u est convergente elle est bornée.

Démonstration

Remarque : La contraposée peut-être utile. Si u n’est pas bornée elle diverge. Attention cela n’implique pas
pour autant qu’elle tende vers ±∞.

Proposition [Link]

Soit A une partie non vide de R.


1. Si A est majorée, il existe une suite de AN qui tend vers sup A.
2. Si A n’est pas majorée, il existe une suite de AN qui tend vers +∞.

2.2 Convergence et suite extraite


Proposition [Link]

Soit u une suite.


1. Si u converge vers une limite ` alors toute suite extraite converge aussi vers `.
2. Si lim u = +∞ (resp. −∞) alors toute suite extraite v vérifie que lim v = +∞ (resp. −∞).

Démonstration

Remarque : Cette proposition est assez souvent utilisée pour montrer qu’une suite ne converge pas. En effet
par contraposée, pour montrer qu’une suite diverge il suffit de trouver deux suites extraites qui ne convergent
pas vers la même valeur.
Exemples :
1. La suite un = (−1)n .

136


2. La suite sin(n) ne converge pas. En effet si on pose ϕ(n) = + 2nπ , alors sin( ϕ(n)) ∈ [α, 1] où
j3π k
α = Min(sin(2π/3), sin(2π/3 − 1)). De même on pose ψ(n) = − + 2nπ .
3
On va chercher une bribe de réciproque.

Proposition [Link]

Soit u une suite. On considère la suite des termes pairs (u2n )n∈N et la suite des termes impairs
(u2n+1 )n∈N . Les suites (u2n )n∈N et (u2n+1 )n∈N converge vers la même limite ` si et seulement si la
suite u converge vers `.

Démonstration :
— ⇐ On suppose que u converge vers ` et on veut montrer que (u2n )n∈N et (u2n+1 )n∈N convergent aussi
vers `. On va le faire pour (u2n )n∈N . Soit ε > 0. On sait qu’il existe N ∈ N tel que, pour tout entier n, si
n > N alors |un − `| 6 ε. On en déduit que pour tout entier n, si n > N alors 2n > N et donc |u2n − `| 6 ε.
— ⇒ On suppose que (u2n )n∈N et (u2n+1 )n∈N convergent aussi vers la même limite `. Dès lors si on se
donne un réel positif ε. On sait qu’il existe des entiers N1 et N2 tels que pour tout entier n, si n > N1 on a
|u2n − `| 6 ε et si n > N2 on a |u2n+1 − `| 6 ε. On pose alors N = [Link]( N1 , N2 ) + 1. Soit n un entier, on
suppose que n > N. Si n est pair alors n = 2p et
n N
p= > > N1 .
2 2
On en déduit que |un − `| = |u2p − `| 6 ε.
De même si n est impair, on a n = 2p + 1 et
n−1
p= > N2 .
2
On en déduit encore que |un − `| = |u2p+1 − `| 6 ε.


2.3 Inégalités
Théorème [Link]

Soit u et v deux suites. On suppose que pour tout n ∈ N, un 6 vn . S’il existe ` et `0 dans R tels que u
tend vers ` et v tend vers `0 alors ` 6 `0 .

Remarques :
1. Les inégalités x > y s’étendent aux cas où x et y sont des éléments de R de manière naturelle. Par exemple,
pour tout x ∈ R, −∞ 6 x 6 +∞.
2. Dans le cas où l’une des deux suites est constante. Cela exprime alors que, pour un réel a, si pour tout
n, un > a alors ` > a. En particulier si a = 0, on obtient qu’une suite positive convergente a une limite
positive.
3. Ce théorème reste vrai si l’inégalité un 6 vn est vérifiée pour tous les entiers n à partir d’un certain rang.
B Ce résultat n’est pas vrai avec des inégalités strictes. Par exemple si u est la suite définie par un = 1/n.
Tous les termes sont strictement positifs mais pas la limite.
Exercice : La réciproque est-elle vraie ? C’est-à-dire, si u et v sont des suites convergentes telles que lim u 6 lim v
a-t-on que un 6 vn à partir d’un certain rang ? Et si l’on suppose lim u < lim v ?

Proposition [Link]

Soit u une suite convergente de limite ` > 0. La suite est positive à partir d’un certain rang.

137
Démonstration

Théorème [Link] (Théorème d’encadrement)

Soit u, v et (wn ) trois suites. On suppose que


1. Les suites u et (wn ) convergent vers la même limite.
2. Pour tout entier n, un 6 vn 6 wn .
Alors la suite v converge et lim u = lim v = lim(wn ).

Remarques :
1. ce théorème est beaucoup plus puissant que le précédent. En effet, on n’a pas besoin de savoir, à priori,
que la suite v converge. C’est l’un des quatre théorèmes (avec les opérations, la convergence monotone et
les suites adjacentes) qui permet de montrer qu’une suite converge.
2. Il est nécessaire que u et (wn ) aient la même limite comme le montre l’exemple :

∀n ∈ N, un = −1, vn = (−1)n , wn = 1.

3. Là encore ce théorème peut s’appliquer même si la propriété 2. n’est vrai qu’à partir d’un certain rang.
4. La terminologie « théorème d’encadrement » est plus convenable que « théorème des gendarmes ».
F Méthode : Pour montrer qu’une suite u converge vers `, on peut montrer que |un − `| tend vers 0. Pour cela il
suffit de trouver une suite v tendant vers 0 telle que |un√
− `| 6 vn .
Exemple : Soit u définie par u0 = 5 et ∀n ∈ N, un+1 = 2 + un . On montre que

| u n − 2|
∀n ∈ N, |un+1 − 2| 6
2
en utilisant la quantité conjuguée.
Dès lors, par récurrence,
3
∀n ∈ N, |un − 2| 6 .
2n

Corollaire [Link]

Soit u et v deux suites. On suppose que u est bornée et que v tend vers 0. On a uv → 0

Démonstration : Comme u est bornée, il existe M ∈ R tel que ∀n ∈ N, |u| 6 M. Dès lors

∀n ∈ N, |un vn | 6 M|vn |.

Maintenant comme M |vn | → 0 alors |un vn | → 0 et la suite uv tend vers 0. 


On voit que l’on se ramène souvent à montrer qu’une suite tend vers 0. Voici un critère utile.

Proposition [Link]

Soit u une suite strictement positive telle qu’il existe k ∈]0, 1[ vérifiant que pour un entier n0 ,
u n +1
∀ n > n0 , 6 k.
un
La suite u converge vers 0.

B Il faut qu’il existe k tel que ana+1 6 k < 1. La condition, ana+1 < 1 n’est pas suffisante.
n n

138
Théorème [Link] (Variante à l’infini)

Soit u et v deux suites. On suppose que


1. La suite u tend vers +∞
2. Pour tout entier n, un 6 vn .
Alors la suite v tend vers +∞.

Remarques :
1. là encore l’inégalité n’a besoin d’être vérifiée qu’à partir d’un certain rang.
2. il y a un variante de la variante en −∞.
Exercice : On considère la suite ( H ) définie par
n
1
∀n ∈ N? , Hn = ∑ k
.
k =1
Z
k +1 dt
1 1
1. Montrer que pour tout k ∈ N? , 6 6 .
k+1 k t k
?
2. En déduire que pour tout n ∈ N , Hn > ln(n + 1). Que peut-on en déduire sur la limite de ( H ) ?

2.4 Construction de suite à limite donnée


Il arrive que, pour utiliser des arguments de passage à la limite on veuille construire des suites d’éléments
une partie A de R dont la limite ` est donnée. Voici deux cas.

Proposition [Link] (Caractérisation Séquentielle de la densité)

Soit A une partie de R. Les assertions suivantes sont équivalentes :


i) La partie A est dense dans R
ii) Tout élément de R est limite d’une suite d’éléments de A

Démonstration :
— i ) ⇒ ii ) : On suppose que A est dense dans R. Soit ` dans R on veut construire une suite u d’éléments de
A convergeant vers `. Il suffit de voir que pour tout n ∈ N, A∩]` − 10−n , ` + 10−n [6= ∅ par définition de
la densité. On définit un comme un élément de cette intersection. De ce fait, u ∈ AN et, ∀n ∈ N, |un − `| 6
10−n . On en déduit alors que u → `.
x+y
— ii ) ⇒ i ) : On suppose ii ). Soit x, y deux réels tels que x < y. On recherche a ∈ A∩] x, y[. On pose ` =
2
(le milieu de ] x, y[). Il suffit de considérer une suite u ∈ AN tendant vers `. En s’approchant de `, les
|y − x |
termes de la suite (qui sont dans A) vont être dans ] x, y[. Précisément, si on pose ε = on a
3
x < ` − ε < ` < ` + ε < y.

Or, il existe un rang N tel que u N ∈ [` − ε, ` + ε] car u tend vers `. On a donc u N ∈ A∩] x, y[.


Proposition [Link] (Suite et borne supérieure)

Soit A une partie non vide et majorée de R (resp. non majorée) il existe une suite u d’éléments de A
qui tend vers sup( A) (resp. +∞).

139
2.5 Opérations
• Addition Soit u et v deux suites. Le tableau suivant donne la limite de la suite u + v.
PP lim u
PP
` −∞ +∞
lim v PPP P
` 0 0
` + ` −∞ +∞
−∞ −∞ −∞ ?
+∞ +∞ ? +∞
Les ? sont les « formes indéterminées ». On ne peut rien dire de manière systématique. Nous verrons plus loin
comment traiter ces cas.
Démonstration : Faisons le cas où ` = +∞ et `0 ∈ R. On veut montrer que u + v tend vers +∞. On considère
ε = 1. Il existe alors N tel que pour tout n de N, si n est supérieur à N alors `0 − 1 6 v 6 `0 + 1. Maintenant
pour tout M ∈ R, il existe N 0 tel que

n > N 0 ⇒ vn > M − (`0 − 1).

De ce fait, si n est supérieur à N et N 0 (c’est-à-dire n > Max( N, N 0 )),

un + vn > M.


Exemples :
1. La suite un = 1 − 1/n tend vers 1 et vn = 2/n tend vers 0. La somme u + v tend vers 1.
2. Les suites wn = n et wn0 = n2 tendent vers +∞. On voit que uw tend vers +∞, vw tend vers 2 et vw0 tend
vers +∞.
• Multiplication externe
Soit u une suite et λ un réel. On considère la suite λ.u. La limite de la suite λ.u est donnée par le tableau
suivant :

PP lim u
PP
PP ` −∞ +∞
λ PP
λ>0 λ.` −∞ +∞
λ=0 0 0 0
λ<0 λ.` +∞ −∞

Notons que si λ = 0 et que la suite u tend vers ±∞ ce n’est pas une forme indéterminée. En effet la suite λ.u est
la suite nulle.
• Produit
Soit u et v deux suites. On considère la suite u.v. La limite de la suite est donnée par le tableau suivant :

PP lim u ` < 0
PP
`=0 `>0 −∞ +∞
lim v PPP P
`0 < 0 `.` 0 0 `.` 0 +∞ −∞
0
` =0 0 0 0 ? ?
`0 > 0 `.` 0 0 `.` 0 −∞ +∞
−∞ +∞ ? −∞ +∞ −∞
+∞ −∞ ? +∞ −∞ +∞

Noter en particulier que la forme (+∞) × (−∞) n’est pas une forme indéterminée.
• Quotient
u
Soit u et v deux suites et on suppose que pour tout n ∈ N, vn 6= 0. On considère la suite . La limite de la
v
suite est donnée par le tableau suivant :

PP lim u
PP
`<0 `=0 `>0 −∞ +∞
lim v PPP P
`0 < 0 `/`0 0 `/`0 +∞ −∞
` 0 = 0− +∞ ? +∞ +∞ -∞
` 0 = 0+ −∞ ? +∞ −∞ +∞
`0 > 0 `/`0 0 `/`0 −∞ +∞
−∞ 0 0 0 ? ?
+∞ 0 0 0 ? ?

140
Remarques :
1. On dit que u tend vers 0+ (resp. 0− ) si u tend vers 0 et que u est positive (resp. négative) à partir d’un
certain rang.
2. Les opérations sont la deuxième méthode qui permet de montrer qu’une suite est convergente. Dans ce
cas on détermine sa limite.

2.6 Convergence monotone


Théorème [Link]

Soit u une suite croissante.


1. Si u est majorée alors elle converge et lim u = sup {un | n ∈ N}.
2. Si u n’est pas majorée alors elle diverge et lim u = +∞.

Démonstration : Soit u une suite croissante et majorée, montrons qu’elle est convergente (le cas décroissante et
minorée s’en déduit en considérant (−un )). Le problème est que pour montrer qu’un suite est convergente via
la quantification on doit connaître sa limite. Soit U = {un | n ∈ N}. La suite u étant majorée, l’ensemble U est
une partie non vide et majorée de R. On en déduit donc qu’il admet une borne supérieure. Notons α = sup U.
Le nombre α va être notre limite. Montrons donc que

∀ε > 0, ∃ N ∈ N, ∀n ∈ N, (n > N ⇒ |un − α| < ε).

dessin

Soit ε > 0. On sait que α étant la borne supérieure de U, α − ε n’est pas un majorant de U. Il existe donc un
entier N tel que u N > α − ε. Dès lors, la suite étant croissante, pour tout entier n, si n > N alors un > u N > α − ε.
De plus, α est un majorant de U donc un 6 α 6 α + ε. On a bien montré que |un − α| < ε.

Remarques :
1. C’est le sens ⇐ qui est utile - l’autre est vrai sans hypothèse de monotonie. Cela peut aussi s’écrire :
« toute suite croissante et majorée converge » ou »toute suite décroissante et minorée converge ».
2. En particulier une suite croissante n’a que deux comportements asymptotiques possibles : converger vers
une limite finie ou tendre vers +∞. De même pour une suite décroissante.
3. C’est le deuxième théorème qui permet de montrer qu’une suite converge.
B Prendre garde que le majorant (ou minorant) utilisé n’est pas toujours la limite de la suite. Voir l’exercice
ci-dessous.
Exercice : Soit u définie par
n
1
∀n > 2, un = ∑ k2
.
k =2

1. Étudier la monotonie de u.
n
1
2. Prouver que pour tout n > 2, un 6 ∑ k ( k − 1)
.
k =2
3. Calculer la somme de droite en utilisant un téléscopage.
4. En déduire que u est convergente.
Regardons maintenant un corollaire du théorème de convergence monotone qui va nous servir plus loin.

Proposition [Link]

1. Soit u une suite croissante. Soit la suite est majorée et elle converge, soit la suite tend vers +∞.
2. Soit u une suite décroissante. Soit la suite est minorée et elle converge, soit la suite tend vers
−∞.

Remarque : L’énoncé précédent n’est vrai que dans le cas d’une suite monotone. une suite quelconque peut
très bien diverger sans tendre vers +∞ ou −∞.

141
2.7 Suites adjacentes
Définition [Link]

Soit u et v deux suites. On dit que ce sont des suites adjacentes si


1. La suite u est croissante et la suite v est décroissante.
2. La suite u − v tend vers 0.

Théorème [Link]

Soit u et v deux suites adjacentes. Elles convergent vers la même limite.

Démonstration : Commençons par montrer que si (un ) et (vn ) son adjacente avec (un ) croissante alors pour
tout entier naturel n, un 6 vn . On remarque que la suite (un − vn ) est croissante or comme elle tend vers 0, on a
0 = sup{un − vn | n ∈ N}. De ce fait, pour tout entier naturel un − vn 6 0 ⇐⇒ un 6 vn .
On a donc pour tout entier naturel n ,

u0 6 u n 6 v n 6 v0 .

On en déduit que (un ) est majorée (par v0 ), comme elle est croissante, elle converge. Notons ` sa limite. De
même (vn ) converge. Notons `0 sa limite. Par les opérations, (un − vn ) converge vers ` − `0 donc ` = `0 . 
Remarques :
1. C’est le troisième théorème qui montre la convergence d’une suite.
2. Le fait que les termes de la suite u sont inférieurs à ceux de la suite v est une conséquence de la définition.
Si on note ` la limite commune :

u0 6 u1 6 · · · 6 u n 6 ` 6 v n 6 · · · 6 v1 6 u0 .

Exemple : On considère les suites u et v définies par


n
1 1
∀n ∈ N? , un = ∑ k!
et vn = un +
n.n!
.
k =0

Ce sont des suites adjacentes. Leur limite commune est e.


Exercice : On veut montrer que e est un irrationnel.
1. Montrer que la suite u est strictement croissante et que v est strictement décroissante.
2. Montrer que pour tout n ∈ N? , il existe un entier pn tel que

pn 1 + pn
un = et vn = .
n.n! n.n!

3. En déduire que e est un irrationnel.


Exercice : On reprend la suite ( H ) définie par
n
1
∀n ∈ N? , Hn = ∑ k
.
k =1

1. Montrer que pour tout x compris entre −1 et 1, ln(1 + x ) 6 x.


2. On pose un = Hn − ln(n) et vn = un − 1/n. Montrer que u et v sont adjacentes.

Théorème [Link] (Théorème des segments emboités)

Soit ([ an , bn ]) une suite décroissante


T
de segments non vide (d’où des segments emboités) dont la
longueur tend vers 0. L’ensemble n∈N [ an , bn ] est réduit à un point.

142
Démonstration

Théorème [Link] (Theorème de Bolzano-Weierstrass)

Soit u une suite bornée. On peut en extraire une sous suite convergente.

Démonstration

Remarque : Ce théorème permet d’affirmer que l’on peut construire une suite extraite de sin(n) qui converge.
Mais ce n’est pas constructif...

3 Relations de comparaison
3.1 Définition
Avant de donner la définition précise, regardons un exemple. On considère la suite u définie par ∀n ∈
N? , un = n2 /(1 + n). C’est une forme indéterminée (+∞)/(+∞). Cependant, quand n devient très grand, on
est tenté de considérer que 1 + n est "équivalent" à n et de ce fait que un va être proche de n2 /n = n et donc
tendre vers l’infini. Pour donner plus de sérieux à ce qui précède on peut écrire

n2 n2 n
∀n ∈ N? , un = = = .
1+n n(1 + 1/n) 1 + 1/n

Définition [Link]

Soit u et v deux suites.


1. On dit que u est dominée par v s’il existe une suite (wn ) bornée telle que u = (vn wn ). On note alors
u = O ( v ).
2. On dit que u est négligeable devant v s’il existe une suite (wn ) tendant vers 0 telle que u = (vn wn ).
On note alors u = o (v) .
3. On dit que u et v sont équivalentes s’il existe une suite (wn ) tendant vers 1 telle que u = (vn wn ). On
note alors u ∼ v.

Quand les suites ne s’annulent pas (au moins à partir d’un certain rang) on a une caractérisation plus simple :

Proposition [Link]

Soit u et v deux suites ne s’annulant pas.


u
1. La suite u est dominée par v si la suite est bornée.
v
u
2. La suite u est négligeable devant v si la suite tend vers 0.
v
u
3. La suite u est equivalente à v si la suite tend vers 1.
v

Remarque : Seule la limite compte pour l’équivalence de deux suites. On peut de ce fait « modifier » un nombre
fini de termes sans changer les équivalents, domination ou négligeabilité.
B Une suite u est équivalente à 0 si et seulement si elle est stationnaire à 0.
Terminologie : Ce sont des notions
 qui portent sur l’ensemble de la suite, cependant, nous écrirons pour alléger,
n2 + n + 1 ∼ n2 ou n = o n2 .
Exemples :
1. On considère la suite u définie par ∀n ∈ N, un = n + 1. Alors un ∼ n.

2. On considère la suite u définie par ∀n ∈ N, un = n + n. Alors un ∼ n.

143

3. On considère la suite u définie par ∀n ∈ N, un = 5n + 6. Alors un = O(n) et un = o n2 .
On peut lier les notions d’équivalence et de négligeabilité de la manière suivante.

Proposition [Link]

Soit u et v deux suites. Si un = o (vn ) alors un + vn ∼ vn .

Exemple : On considère la suite (n + cos n). Le terme cos n est borné et n tend vers +∞. On en déduit que
cos(n) = o (n) et donc n + cos n ∼ n.

3.2 Propriétés
Proposition [Link]

1. Ces trois notions sont transitives.


2. La notion d’équivalence est symétrique et réflexive : c’est donc une relation d’équivalence.
3. La notion de domination est reflexive.

Remarque : On note aussi « à la physicienne » un << vn pour un = o (vn ). Cette notation à l’avantage de bien
montrer la transitivité.

Théorème [Link] (Opérations sur les équivalents)

Soit u, v, (wn ) et ( x ) quatre suites.


1. Multiplication par un réel non nul : soit λ un réel non nul, si un ∼ vn alors λun ∼ λvn .
1 1
2. Inverse : si un ∼ vn alors ∼ .
un vn
3. Puissance : si α est un réel et si un ∼ vn alors uα ∼ vα . (on suppose que les suites sont à valeurs
strictement positives).
4. Valeur absolue : si un ∼ vn alors |un | ∼ |vn |.
un vn
5. Produit et quotient : si un ∼ vn et si wn ∼ xn alors un .wn ∼ vn .xn et ∼ .
wn xn


B Dans les formules suivantes on n’a pas la somme ! Par exemple n2 + n ∼ n2 et −n2 ∼ −n2 + n, mais

n  n. C’est souvent en utilisant ce genre de résultat que l’on obtient un équivalent à 0.
B On ne peut pas composer les équivalents. Par exemple, n + n2 ∼ n2 mais en+n2  en2 car le rapport
2
en+n
2 = en tend vers +∞.
en
Remarques :
1. La formule des puissances du théorème est vraie pour les suites changeant de signe si on prend α ∈ N.
2. Toujours sur la formule des puissance, il faut que α soit constant. Par exemple 1 + 1/n ∼ 1 mais (1 +
1/n)n  1n .
s √
n3 + n n + 1 √
Exemple : On pose un = 2
. On cherche un équivalent à un . On sait que n3 + n n + 1 ∼ n3 et
n +4

3+n n+1
n √
que n2 + 4 ∼ n2 . Donc ∼ n et un ∼ n.
n2 + 4
B Prendre une puissance est une composition, mais c’est à cas particulier on la composition conserve
l’équivalence.
Les suites équivalentes sont utiles pour calculer les limites.

144
Proposition [Link]

Soit u et v deux suites équivalentes on a :


1. La suite u converge si et seulement si la suite v converge. Dans ce cas, on a en plus lim u = lim v.
2. La suite u tend vers +∞ (resp. −∞) si et seulement si la suite v tend vers +∞ (resp. −∞).

Remarque : cela signifie que pour trouver la limite d’une suite, on la remplace par une suite équivalente plus
simple.

3.3 Croissances comparées et équivalents classiques


Via des équivalents, on peut souvent se ramener à des suites qui sont, des puissances, des logarithmes ou
des exponentielles. Il faut alors savoir les comparer.

Proposition [Link] (Equivalent d’un polynôme)


1. Soit α et β deux réels. Si α < β alors nα = o n β .

2. Soit ( a0 , . . . , ak ) ∈ Rk+1 . On suppose que ak 6= 0. Alors

a0 + a1 n + · · · + a k n k ∼ a k n k .

Démonstration : Pour tout n 6= 0 on a :


a0 − k
a0 + a1 n + · · · + ak nk = ak .nk ( n + · · · + 1).
ak
a0 − k
Or lim n + · · · + 1 = 1 donc a0 + a1 n + · · · + ak nk ∼ ak nk . 
n→+∞ ak

Proposition [Link] (Croissances comparées)


1. Soit α ∈ R et β > 0, (ln(n))α = o n β .

2. Soit α et β deux réels. Si α < β alors nα = o n β .
3. Soit α ∈ R et β > 0, nα = o (exp( βn)). En particulier si k > 1, nα = o (kn ) .
4. Soit k > 1, kn = o (n!) .

Exemple : Plutôt que de faire la démonstration en général, étudions juste un exemple. Montrons que n = o (en ).
n
Pour cela on étudie la suite wn = n et on veut prouver qu’elle tend vers 0.
e ?
On remarque que pour tout n ∈ N ,
w n +1 n + 1 en n+1
= n +1 . = .
wn e n ne
On en déduit que wn+1 /wn tend vers 1/e. On peut donc trouver N tel que pour n > N, wn+1 /wn 6 1/2 et donc
1
∀n > N, wn+1 6 wn .
2
On en déduit classiquement que (wn ) tend vers 0.
Remarques :
1. En utilisant la notation << la proposition ci-dessus s’écrit :

(ln n)α << n β << kn << n!


où β > 0 et k > 1.

145
2. On a indiqué que les cas qui ne sont pas triviaux. C’est-à-dire que tous les termes tendent vers +∞. Mais
on peut aussi remarquer que n−1 = n1 = o (en ) est vrai de manière évidente car 1/n tend vers 0 et en tend
vers +∞.

Proposition [Link] (Equivalents classiques)

Soit u une suite tendant vers 0. On a

(1 + un )α − 1 ∼ αun , eun − 1 ∼ un , ln(1 + un ) ∼ un ,

u2n
sin(un ) ∼ un , tan(un ) ∼ un , cos(un ) − 1 ∼ − .
2

Démonstration : Ce sont juste les limites vues dans le chapitre sur les fonctions usuelles composées avec des
sin x sin(un )
suites. Par exemple, on sait que lim = 1. De ce fait, si lim(un ) = 0 alors lim = 1 ce qui signifie
x →0 x n un
que sin(un ) ∼ un . 

B Si on cherche un équivalent de ln(1 + sin(un )) avec (un ) tend vers 0. On peut rédiger de deux manières
— On sait que sin(un ) ∼ un . De ce fait ln(1 + sin(un )) ∼ ln(1 + un ) ∼ un .
— On sait que u tend vers 0 donc (sin(un )) aussi. De ce fait, ln(1 + sin(un )) ∼ sin(un ) ∼ un .
Laquelle de ces deux rédaction n’est pas correcte ?

4 Extension au cas des suites complexes


Nous allons (rapidement) étendre certaines notion au cas des suites de nombres complexes.

4.1 Définition et généralités


Définition [Link]

On appelle suite de nombres complexes toute application de N dans C.

Remarque : on reprend les notation des suites réelles.


Exemples :
1. Soit u la suite définie par ∀n ∈ N, un = (2 − i )n + 3 + 2i.
2. Soit v la suite définie par u0 = 0 et ∀n ∈ N, un = u2n + (1 + i ).

Définition [Link]

Soit u une suite à valeurs complexes.


1. On appelle partie réelle de la suite u et on note Reu la suite définie par ∀n ∈ N, (Reu)n = Re(un ).
2. On appelle partie imaginaire de la suite u et on note Imu la suite définie par ∀n ∈ N, (Imu)n =
Im(un ).
3. On appelle suite conjuguée de la suite u et on note u la suite définie par ∀n ∈ N, un = un .
4. On appelle suite des modules de la suite u et on note |u| la suite définie par ∀n ∈ N, |u|n = |un |.

Définition [Link]

Soit u une suite complexe. On dit que u est bornée si |u| l’est.

146
4.2 Convergence
Définition [Link]

1. Soit u une suite complexe et ` un nombre complexe. On dit que u converge vers ` (ou que la limite de u
est `) si et seulement si la suite |u − `| tend vers 0.
2. Soit u une suite. S’il existe un nombre complexe ` tel que u converge vers `, on dit que la suite u est
convergente. Dans le cas contraire on dit qu’elle est divergente.

Exemple : Soit α un nombre complexe de module strictement inférieur à 1. La suite (αn ) tend vers 0.

Proposition [Link]

Soit u une suite complexe. La suite u est convergente si et seulement si Reu et Imu le sont. Dans ce
cas,
lim u = lim Reu + i lim Imu.

Démonstration

Remarque : De même si (αn ) et ( β n ) sont deux suites réelles, la suite (αn eiβ n ) converge. Par contre la réciproque
est fausse. Il suffit de prendre β n = 2nπ.

4.3 Popriétés des suites convergentes


Proposition [Link]

Soit u une suite convergeant vers `.


1. La suite |u| converge vers |`|. En particulier, elle est bornée.
2. La suite u converge vers `.
3. Si v est une suite extraite de u, elle converge vers `.

Remarque : Les assertions 1. et 3. ne sont pas des équivalences alors 2. l’est par involution.

Théorème [Link] (Théorème de Bolzanno-Weierstrass)

Soit u une suite complexe. Si u est bornée, il existe une suite extraite convergente.

Démonstration : Considérons la suite [Link] est bornée car pour tout entier n, |Reun | 6 |un |. De ce fait il
existe une application strictement croissante ϕ de N dans lui même telle que (Reu ϕ(n) ) converge. On considère
alors la suite (Imu ϕ(n) ). Elle est aussi bornée. On peut donc en extraire une sous suite convergente (Imu ϕ(ψ(n)) ).
Maintenant comme (Imu ϕ(ψ(n)) ) et (Reu ϕ(ψ(n)) ) convergent alors (u ϕ(ψ(n)) ) converge aussi. 

4.4 Opérations
Les limites de suites complexes sont compatibles aux opérations habituelles.

147
Proposition [Link]

Soit u et v deux suites complexes convergentes.


1. Pour tout (λ, µ) ∈ C2 , λu + µv converge et lim λu + µv = λ lim u + µ lim v.
2. La suite uv est convergente et lim uv = lim u × lim v.
3. Si la limite de v est non nulle alors les termes de la suite sont non nuls à partir d’un certain
rang n0 et la suite (un /vn )n>n0 converge vers lim u/ lim v.

148
Structures
10
algébriques
1 Groupes 149
1.1 Lois de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
1.2 Itérés d’un élément . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
1.3 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
2 Anneaux 155
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
2.2 Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2.3 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157

1 Groupes
1.1 Lois de composition interne
Définition [Link]

Soit E un ensemble. On appelle loi de composition interne sur E tout application de E × E dans E. On note

E×E → E
.
( x, y) 7→ x >y

Exemples :
1. Soit E = N. L’addition et la multiplication sont des lois de composition interne.
2. Soit E = Z. La loi qui a tout couple ( x, y) associe 0 est une loi de composition interne.
3. Soit E = RR . La composée qui a ( f , g) associe f ◦ g est une loi de composition interne.
4. Le produit scalaire n’est pas une loi de composition interne.

149
Définition [Link]

Soit E un ensemble et > une loi de composition interne sur E.


1. On dit que > est associative si et seulement si :

∀( x, y, z) ∈ E3 , x >(y>z) = ( x >y)>z.

2. On dit que > est commutative si et seulement si :

∀( x, y) ∈ E2 , x >y = y> x.

Exemples :
1. Dans N l’addition et la multiplication sont associatives et commutatives.
2. Dans N la puissance n’est ni associative, ni commutative.
3. Dans E E la composition ◦ est associative mais pas commutative.
x+y
4. Dans Q la loi x >y = est commutative mais pas associative.
2
Remarques :
1. On note souvent les lois de composition interne : +, ×, ?, ⊥, >. La convention veut que l’on réserve le
symbole + pour les lois commutatives.
2. L’intérêt de l’associativité est de pouvoir se passer des parenthèses. En effet si ? est associative on a
x ? (y ? z) = ( x ? y) ? z. On peut donc noter x ? y ? z sans que cela soit ambiguë.

Proposition [Link] (Distributivité)

Soit E un ensemble muni de deux lois de composition interne notée > et ?. On dit que ? est
distributive par rapport à > si et seulement si :

∀( x, y, z) ∈ E3 , x ? (y>z) = ( x ? y)>( x ? z) et ( x >y) ? z = ( x ? z)>(y ? z).

Exemples :
1. Dans Z, la multiplication est distributive par rapport à l’addition.
2. Dans P ( E), ∩ est distributive par rapport à ∪ (et réciproquement)

Définition [Link]

Soit E un ensemble muni d’une loi de composition interne >. On dit qu’un élément e de E est un élément
neutre si
∀ x ∈ E, x >e = e> x = x.

Exemples :
1. Dans Z, 0 est un élément neutre pour + et 1 est un élément neutre pour ×.
2. L’application identité IdE est un élément neutre pour ◦ dans E E .
3. Il n’y a pas d’élément neutre pour l’addition dans N? .
Remarque : On peut plus généralement parler de neutre à droite (si ∀ x ∈ E, x >e = x) et de neutre à gauche (si
∀ x ∈ E, e> x = x).

Proposition [Link]

Soit E un ensemble muni d’une loi de composition interne >. S’il existe, l’élément neutre est unique.

150
Démonstration : Soit e1 et e2 deux éléments neutres de E. On a e1 = e1 >e2 = e2 . 

Définition [Link] (Inversibilité)

Soit ( E, >) un ensemble muni d’une loi de composition interne admettant un élément neutre e. Un élément x
de E est dit symétrisable ou inversible s’il existe y dans E tel que

x >y = y> x = e.

Remarques :
1. Quand la loi est commutative on peut ne vérifier qu’une des deux conditions.
2. Là encore, quand la loi n’est pas commutative on peut parler d’inverse à droite et à gauche. Par exemple
dans E = RR si f est la fonction tan prolongée en posant tan(π/2 + kπ ) = 0. La fonction g = arctan est
un inverse à gauche car g ◦ f = IdR .
3. La notion d’inverse est utile pour simplifier une équation. En effet si on veut résoudre l’équation a> x = b
d’inconnue x. Si a est inversible d’inverse a0 on a

a> x = b ⇒ a0 >( a> x ) = a0 >b ⇒ ( a0 > a)> x = a0 >b ⇒ x = a0 >b.

Proposition [Link] (Propriété de l’inverse)

Soit ( E, >) un ensemble muni d’une loi de composition interne admettant un élément neutre e. On
suppose de plus la loi associative.
1. Si x est inversible alors l’élément y vérifiant x >y = y> x = e est unique. On l’appelle l’inverse
de x et il se note souvent x −1 .
2. Si x est inversible alors x −1 aussi et ( x −1 )−1 = x.
3. Si x et y sont inversibles alors x >y aussi et ( x >y)−1 = y−1 > x −1 .

Démonstration :
1. Soit y1 et y2 deux inverses de x,
y1 = y1 > x > y2 = y2 .
2. Il suffit de voir que x > x −1 = x −1 > x = e.
3. Là encore, il suffit de faire le calcul

( x >y)>(y−1 > x −1 ) = x >(y>y−1 )> x −1 = e.


B Quand la loi n’est pas commutative, (x>y)−1 peut être différent de x−1 >y−1 . Nous le verrons avec les
matrices.

Définition [Link] (Partie stable)

Soit ( E, >) un ensemble muni d’une loi de composition interne. Soit A une partie de E. Elle est dite stable
pour > si
∀( x, y) ∈ A2 , x >y ∈ A.

1.2 Itérés d’un élément


Notation multiplicative
Dans tout ce chapitre on considère un ensemble E muni d’une loi de composition interne associative noté ?.
On suppose qu’il existe un élément neutre noté e.

151
Définition [Link]

Soit x un élément de E et n un entier naturel on définit x n par récurrence en posant :

x0 = e et ∀n ∈ N, x n+1 = x ? x n .

Remarques :
1. Cela correspond à la classique : x n est égale à |x ? ·{z
· · ? x} .
n fois
2. Il faut noter que même si ? n’est pas commutative, cela n’est pas important si on pose x ? x n ou x n ? x.

Proposition [Link]

Avec les notations précédentes on a

x n ? x p = x n+ p et ( x n ) p = x np .

B Faire attention que la relation xn ? yn = (x ? y)n n’est vraie que si ? est commutative.
Définition [Link]

Quand x est inversible et n ∈ N, on note x −n pour ( x −1 )n = ( x n )−1 .

Notation additive
Dans tout ce chapitre on considère un ensemble E muni d’une loi de composition interne associative noté +
(et donc supposée commutative). On suppose qu’il existe un élément neutre noté 0.

Définition [Link]

Soit x un élément de E et n un entier naturel on définit n.x par récurrence en posant :

0.x = 0 et ∀n ∈ N, (n + 1).x = x + n.x.

Proposition [Link]

Avec les notations précédentes on a

n.x + p.x = (n + p).x et n.( p.x ) = (np).x.

Définition [Link]

Soit x un élément inversible. On note − x (au lieu de x −1 ) son inverse que l’on appelle opposé.
Dans ce cas pour n ∈ N, on note (−n).x pour n.(− x ) = −(n.x ).

1.3 Groupes
On a vu que pour résoudre des équations du type a> x = b on avait besoin d’un élément neutre et d’inverse.

152
Définition [Link]

Soit G un ensemble muni d’une loi de composition interne ?. On dit que ( G, ?) est un groupe si :
1. La loi ? est associative ;
2. il existe un élément neutre e de G qui vérifie : ∀ g ∈ G, e ? g = g ? e = g.
3. Tout g dans G est inversible.C’est-à-dire qu’il existe g0 dans G tel que g ? g0 = g0 ? g = e.

Remarque : Quand la loi de composition interne est évidente on ne la rajoute pas dans la notation.
Exemples :
1. L’ensemble (N, +) n’est pas un groupe car 1, par exemple, n’a pas de symétrique.
2. Les ensembles (Z, +), (Q, +), (R, +) et (C, +) sont des groupes.
3. L’ensemble (Z, ×) n’est pas un groupe car 2 n’a pas de symétrique.
4. L’ensemble (Q, ×) n’est pas un groupe car 0 n’a pas d’inverse.
5. Les ensembles (Q? , ×), (R? , ×) et (C? , ×) sont des groupes.
6. Soit U = {z ∈ C | |z| = 1} et Un = {z ∈ C | zn = 1}. Ce sont des groupes mutliplicatifs.
7. Soit E un ensemble. L’ensemble des bijections de E forme un groupe que l’on note SE .
8. On peut aussi donner des groupes en donnant tous les éléments et les tables de la loi de composition
interne.
Par exemple G1 = {0, 1} avec
+ 0 1
0 0 1
1 1 0

Dans ce cas, 1 est le symétrique de 1.


9. On peut aussi construire un groupe à 4 éléments. On pose G2 = {0, 1, 2, 3} avec la loi

+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2

L’idée est de dire que x + y est le reste de la division par 4 de x + y.


Ici on voit que −1 = 3 et −2 = 2.

ATTENTION

Quand on essaye de déterminer la loi d’un groupe, on peut remarquer que chaque colonne et chaque
ligne contient tous les éléments du groupe. En effet a> x = b ⇐⇒ x = ( a−1 )>b ce qui signifie que
tout élément b apparait une (et une seule) fois dans la ligne des éléments de la forme a> x. On peut
faire pareil pour les colonnes

10. On s’intéresse à un triangle équilatéral ABC. On note G son centre de gravité. On cherche les transforma-
tions géométriques qui le laisse stable.
— Il y a bien évidement l’identité que l’on note e.
— Il y a les rotations de centre G et d’angle 2π/3 et −2π/3 que nous noterons r+ et r− .
— Il y a les symétries par rapport aux hauteurs que nous noterons s A , s B et sC .
On peut alors considérer D3 = {e, r+ , r− , s A , s B , sC }. C’est un sous-groupe du groupe des bijections du
plan.
Ecrire sa table.
11. Si E est un ensemble. On note SE l’ensemble des bijections de E dans E. On a alors (SE , ◦) est un groupe.
x+y
Exercice : On pose G =] − 1, 1[ et la loi > est définie par x >y = . Montrer que ( G, >) est un groupe.
1 + xy

153
Définition [Link]

Soit ( G, >) un groupe. Si la loi > est commutative, on dit que G est un groupe commutatif ou abélien.

Exemples :
1. Il est clair que (Z, +), (Q, +), (R, +) et (C, +) sont abéliens.
2. Soit E un ensemble avec au moins trois éléments et (SE , ◦) n’est pas abélien.

Définition [Link]

Soit ( G, >) un groupe et H une partie de G. On dit que H est un sous-groupe de G si et seulement si :
1. L’ensemble H est stable par >.
2. L’ensemble H est stable par passage au symétrique.
3. L’ensemble H contient l’élément neutre.

Remarque : Cela signifie que H est une partie de G telle que la loi de G induit une loi de composition interne
sur H et que pour cette loi, H est un groupe.

Proposition [Link]

Soit ( G, >) un groupe et H un sous-groupe de G. L’ensemble ( H, >) est un groupe.

Démonstration : La loi > est bien une loi de compostion interne de H car H est stable par >. De plus elle est
associative car elle l’est dans G. L’élément neutre de G est un élément neutre dans H. Tout élément h de H a
bien un inverse dans H. 
Exemples :
1. Pour tout groupe ( G, >) les ensembles {e} et G en entier sont des sous-groupes (dits triviaux). Les autres
2. (Z, +) est un sous groupe de (R, +).
3. (U, ×) est un sous-groupe de (C? , ×).

Proposition [Link] (Caractérisation d’un sous groupe)

Soit ( G, ×) un groupe et H une partie de G. L’ensemble H est un sous-groupe de G si et seulement si


— H est non vide.
— ∀( x, y) ∈ H 2 , xy−1 ∈ H.

Remarque : Il est évident que pour tout groupe G, les parties {e} et G sont des sous-groupes dits triviaux. Les
autres sous-groupes sont dits propres.
Exercice : Soit ω ∈ C. On pose H = { a + ωb ∈ C | ( a, b) ∈ Z2 }. Montrer que H est un sous-groupe de C.
Exemples :
1. Déterminons les sous groupes (propre) de (U5 , ×). On sait que U5 = {1, ω, ω 2 , ω 3 , ω 4 } où ω = e2iπ/5 .
De ce fait, si on se donne un sous groupe H contenant un élément α différent de 1 dans U5 . En considérant
ses puissances (qui sont dans U5 par stabilité) on en déduit que H = U5 .
2. On recommence pour U6 .

154
2 Anneaux
2.1 Définitions
Définition [Link]

Soit A un ensemble muni de deux lois de compositions internes notée + et ×. On dit que ( A, +, ×) est un
anneau si
1. ( A, +) est un groupe commutatif (d’où la notation +)
2. la loi × est associative
3. il existe un élément neutre pour ×
4. la loi × est distributive par rapport à +
Si la loi × est aussi commutative, on dit que A est un anneau commutatif.

Remarques :
1. Cette définition correspondent aux règles de calculs classiques dans Z, Q, R.
2. L’ensemble ( A, ×) n’est pas forcement un groupe car des éléments peuvent pas avoir de symétrique.
3. On peut voir que A = {0} est un anneau que l’on appelle l’anneau nul. Ce n’est pas le plus intéressant et
on essaye souvent d’exclure ce cas.
Notations :
1. On note 0 ou 0 A l’élément neutre pour +.
2. On note 1 ou 1 A l’élément neutre pour ×.
3. On abrège x × y en xy.
Exemples :
1. Les ensembles Z, Q, R et C sont des anneaux pour les opérations usuelles.
2. L’ensemble des applications de R dans R muni des opérations + et × est un anneau.
3. On peut reprendre G1 = {0, 1} avec
+ 0 1
0 0 1
1 1 0

On ajoute une multiplication

× 0 1
0 0 1
1 0 1

Cela nous fait bien un anneau (à vérifier).


4. On peut aussi construire un anneau à 4 éléments. On pose G2 = {0, 1, 2, 3} avec la loi

+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2

Là aussi on ajoute une multiplication où a = 1.

× 0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
c 0 3 2 1

On peut vérifier que cela fait un anneau.

155
Définition [Link]

Soit ( A, +, ×) un anneau. Un élément x de A est dit inversible s’il est inversible pour la multiplication.
C’est-à-dire s’il existe y dans A tel que xy = yx = 1. Dans ce cas y est unique et on le note y−1 . On dit aussi
que x est une unité

Remarques :
1. La notion d’inversible réfère à la loi × et pas la loi +. Tous les éléments sont « inversible » par +.
2. A priori, il y a des éléments qui ne sont pas inversibles dans un anneau.
1 y0 1 1
3. On ne note pas l’inverse pour éviter d’écrire par la suite qui pourrait être y0 × ou × y0 qui sont à
x y y y
priori différents.
4. On nota la plupart du temps A× l’ensemble des éléments inversibles d’un anneau.
5. Quand un élément x est inversible, on étend les notations x n au cas où n est négatif.

Proposition [Link]

Soit ( A, +, ×) un anneau. L’ensemble des éléments inversibles forme un groupe multiplicatif noté
( A× , ×).

Démonstration

Exemples :
1. Dans Z, 1 et −1 sont les seuls inversibles. On a donc Z× = {±1}. Cette notation est en conflit avec Z \ {0}
c’est pour cela qu’il vaut mieux ne pas utiliser les deux ou alors préciser ce dont on parle.
2. Les éléments inversibles de R sont tous les réels non nuls.
3. Les éléments inversibles de RR sont les fonctions qui ne s’annulent pas.

Définition [Link] (Sous-anneau)

Soit ( A, +, ×) un anneau. On appelle, sous-anneau de A tout sous groupe de ( A, +) contenant 1 et qui est
stable par multiplication.

Exemples :
1. On voit Z est un sous-anneau de R.
2. {0} n’est pas un sous-anneau de R car il ne contient par 1.
√ √
Exercice
√ : Soit d ∈ N. Montrer√ que Z [ 5 ] = { a + b 5 | ( a, b) ∈ Z2 } est un sous-anneau de R. L’élément
1 + 5 est-il inversible ? Et 2 + 5 ?

2.2 Règles de calculs


Les axiomes des anneaux sont fait pour pouvoir faire les calculs « comme d’habitude ».

Proposition [Link]

Soit A un anneau.
1. Soit x dans A, 0.x = x.0 = 0. On dit que 0 est absorbant.
2. Si A n’est pas l’anneau nul alors 1 6= 0.
3. Soit x et y dans A : (− x ).y = x.(−y) = −( x.y).

156
Démonstration :
1. On a 0.x + 0.x = (0 + 0).x = 0.x. En ajoutant le symétrique de 0.x de part et d’autre on a 0.x = 0. De
même dans l’autre sens.
2. Si on suppose que 1 = 0 alors, pour α un élément de A. On a

α = 1.α = 0.α = 0.

L’anneau est obligatoirement l’anneau nul.


3. On a (− x ).y + xy = (− x + x ).y = 0.y = 0 donc (− x ).y est le symétrique de xy c’est-à-dire : (− x ).y =
−( x.y).


Définition [Link]

On appelle anneau intègre, un anneau commutatif vérifiant que

∀( x, y) ∈ A2 , xy = 0 ⇒ x = 0 ou y = 0.

Exemple : Les anneaux Z, R, C sont intègres. Nous verrons plus tard des exemples d’anneau qui ne sont pas
intègres.

Proposition [Link]

Soit ( A, +, ×) un anneau.
n  
k
1. Soit n ∈ N. Si xy = yx alors ( x + y)n = ∑ n x k yn−k .
k =0
n
2. Soit n ∈ N. Si xy = yx alors ( x n+1 − yn+1 ) = ( x − y) ∑ x k yn−k .
k =0
n
3. Soit n ∈ N et x ∈ A, (1 − x ) ∑ k k = 1 − x n +1 .
k =0

ATTENTION

Cela ne « marche » que si xy = yx. Par exemple ( x + y)2 = x2 + xy + yx + y2 dans le cas général.

2.3 Corps
Définition [Link]

Un ensemble (K, +, ×) est un corps si c’est un anneau commutatif dont tous les éléments non nuls sont
inversibles.

Exemples :
1. Les ensembles Q, R, C sont des corps.
2. L’ensemble Z n’est pas un corps.
3. L’ensemble G1 est un corps mais pas G2 .
Remarque : Un corps est intègre.
a
Notation : Soit K un corps. Pour ( a, b) dans K avec b 6= 0 on note pour ab−1 = b−1 a.
b

157
Proposition [Link]

Soit a un élément non nul


n
1 − a n +1
∑ ak = 1−a
.
k =0

Définition [Link]

Soit K un corps et L un sous-anneau de K. On dit que L est un sous-corps de K ou que K est un sur corps de
L.

Exemple : Q, R et C.

158
Arithmétique de Z
11
1 Divisibilité dans Z 159
1.1 Diviseurs et multiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
1.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
1.3 Congruences dans Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2 Plus grand commun diviseur (PGCD) 161
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2.2 Algorithme d’Euclide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
2.3 Relation de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
2.4 Algorithme d’Euclide augmenté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
2.5 Nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
2.6 Résolution de l’équation au + bv = c. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
2.7 PGCD de plusieurs entiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
3 Le plus petit commun multiple (PPCM) 168
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
3.2 Lien avec le PGCD et nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
4 Nombres premiers 169
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
4.2 Décomposition en produit de facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170

1 Divisibilité dans Z
1.1 Diviseurs et multiples
Définition [Link]

Soit a et b deux entiers relatifs, on dit que a est un diviseur de b ou que b est un multiple de a s’il existe un
entier k tel que b = ak.

Notations :
1. On note a|b pour a divise b.
2. On note D ( a) l’ensemble des diviseurs de a.
3. On note aZ l’ensemble des multiples de a. On a aZ = { ak | k ∈ Z}.

159
Exemples :
1. Le nombre 2 divise 6. De même −2 divise 6.
2. Les entiers 1 et −1 divisent tous les entiers mais D (1) = D (−1) = {±1}.
3. Tout entier divise 0 ou 0 est un multiple de tous les entiers. Par contre 0Z = {0}.

Proposition [Link]

Soit a et b deux entiers


( a|b et b| a) ⇐⇒ | a| = |b|.

Remarques :
1. On dit alors que les entiers a et b sont associés.
2. C’est une méthode pour montrer que deux nombres sont égaux. Il faut faire attention que, dans Z ils
peuvent être opposés.
3. La relation de divisibilité est transitive, réflexive mais elle n’est pas anti-symétrique.
Démonstration : Démontrons le sens qui n’est pas trivial. On suppose donc qu’il existe k et k0 des entiers tels
que a = kb et b = k0 a d’où a = kk0 a c’est-à-dire a(1 − kk0 ) = 0.
— Si a = 0, comme a|b on a b = 0.
— Si a 6= 0, kk0 = 1 car le produit de deux entiers est nul si et seulement si l’un des deux est nul. En particulier
k et k0 divise 1 d’où |k| = |k0 | = 1. On en déduit | a| = |b|.


Proposition [Link]

1. Soit a, b et c trois entiers. On suppose que a|b et a|c alors pour tout (u, v) ∈ Z2 , a|(ub + vc).
2. Soit a, b et c trois entiers avec c 6= 0 :

a|b ⇐⇒ ac|bc.

Démonstration : En exercice. 

1.2 Division euclidienne


Théorème [Link] (Division euclidienne)

Soit a un entier relatif et b un entier naturel non nul. Il existe un unique couple (q, r ) où q est un
entier relatif et r ∈ [[ 0 ; b − 1 ]] tel que
a = bq + r.
Le nombre q s’appelle le quotient et le nombre r s’appelle le reste.

Démonstration : On a déjà démontré le cas où a ∈ N dans le chapitre 6. Le cas général se traite en remarquant
que a + | a|b est un entier naturel auquel on peut appliquer la division euclidienne. 
Remarques :
1. On peut voir que q = E( a/b) même si cette caractérisation est rarement utile car « on sort des entiers ».
2. De manière évidente, a|b ⇐⇒ r = 0.

160
1.3 Congruences dans Z
Définition [Link]

Soit m un entier naturel non nul. On définit la relation binaire sur Z

∀( a, b) ∈ Z2 , a ≡ b[m] ⇐⇒ m|( a − b).

On dit alors que a et b sont congrus modulo m.

Remarque : On peut aussi définir la relation en disant que a et b ont le même reste dans la division euclidienne
par m.

Proposition [Link]

La relation binaire de congruence est une relation d’équivalence.

Théorème [Link]

Soit m ∈ N? . La relation de congruence modulo m est compatible à l’addition et à la multiplication.


C’est-à-dire :
1. ∀( a, b, a0 , b0 ) ∈ Z4 , a ≡ b[m] et a0 ≡ b0 [m] ⇒ ( a + a0 ) ≡ (b + b0 )[m].
2. ∀( a, b, a0 , b0 ) ∈ Z4 , a ≡ b[m] et a0 ≡ b0 [m] ⇒ ( aa0 ) ≡ (bb0 )[m].
3. ∀( a, b) ∈ Z2 , ∀k ∈ N, a ≡ b[m] ⇒ ak ≡ bk [m].

Démonstration : Pour le point 2. il suffit de remarquer que aa0 − bb0 = a( a0 − b0 ) + b0 ( a − b). 


Exemples :
1. Calculons le reste de la division euclidienne de 1003 par 7. On a 100 ≡ 2[7] Donc 1003 ≡ 8[7] d’où
1003 ≡ 1[7].
2. Critères de divisibilité par 3 et 9 : Soit N un nombre. On note a0 , . . . a p ses chiffres dans l’écriture
décimale. On a
p
N= ∑ ak 10k .
k =0
Or, si on remarque que 10 est congru à 1 modulo 3 (ou 9) on en déduit que
p
N≡ ∑ ak [3] ou [9].
k =0

On en déduit qu’un nombre entier est divisible par 3 (ou 9) si et seulement si la somme de ses chiffres l’est.
3. On veut montrer que si p2 est pair alors p2 est divisible par 4. On regarde les congruences modulo 4 de p.
C’est 0, 1, 2 ou 3. De ce fait la congruence de p2 est 0, 1, 0 ou 1. Donc si ce n’est pas 1 (car p2 est pair) cela
ne peut être que 0 (et pas 2).
Exercice : Déterminer des critères de divisibilité par 11 et 37.

2 Plus grand commun diviseur (PGCD)


2.1 Généralités
Proposition [Link]

Soit a et b deux entiers naturels. Si ( a, b) 6= (0, 0), l’ensemble D ( a) ∩ D (b) des diviseurs communs à
a et b est un ensemble non-vide et majoré de Z. En particulier il admet un plus grand élément.

161
Démonstration : L’ensemble D ( a) ∩ D (b) est non vide car il contient 1. Si a est non nul il est majorée par a. Si a
est nul (et donc b non nul), il est majorée par b. 

Définition [Link]

Soit a et b deux entiers relatifs. Le PGCD de a et de b que l’on note a ∧ b est :


— le plus grand élément de D (| a|) ∩ D (|b|) si ( a, b) 6= (0, 0).
— 0 si a = b = 0 par convention.

Remarque : On voit que l’on travaille avec les valeurs absolues de a et de b. De ce fait, on se ramènera souvent
au cas des entiers naturels.
Exemples :
1. On a 13 ∧ 6 = 1
2. On a 15 ∧ 6 = 3.
3. Si a 6= 0, a ∧ 0 = | a|. En effet D (0) ∩ D (| a|) = D (| a|). Le plus grand élément de D (| a|) est | a|.

2.2 Algorithme d’Euclide


La méthode la plus simple pour calculer le PGCD de deux nombres est d’utiliser l’algorithme d’Euclide. Ce
dernier se base sur le lemme suivant.

Lemme [Link]

Soit a et b deux entiers naturels avec b 6= 0. Si r est le reste de la division euclidienne de a par b alors

D ( a ) ∩ D ( b ) = D ( b ) ∩ D (r ).

De ce fait a ∧ b = b ∧ r.

Démonstration : Par définition on a a = bq + r où q est le quotient de la division euclidienne. Soit n ∈ Z. On


a que si n| a et n|b alors n|r = a − bq. Réciproquement si n|b et n|r alors n| a = qb + r. En conclusion on a bien
D ( a) ∩ D (b) = D (b) ∩ D (r ) et donc a ∧ b = b ∧ r. 
On cherche le PGCD de a et de b. Le principe est que tant que b n’est pas nul on remplace a par b et b par le
reste de la division euclidienne de a par b. On recommence jusqu’à ce que b vaille 0. Le PGCD est alors la valeur
de a. On dit que c’est le dernier reste non nul. Cela nous donne en python
def euclide(a,b) :
while b <> 0 :
r = a%b
a = b
b =r
return a
Le programme termine car la variable b décrit une suite strictement décroissante d’entiers naturels. Pour
l’invariant de boucle il suffit de choisir D ( a) ∩ D (b).
Mathématiquement on peut voir cela comme la construction de deux suites ( ak ) et (bk ) définies par a0 = a
et b0 = b. Les formules de récurrence étant

a k + 1 = bk
∀k ∈ N,
bk+1 = ak mod bk

La suite (bk ) décroit strictement. Il existe n tel que bn = 0 et on a an = a ∧ b.


Remarques :
1. Historiquement Euclide l’a fait en utilisant que D ( a) ∩ D (b) = D ( a − b) ∩ D (b).
2. Cela fonctionne aussi si a < b, a = 0 ou b = 0.
Exemples :

162
1. On prend a = 53 et b = 17
53 = 1 × 37 + 16
37 = 2 × 16 + 5
16 = 3 × 5 + 1
5 = 5×1+0
Donc 53 ∧ 37 = 1.
2. On prend a = 156 et b = 42
156 = 3 × 42 + 24
42 = 1 × 24 + 18
24 = 1 × 18 + 6
18 = 3 × 6 + 0
Donc 156 ∧ 42 = 6.
Remarque : Bien évidemment, si a ou b est négatif, on peut appliquer cet algorithme à | a| et |b|.

2.3 Relation de Bézout


Théorème [Link] (IMPORTANT - Relation de Bézout)

Soit a et b deux entiers. Il existe des couples (u, v) ∈ Z2 tels que

au + bv = a ∧ b.

De tels couples s’appellent des coefficients de Bézout.

Démonstration : Quitte à remplacer a et b par | a| et |b|, on peut supposer que ce sont des entiers naturels.
On va procéder par récurrence forte sur b. Précisément, pour b ∈ N on pose
Hb = ”∀ a ∈ N, ∃(u, v) ∈ Z2 , au + bv = a ∧ b”.
— Initialisation : Pour b = 0 c’est vrai car a ∧ 0 = a = a × 1 + 0 × 0.
— Hérédité : Soit b ∈ N? , on suppose que pour tout entier k < b, Hk est vraie. Si on écrit la division
euclidienne de a par b on a a = bq + r et a ∧ b = b ∧ r. On peut donc utiliser Hr pour justifier l’existence
de u0 et v0 dans Z tels que
bu0 + rv0 = b ∧ r = a ∧ b.
Il ne reste plus qu’à remplacer r par r = a − bq. Cela donne
a ∧ b = bu0 + ( a − bq)v0 = av0 + b(u0 − qv0 ).
On pose u = v0 et v = u0 − qv0 .

Remarques :
1. Nous verrons plus loin comment les calculer à partir de l’algorithme d’Euclide. Ce calcul pourra donner
une preuve algorithmique de l’existence.
2. Si on note aZ + bZ l’ensemble des nombres de la forme au + bv où u et v sont des entiers relatifs, le
théorème prouve que a ∧ b appartient à aZ + bZ. On en déduit immédiatement que c’est aussi le cas pour
les multiples de a ∧ b. C’est-à-dire ( a ∧ b)Z ⊂ aZ + bZ. Réciproquement, un élément de la forme au + bv
est divisible par a ∧ b car ce dernier divise a et b. En conclusion
( a ∧ b)Z = aZ + bZ.

Corollaire [Link] (IMPORTANT)

Soit a et b deux entiers relatifs. Pour tout entier n,

(n| a et n|b) ⇔ n| a ∧ b.

Cela signifie que les diviseurs communs à a et b sont les diviseurs de a ∧ b.

163
Démonstration :
— ⇐ Par transitivité de la division car ( a ∧ b) divise a et b.
— ⇒ Soit n un entier qui divise a et b. On sait qu’il existe d’après le théorème de Bezout, des entiers u et v
tels que a ∧ b = au + bv. On en déduit que n| au et n|bv et donc n| a ∧ b.
Remarque : Le sens ⇒ signifie que a ∧ b est le plus grand diviseur commun de a et b au sens de la division.

2.4 Algorithme d’Euclide augmenté


On a vu que l’algorithme d’Euclide permet de déterminer le PGCD de deux nombres que nous supposerons
positifs (en effet on peut prendre la valeur absolue sans changer le PGCD).
On peut maintenant modifier l’algorithme d’Euclide afin de déterminer de plus un couple (u, v) tel que
au + bv = a ∧ b.
Reprenons les suites définies dans l’algorithme d’Euclide. On veut construire une des suites (uk ) et (vk )
telles que
auk + bvk = ak .
Comme on sait que ak+1 = bk , on a aussi besoin de suite u0k et v0k vérifiant

au0k + bv0k = bk .

On peut alors aisément calculer les relations de récurrences de ces suites


 0
 uk+1 = u0k

 v k +1 = v k
∀k ∈ N,

 u0 = uk − qu0k
 k0 +1
vk+1 = vk − qv0k

Dans les relations de récurrence, q désigne le quotient de ak par bk . Cela vient du fait que bk+1 = ak mod bk =
ak − qbk .
Par exemple pour a = 156 et b = 42.

ak bk q r uk vk u0k v0k
156 42 3 30 1 0 0 1
42 30 1 12 0 1 1 −3
30 12 2 6 1 −3 −1 4
12 6 2 0 −1 4 3 −11
6 0 3 −11
On trouve donc que
6 = 3 × 156 − 11 × 42.
En python cela donne
def euclideplus(a,b) :
u = 1
v = 0
uu = 0
vv = 1
# On initialise les variables u, v, uu (pour u’) et vv (pour v’)
while b <> 0 :
r = a % b
q = a / b
uuu = u - q*uu
vvv = v - q*vv
u = uu
v = vv
uu = uuu
vv = vvv
# on calcule les nouvelles valeurs de u, v, uu et vv
#(on utilise uuu et vvv comme variables temporaires)
a = b
b = r
return (u,v,a)

164
Là encore l’algorithme termine car la variable b est un entier naturel qui décroit strictement à chaque itération.
Pour prouver que l’algorithme renvoie les valeurs voulue il suffit de voir que A ∗ u + B ∗ v = a où A et B sont
les valeurs initiales des paramètres.

2.5 Nombres premiers entre eux


Définition [Link]

Soit a et b deux entiers relatifs. On dit que a et b sont premiers entre eux si et seulement si a ∧ b = 1. Cela
signifie que les seuls diviseurs communs de a et b sont 1 et −1.

Exemple : Les nombres 12 et 35 sont premiers entre eux.


Remarque : Les nombres 1 et −1 sont premiers avec tous les nombres. Par contre 0 n’est premier qu’avec 1 et
−1.

Proposition [Link]

Soit a et b deux entiers relatifs :

( a et b sont premiers entre eux ) ⇐⇒ (∃(u, v) ∈ Z2 , au + bv = 1).

Démonstration :
— ⇒ : C’est la relation de Bézout
— ⇐ : On suppose qu’il existe u et v tels que au + bv = 1. Cela implique que aZ + bZ = Z. En utilisant la
remarque après le théorème de Bézout on obtient a ∧ b = 1.

Exemple : On peut ainsi montrer que pour tout entier n non nul, 2n + 1 et 9n + 4 sont premiers entre eux. En
effet 9.(2n + 1) − 2(9n + 4) = 1.

Corollaire [Link]

Soit a et b deux entiers premiers entre eux et a0 et b0 des diviseurs de a et b respectivement. Les
nombres a0 et b0 sont premiers entre eux.

Proposition [Link]

Soit a et b deux entiers naturels. On note d = a ∧ b. Il existe deux entier a0 et b0 premiers entre eux
tels que
a = da0 et b = db0 .

Démonstration :
— Si a = b = 0 on peut prendre a0 = b0 = 1.
— Sinon, d 6= 0. Il existe par définition, a0 et b0 tels que a = a0 d et b = b0 d. D’après ce qui précède il existe u et
v tels que au + bv = d ce qui s’écrit
a0 du + b0 dv = d.
En divisant par d on obtient
a0 u + b0 v = 1
On en déduit que a0 et b0 sont premiers entre eux.

Remarques :

165
1. Si on exclut le cas où a = b = 0 ce résultat peut s’écrire sous la forme plus simple suivant. Si a et b sont
a b
deux entiers alors et sont premiers entre eux.
a∧b a∧b
2. On utilisera cela dans les les exercices pour ramener un problème au cas des nombres premiers entre eux
La propriété principale des nombres premiers entre eux est le lemme de Gauss.

Théorème [Link] (Lemme de Gauss)

Soit a, b et c trois entiers relatifs.


( a ∧ b = 1 et a|bc) ⇒ a|c.

Remarque : Commençons par remarquer que cela n’est pas vrai si a et b ne sont pas premiers entre eux. Prenons
par exemple a = 2, b = 2 et c = 3 on a bien a|bc mais a ne divise pas c.
Démonstration : On utilise le théorème de Bézout. Soit (u, v) tels que au + bv = 1 on en déduit que
auc + bvc = c.
Or a| auc et a|bvc donc a|c. 
Exemple : Cela permet de redémontrer que si p est un entier alors p2
pair implique p est pair. En effet si
supposons par l’absurde que p ne soit pas pair. Donc p est premier avec 2. On en déduit, comme 2| p × p que
2| p. C’est absurde.

Définition [Link]

a
Soit r un nombre rationnel. On appelle écriture irréductible de r une écriture de la forme où a ∈ Z et b ∈ N?
b
avec a et b premiers entre eux.

Corollaire [Link]

Tout nombre rationnel a une unique écriture irréductible.

Démonstration : C’est vrai pour r = 0 car 1 est le seul nombre positif premier avec 0.
Si r 6= 0, on prouve l’existence en prenant une écriture et en divisant par le pgcd du numérateur et du
dénominateur (après avoir éventuellement changé le signe du numérateur). Pour l’unicité, on se donne deux
écritures qui vérifient l’énoncé. On a
a a0
r = = 0.
b b
On en déduit que ab0 = a0 b. En particulier b|( ab0 ) mais comme a et b sont premiers entre eux, b|b0 . En refaisant
le raisonnement dans l’autre sens, on trouve que b et b0 sont associés, comme ils sont positifs, ils sont égaux. On
a donc b = b0 et a = a0 en découle.


Corollaire [Link]

Soit a, b et c trois entiers relatifs.

( a ∧ b = 1 et a ∧ c = 1) ⇒ a ∧ (bc) = 1.

En particulier, si a et b sont premier entre eux alors an et bm aussi pour tout n, m non nuls.

Démonstration : On suppose que a ∧ b = 1 et a ∧ c = 1. Il existe donc (u, v) et (u0 , v0 ) tels que au + bv = 1 et


au0 + cv0 = 1. En faisant le produit on trouve
a( auu0 + cv0 u + bvu0 ) + bcvv0 = 1.
On en déduit que a et bc sont premiers entre eux. 

166
2.6 Résolution de l’équation au + bv = c.
On se donne trois entiers relatifs a, b et c et on suppose que a et b sont non nuls et on veut résoudre l’équation
au + bv = c d’inconnues (u, v). On notera d = a ∧ b.
1. On a vu que aZ + bZ = dZ. De ce fait, si d ne divise pas c, S = ∅. Dans la suite on suppose que d|c de ce
fait on sait qu’il y a des solutions.
2. D’après ce qui précède on sait trouver (u0 , v0 ) vérifiant au0 + bv0 = d. Il ne reste plus qu’à multiplier par
k tel que c = kd pour trouver une solution de l’équation. Nous noterons (α0 , β 0 ) cette solution.
3. Supposons donc que l’on connaisse une solution (α0 , β 0 ) de l’équation. On a alors pour tout (u, v) dans
Z2 :
au + bv = c ⇐⇒ au + bv = au0 + bv0 ⇐⇒ a(u − β 0 ) + b(v − β 0 ) = 0.
Il ne nous reste donc qu’à résoudre l’équation aU + bV = 0.
4. On peut noter a0 et b0 tels que a = da0 et b = db0 avec a0 et b0 premiers entre eux. On a alors

aU + bV = 0 ⇐⇒ d( a0 U + b0 V ) = 0 ⇐⇒ a0 U + b0 V = 0.

5. Pour finir, soit (U, V ) une solution de a0 U + b0 V = 0 on a donc a0 U = −b0 V d’où a0 |b0 V et donc a0 |V car a0
et b0 sont premiers entre eux. On en déduit que les solutions de cette équation sont {(kb0 , −ka0 ) | k ∈ Z}.
L’ensemble des solutions est donc :

{(α0 + kb0 , β 0 − ka0 ) | k ∈ Z} si d |c
S=
∅ sinon

2.7 PGCD de plusieurs entiers


Nous allons généraliser ce que l’on vient de faire pour deux entiers à plusieurs entiers. On se fixe p > 2.
La plupart des démonstrations ne seront qu’esquissées car semblables au cas de deux entiers.

Proposition [Link]
Tp
Soit a1 , . . . , a p des entiers naturels non tous nuls. L’ensemble i =1 D ( a i ) est non vide et majorée.

Définition [Link]

Soit ( ai )16i6 p une famille d’entiers.


— Si a1 = · · · = a p = 0 on appelle PGCD de la famille ( ai )16i6 p et on note a1 ∧ · · · ∧ a p = 0
— Si un des ai n’est pas nul on appelle PGCD de la famille ( ai )16i6 p et on note a1 ∧ · · · ∧ a p le plus
Tp
grand élément de i=1 D (| ai |)

Exemples :
1. On a 3 ∧ 9 ∧ 12 = 3
2. On a 3 ∧ 6 ∧ 10 = 1.

Proposition [Link] (Relation de Bézout)

Soit ( ai )16i6 p une famille d’entiers. Il existe une famille (ui )16i6n d’entiers tels que

a1 u1 + · · · + a p u p = a1 ∧ · · · ∧ a p .

Démonstration : On procède par récurrence sur p > 2. On note H p le prédicat


« pour toute famille ( ai )16i6 p il existe une famille (ui )16i6 p d’entiers tels que a1 u1 + · · · + a p u p = a1 ∧ · · · ∧
ap. »
— Initialisation Si p = 2 c’est le cas connu

167
— Hérédité On suppose la propriété vraie pour p et on la démontre pour p + 1. On procède par récurrence
sur a p+1 . On note Gn le prédicat « pour toute famille ( ai )16i6 p il existe une famille (ui )16i6( p+1) d’entiers
tels que a1 u1 + · · · + a p u p + a p+1 n = a1 ∧ · · · ∧ a p ∧ n. »(Ici la variable est n et pas p).
— Initialisation Si n = 0 on est ramené à H p
— Hérédité Si n > 0, on procède comme dans la démonstration de la relation de Bézout en effectuant a
division euclidienne de a p par n.

Remarque : Comme dans le cas de deux nombres, on peut en déduire que

a1 Z + · · · + a p Z = ( a1 ∧ · · · ∧ a p )Z.

Corollaire [Link]

Avec les mêmes notations

∀n ∈ Z, (n| a1 et · · · et n| a p ) ⇐⇒ n| a1 ∧ · · · ∧ a p .

Définition [Link]

Soit ( ai )16i6 p une famille d’entiers.


1. On dit qu’ils sont premiers entre eux dans leur ensemble si a1 ∧ · · · ∧ a p = 1
2. On dit qu’ils sont deux à deux premiers entre eux si : ∀(i, j) ∈ [[ 1 ; p ]]2 , i 6= j ⇒ ai ∧ a j = 1

Remarque : Il est clair que si les nombres sont deux à deux premiers entre eux ils sont premiers entre eux dans
leur ensemble. En effet un diviseur commun aux p entiers est aussi un diviseur commun à deux d’entre eux. La
réciproque est fausse. Par exemples si on prend a = 6, b = 15 et c = 10. Alors a ∧ b = 3, a ∧ c = 2 et b ∧ c = 5
par contre a ∧ b ∧ c = 1.

3 Le plus petit commun multiple (PPCM)


3.1 Définition
Définition [Link]

Soit a et b deux entiers. On appelle plus petit commun multiple (PPCM) de a et de b et on note a ∨ b l’élément
défini de la manière suivante :
— Si a = 0 ou b = 0 on pose a ∨ b = 0.
— Si a 6= 0 et b 6= 0, a ∨ b est le plus petit élément strictement positif de aZ ∩ bZ.

Remarque : L’ensemble aZ ∩ bZ est l’ensemble des nombres qui sont des multiples de a et de b. Si ab 6= 0, il
contient | ab| donc aZ ∩ bZ admet un plus petit élément strictement positif.
Remarques :
1. On a aussi a ∨ b = | a| ∨ |b|.
2. On a a ∨ b = 0 si a ou b est nul.

Proposition [Link] (IMPORTANT)

Soit a et b deux entiers relatifs et D = a ∨ b. On a

∀n ∈ Z, ( a|n et b|n) ⇔ D |n.

168
Démonstration : Si a = 0 ou b = 0 c’est évident. La partie ⇐ est évidente car a| D et b| D. On finira la
démonstration dans le paragraphe suivant.

Remarque : On en déduit bien que D = a ∨ b est un multiple commun à a et b. De plus c’est le plus petit au
sens de la division et de ce fait aussi au sens de l’ordre de Z.

3.2 Lien avec le PGCD et nombres premiers entre eux


Proposition [Link]

Soit a et b deux entiers, si a et b sont premiers entre eux a ∨ b = | ab|.

Démonstration : On peut se ramener à a et b strictement positif. On voit déjà que ab est un multiple commun de
a et de b. De plus, si d est un multiple commun de a et b strictement positif. Il existe k tel que d = ak. Maintenant,
b|d donc b|( ak ). Par le lemme de Gauss b|k. Donc d = abk0 d’où d > ab. On en déduit que ab est bien le plus
petit multiple commun de a et b qui soit strictement positif.
On a bien a ∨ b = | ab|. 

Corollaire [Link]

Soit a et b deux entiers,


1. Pour tout entier k, ka ∧ kb = k ( a ∧ b) et ka ∨ kb = k( a ∨ b).
2. On a | ab| = ( a ∧ b)( a ∨ b).

Démonstration :
1. En exercice
2. On se ramène comme d’habitude au cas des entiers strictement positifs. Il suffit ensuite d’utiliser a0 et b0
premiers entre eux qui vérifient a = da0 et b = db0 ou d = a ∧ b. On a alors d’après 1.

a ∨ b = (da0 ) ∨ (db0 ) = d( a0 ∨ b0 ) = da0 b0 .

En multipliant par d = a ∧ b on a
( a ∧ b)( a ∨ b) = d2 a0 b0 = ab.

Remarque : On en déduit une méthode simple pour déterminer le PPCM. On calcule le PGCD et on a
| ab|
a∨b = . Par exemple si a = 152 et b = 68. On a a ∧ b = 4 donc a ∨ b = 152 × 17 = 2584.
a∧b
On peut maintenant démontrer notre théorème ci-dessus.
Démonstration : Comme d’habitude on se ramène au cas où a et b sont strictement positifs. On veut montrer
que
∀n ∈ Z, ( a|n et b|n) ⇒ D | n où D = a ∧ b.
Comme ci-dessus, on pose d = a ∧ b et a = da0 , b = db0 . De ce fait D = da0 b0 . Maintenant, si a|n, on peut écrire
n = ka = kda0 . De plus b|n d’où db0 |dka0 . Cela implique b0 |ka0 et donc b0 |k car a0 et b0 sont premiers entre eux.
Finalement, en notant k = b0 u on obtient n = dub0 a0 = uD. On a bien D |n. 

Corollaire [Link]

Si a et b sont premiers entre eux. Pour tout entier n, a|n et b|n implique ab|n.

4 Nombres premiers
Nous travaillons dans N dans ce paragraphe.

169
4.1 Généralités
Définition [Link]

On appelle nombre premier un entier naturel différent de 1 n’admettant pour diviseurs que 1 et lui même. On
note P l’ensemble des nombres premiers.

Exemple : Les premiers nombres premiers sont : 2, 3, 5, 7, 11, 13.

Proposition [Link]

Soit p un nombre premier et n un entier. Les entiers p et n sont premiers entre eux ou p divise n. En
particulier si n ∈ [[ 1 ; p − 1 ]] alors p et n sont premiers entre eux.

−1
Exemple : Soit k ∈ [[ 1 ; p − 1 ]] alors ( kp) est divisible par p. En effet on sait que k( kp) = p( kp− 1
). Donc p divise
p p
k ( k ) mais comme k et p sont premiers entre eux, p divise ( k ).

Proposition [Link]

1. Soit p un nombre premier et a, b deux entiers. On a p| ab ⇒ ( p| a ou p|b).


2. Tout entier naturel strictement supérieur à 1 admet un diviseur premier.
3. Il y a une infinité de nombres premiers.

Démonstration :
1. Évident
2. Par récurrence forte.
3. Supposons par l’absurde qu’il existe un nombre fini de nombre premiers. Notons les ( p1 , . . . , pn ). On
n
considère m = ∏ pk + 1. Ce nombre n’est divisible par aucun pi or il admet un diviseur premier. C’est
k =1
absurde.

Remarque : Le dernier point est du à Euclide.
Exercice : Montrer qu’il existe une infinité de nombres premiers congru à −1 modulo 4. On pourra considérer
4 ∏ pk − 1.

4.2 Décomposition en produit de facteurs premiers


Théorème [Link] (Décomposition en produit de facteurs premiers)

Soit n un entier naturel supérieur ou égal à 2.


Le nombre n admet une décomposition en produit de nombres premiers
α α
n = q1 q2 · · · qr = p1 1 × · · · p k k

(la deuxième écriture est obtenue en regroupant les différentes occurrences d’un même nombre
premier on a donc que les pi sont deux à deux disjoints).
De plus cette décomposition est unique à l’ordre des facteurs près.

Remarque : Il arrive que l’on doivent ajouter des nombres premiers qui n’apparaissent pas dans la décomposi-
tion. Dans ce cas on les affecte de l’exposant αi = 0.
Démonstration : Commençons par l’existence. Cela se fait par récurrence forte sur n. On note Hn l’hypothèse
« n peut se décomposer en produit de nombres premiers.

170
— Initialisation : Pour n = 2 c’est vrai.
— Hérédité Soit n un entier au moins égal à 3 on suppose que Hk est vrai pour tout k ∈ [[ 2 ; n − 1 ]] . On
sait que n admet un diviseur premier. Soit p ce diviseur. On a donc n = p.n0 Si n0 = 1, on a fini. Sinon, on
utilise Hn0 .
Par récurrence (forte) on a que tout entier supérieur à 2 admet une décomposition en facteurs premiers.
Montrons maintenant l’unicité. On suppose se donner deux décompositions
β β
n = p1 1 × · · · × prαr = p1 1 × · · · × pr r .
α

On peut supposer que les deux décompositions sont sur les mêmes nombres premiers en utilisant la remarque
ci-dessus. Supposons par l’absurde que ces deux décompositions diffèrent. Il existe alors i ∈ [[ 1 ; r ]] tel que
α
αi 6= β i . Par symétrie on suppose que αi < β i . On obtient alors, après « simplification » par pi i que

β − αi
∏ pj ∏ pj
αj βj
= pi i .
j 6 =i i6= j

On voit alors que pi divise le terme de droite mais pas celui de gauche par pi est premier avec tous les p j
( j 6 = i ).
On a donc bien unicité de la décomposition.

Exemple : Soit n = 893172. On a n = 22 .3.74 .31.
Remarque : Le problème de calculer la décomposition d’un nombre entier est un sujet de recherche important.
Actuellement on ne sait pas trouver une telle décomposition en temps polynomial. Si on y arrivait cela mettrait
à mal toutes les techniques de chiffrages à clé publique type RSA.

Proposition [Link]

Soit a et b deux entiers. On note


β β
a = p1 1 × · · · × prαr et b = p1 1 × · · · × pr r
α

les décompositions en facteurs premiers. On a alors


1. Le nombre a divise b si et seulement si ∀i ∈ [[ 1 ; r ]] , αi 6 β i .
2. On a
r Min(αi ,β i ) r Max(αi ,β i )
a∧b = ∏ pi et a ∨ b = ∏ pi .
i =1 i =1

Définition [Link]

Soit p un nombre premier. On définit la valuation p-adique d’un nombre entier n comme étant l’exposant que
p dans sa décomposition. On la note v p (n).

Remarque : On a donc p|n ⇐⇒ v p (n) > 1.


Exemple : On a v2 (12) = 2, v3 (12) = 1 et v5 (12) = 0.

Proposition [Link]

1. Soit a et b deux entiers naturels :

a|b ⇐⇒ ∀ p ∈ P, v p ( a) 6 v p (b).

2. Pour tout nombre premier p,

v p ( a ∧ b) = Min(v p ( a), v p (b)) et v p ( a ∨ b) = Max(v p ( a), v p (b)).

171
Théorème [Link] (Petit théorème de Fermat)

Soit p un nombre premier et a un entier non divisible par p. On a

a p −1 ≡ 1 [ p ] .

Remarque : On peut le généraliser en enlevant la condition que p ne divise pas a. On obtient alors a p ≡ a[ p].
Démonstration : Soit a un entier. On a
p  
p k p−k
( a + 1) p = ( a + 1) p = ∑ a 1 ≡ a p + 1 p [ p]
k =0
k
 
p
Le résultat de congruence vient du fait que si k ∈ [[ 1 ; p − 1 ]], ≡ 0 [ p]
k
p
On en déduit alors par une récurrence immédiate que a ≡ a [ p] pour tout entier a.
Maintenant si p ne divise pas a alors a et p sont premiers entre eux et d’après la relation de Bézout il existe
des entiers u et v tels que
au + pv = 1
Cela revient à au ≡ 1 [ p]. On en déduit que

ua p ≡ au [ p] ⇐⇒ uaa p−1 ≡ 1 [ p] ≡ a p−1 ≡ 1 [ p]

172
1 Limites
12Limites
174
1.1 Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1.2 Voisinage et propriétés locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
1.3 Limite à droite et à gauche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
1.4 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
1.5 Caractérisation séquentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
1.6 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
1.7 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
1.8 Fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
2 Relations de comparaisons 183
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
2.3 Équivalents classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
2.4 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188

Notation : Dans ce chapitre I désignera toujours un intervalle de R non vide et non réduit à un point.
Nous allons dans un premier temps définir la notion de limite en un point (ou en ±∞) puis nous étudierons
ses propriétés.
Exemples :
1
1. Soit f la fonction inverse définie sur R? par f : x 7→ .
x
— si on prend pour x des valeurs proches de 2, f ( x ) sera proche de 0, 5 :

x f (x)
2, 1 0, 476
2, 01 0, 496
1, 99 0, 503

— si x est très grand (ou proche de +∞) alors f ( x ) va être très petit.

x f (x)
1000 0, 001
10000 0, 0001
100000 0, 00001

173
2. On considère la fonction partie entière b.c. Là encore on va prendre x proche de 2

x bxc
2, 1 2
2, 01 2
1, 99 1

On voit que dans x est proche de 2, la valeur b x c varie avec une "assez grande" amplitude.
3. On considère la fonction sinus. On fait tendre x vers +∞
x sin x
1000 0, 83
10000 0, 31
100000 0, 03

Là encore on voit que quand x devient très grand, sin x prend des valeurs assez différentes.

1 Limites 4,5

1.1 Limite 4

Exemple : Reprenons notre exemple


3,5 de la fonction f définie sur R? par f : x 7→ 1/x.
On a vu que si x est proche de 2 alors f ( x ) est proche de 1/2.
3

2,5

1,5

V 0,5

-0,5 0 0,5 1 1,5 2 2,5 3 3,5 4

U
-0,5

Quitte à se rapprocher de 2, on peut supposer que l’image est aussi près que l’on veut de 1/2.

Définition [Link]

Soit f une fonction définie sur I et a ∈ I ∈ R. Soit ` un réel. On dit que la limite de f en a est ` ou que f tend
vers a en ` si :
∀ε > 0, ∃η > 0, ∀ x ∈ I, | x − a| 6 η ⇒ | f ( x ) − `| 6 ε.
On note alors
lim f = ` ; lim f ( x ) = ` ou f ( x )−→`
a x→a x→a

1
Exemple : Reprenons notre exemple de la fonction x 7→ . Prenons par exemple ε = 10−3 . On cherche donc
x
η > 0 tel que | x − 2| 6 η ⇒ |1/x − 1/2| 6 10−3 . Résolvons donc l’inégalité |1/x − 1/2| 6 10−3 .
1 1 |2 − x |
| − | < 10−3 ⇔ < 10−3
x 2 |2x |
⇔ < 10−3 |2x |.
On sait que l’on veut que x soir proche de 2 donc en particulier supérieur à 1. Il suffit donc que |2 − x | 6 2.10−3 .
C’est le η cherché.
Remarque : Pour exprimer que la limite de f n’est pas ` en a (ce qui signifie que f a soit une autre limite soit
pas de limite) on a

174
∃ε > 0, ∀η > 0, ∃ x ∈ I, | x − a| < η et | f ( x ) − `| > ε.
On peut généraliser cette définition au cas où a est un réel ou +∞ ou −∞ et où ` est un réel ou +∞ ou −∞,
cela donne toutes les définitions suivantes :

Définition [Link]

Soit f une fonction définie sur I et a ∈ I. Soit ` ∈ R. On dit que la limite de f en a est ` ou que f tend vers a
en ` si :
Si a ∈ R et ` ∈ R : ∀ε > 0, ∃η > 0, ∀ x ∈ I, | x − a| 6 η ⇒ | f ( x ) − `| 6 ε
Si a ∈ R et ` = +∞ : ∀ M ∈ R, ∃η > 0, ∀ x ∈ I, | x − a| 6 η ⇒ f ( x ) > M
Si a ∈ R et ` = −∞ : ∀ M ∈ R, ∃η > 0, ∀ x ∈ I, | x − a| 6 η ⇒ f ( x ) 6 M
Si a = +∞ et ` ∈ R : ∀ε > 0, ∃ A ∈ R, ∀ x ∈ I, x > A ⇒ | f ( x ) − `| 6 ε
Si a = +∞ et ` = +∞ : ∀ M ∈ R, ∃ A ∈ R, ∀ x ∈ I, x > A ⇒ f ( x ) > M
Si a = +∞ et ` = −∞ : ∀ M ∈ R, ∃ A ∈ R, ∀ x ∈ I, x > A ⇒ f ( x ) 6 M
Si a = −∞ et ` ∈ R : ∀ε > 0, ∃ A ∈ R, ∀ x ∈ I, x 6 A ⇒ | f ( x ) − `| 6 ε
Si a = −∞ et ` = +∞ : ∀ M ∈ R, ∃ A ∈ R, ∀ x ∈ I, x 6 A ⇒ f ( x ) > M
Si a = −∞ et ` = −∞ : ∀ M ∈ R, ∃ A ∈ R, ∀ x ∈ I, x 6 A ⇒ f ( x ) 6 M
On note alors
lim f = ` ; lim f ( x ) = ` ou f ( x )−→`
a x→a x→a

Exemple : Montrons par exemple que la fonction x 7→ x2 + 1 tend vers +∞ en −∞. Pour n’importe quel
nombre M, on cherche A tel que x 6 A ⇒ x2 + 1 > M. Or

x2 + 1 > M ⇔ x2 > M − 1.

Donc si M 6 1 ceci est toujours vrai, on peut prendre A = −23. Si M > 1, on prend A = − M − 1.

Proposition [Link]

Avec les notations précédentes, si la limite de f en a existe alors elle est unique.

Démonstration : Montrons par exemple qu’une fonction f ne peut pas tendre en a ∈ R vers ` ∈ R et +∞. En
effet cela signifierait que pour ε = 1 on puisse trouver η tel que pour tout x dans ] a − η, a + η [, f ( x ) ∈]` − 1, ` + 1[.
De même, on peut trouver pour M = ` + 2 > ` + 1, η 0 tel que pour tout x dans ] a − η 0 , a + η 0 [, f ( x ) ∈> ` + 2. 

Proposition [Link]

Soit f une fonction définie sur I et a ∈ I (en particulier f est définie en a). Si f admet une limite ` en
a alors ` = f ( a).

Démonstration : Supposons par l’absurde que ` 6= f ( a). Soit ε tel que f ( a) ∈ / [` − ε, ` + ε]. On sait qu’il
existe alors η tel que pour tout x de I si x appartient à [ a − η, a + η ] alors f ( x ) ∈ [` − ε, ` + ε]. Cependant,
a ∈ [ a − η, a + η ] et f ( a) ∈
/ [` − ε, ` + ε]. C’est absurde.
On procède de même pour montrer que ` 6= ±∞. 
On essaye souvent de se ramener au cas de 0 (aussi bien pour ` si elle est réelle que pour a).

175
Proposition [Link]

Soit f une fonction définie sur I.


1. Soit a dans I et ` ∈ R. On a

(lim f = `) ⇐⇒ (lim( f − `) = 0).


a a

2. Soit a un réel dans I et ` ∈ R. On a

lim f ( x ) = ` ⇐⇒ lim f ( a + h) = `.
x→a h →0

1.2 Voisinage et propriétés locales


Si on reprend la définition de lima f = ` quand a ∈ R et ` ∈ R, on peut voir apparaitre des "blocs". On a

∀ ε > 0 , ∃ η > 0 , ∀ x ∈ I, | x − a| 6 η ⇒ | f ( x ) − `| 6 ε .

On voit que toutes les autres se construisent à partir de celle là en changeant ces blocs. On peut préciser cela
grâce à la notion de voisinage.

Définition [Link]

1. Soit a ∈ R on appelle voisinage de a tout intervalle de la forme [ a − ε, a + ε] où ε > 0.


2. On appelle voisinage de +∞ (resp. −∞) tout intervalle de la forme [ M, +∞[ (resp. ] − ∞, M ]).

De cette manière on peut redéfinir lima f = ` pour a et ` dans R par


« Pour tout voisinage V` de `, il existe un voisinage Va de a tel que, pour x dans I, alors si x est dans Va alors
f ( x ) est dans V` . »

Définition [Link]

Soit f une fonction définie sur I et a un élément de I. Soit P une propriété. On dit que P est vraie au
voisinage de a s’il existe un voisinage V de a tel que P est vraie pour tout élément x de V ∩ I.

Remarque : Dans la définition de voisinage on a choisit de prendre des intervalles fermés mais on peut tout
autant prendre des intervalles ouverts. Il suffit de remarque par exemple que, au voisinage de a :

[ a − ε/2, a + ε/2] ⊂] a − ε, a + ε[⊂ [ a − ε, a + ε].

De même en +∞
] M, +∞[⊂ [ M, +∞[⊂] M − 1, +∞[.
Exemples :
1. Soit P la propriété « f est strictement positive ». Dire que f est strictement positive au voisinage de a ∈ R
signifie que
∃ε > 0, ∀ x ∈ I ∩ [ a − ε, a + ε], f ( x ) > 0
Par exemple x 7→ cos( x ) est strictement positive au voisinage de 0.
2. Soit f et g deux fonctions. On dira que f 6 g au voisinage de a s’il existe Va un voisinage de a tel que

∀ x ∈ V a , f ( x ) 6 g ( x ).

3. Soit P la propriété « f est bornée ». La fonction x 7→ e x est bornée au voisinage de tout a dans R. Elle est
bornée au voisinage de −∞ mais pas au voisinage de +∞.

176
Exercice : soit P1 et P2 deux propositions. Montrer que si P1 et P2 sont vraies aux voisinage de a alors (P1 et P2 )
l’est. Peut-on généraliser à une infinité de propositions ?
Remarque : Dans le cas des suites, le a où l’on évalue la limite est toujours +∞. Dans ce cas dire « au voisinage
de +∞ » revient à dire « à partir d’un certain rang ».

Proposition [Link]

Soit f une fonction définie sur I et a ∈ I.


1. Si f admet une limite finie ` en a alors elle est bornée au voisinage de a.
2. Si f admet une limite ` > 0 en a alors f est strictement positive au voisinage de a.
3. Si f admet une limite ` > 0 en a alors il existe A > 0 tel que f soit supérieure à A au voisinage
de a.

Remarque : Noter que la deuxième partie n’est pas vraie si on remplace > 0 par > 0.
Démonstration

1.3 Limite à droite et à gauche


Exemple : On s’intéresse toujours à f : x 7→ 1/x définie sur R? . On cherche à déterminer la limite en 0. On se
rend compte que quand x tend vers 0, f ( x ) peut prendre des valeurs très grandes ou très petites (grandes en
négatives). De ce fait, il n’y a pas de limite - on verra plus loin une méthode pour écrire proprement ce fait.
Cependant on se rend compte que si on reste pour des x positifs (« à droite de 0 ») alors f ( x ) semble tendre vers
+∞.

Définition [Link]

Soit f une fonction définie sur un intervalle I, a un réel de I et ` ∈ R. On dit que f admet ` pour limite à
droite (resp. à gauche) en a si f I ∩] a,+∞[ (resp. f I ∩]−∞,a[ ) admet ` comme limite en a.
On note alors lim f ( x ) = ` (resp. lim f ( x ) = `).
x → a+ x → a−

Remarque : Par exemple si ` ∈ R cela peut s’écrire :

∀ε > 0, ∃η > 0, ∀ x ∈ I, 0 < x − a 6 η ⇒ | f ( x ) − `| 6 ε (resp.∀ε > 0, ∃η > 0, ∀ x ∈ I, −η 6 x − a < 0 ⇒ | f ( x ) − `| 6 ε).

B Dans le cas des limites à gauche et à droite en a on exclut a même si f est définie en a. De ce fait, une
fonction peut avoir une limite à droite (ou à gauche) en a qui soit différente de f ( a). Par exemple, la fonction
f : x 7→ E( x ) admet 0 pour limite à gauche en 1 alors que f (1) = 1.

Proposition [Link]

Soit f une fonction définie sur I et a un réel de I qui n’est pas une borne. La fonction f admet une
limite en a si et seulement si f admet des limites à droite et à gauche en a qui sont identiques et qui
sont égales à f ( a). C’est-à-dire :

lim f = lim f = lim f = f ( a).


a a+ a−

Remarque : cela peut s’utiliser pour montrer qu’une fonction n’est pas continue en un point. Par exemple, on
considère f la fonction partie entière de R dans R. Soit a un réel.
— si a n’est pas un entier. Il existe ε > 0 tel que V =] a − ε, a + ε[⊂]n, n + 1[ ne contient pas d’entier. La
restriction de f à V est la fonction constante égale à n. On en déduit que

lim f = lim f = lim f = n = E( a).


a a+ a−

177
— si a est un entier. En raisonnant comme ci-dessus, on voit que
lim f = a − 1 et lim f = a.
a− a+

La fonction f n’a pas de limite en a car les limites à droite et à gauche ne sont pas égales.
Remarque : On peut étendre les définitions des limites au cas des fonctions définies sur I \ { a} où a est un
élément de I qui n’est pas une borne.
B Il faut bien différencier deux cas distincts
— Si f est définie sur I et si a est un élément de I (en particulier f définie en a). On a
lim f = ` ⇐⇒ lim f = lim f = f ( a)
a a+ a−

— Si f est définie sur I \ { a} où a est un élément de I (en particulier f n’est pas définie en a). On a
lim f = ` ⇐⇒ lim f = lim f
a a+ a−

Remarque : il se peut aussi qu’il n’ait pas de limite à droite et gauche. Nous verrons des exemples plus loin.

1.4 Continuité
Définition [Link]

Soit f une fonction définie sur un intervalle I et a un élément de I. Si la limite de f en a existe, on dit que f
est continue en a. Dans ce cas
lim f ( x ) = f ( a).
x→a

Remarques :
1. Pour qu’une fonction soit continue en a, il faut déjà qu’elle y soit définie.
2. La définition classique est lim f ( x ) = f ( a). De fait, f est définie en a et admet une limite en a alors la
x→a
limite est automatiquement égale à f ( a).

1 si x 6= 0
Exemple : La fonction x 7→ n’est pas continue en 0.
0 sinon

Définition [Link]

Soit f une fonction définie sur I et a ∈ I.


1. On dit que f est continue à droite en a si la restriction de f à I ∩ [ a, +∞[ est continue en a c’est-à-dire :
lim f = f ( a).
a+
2. On dit que f est continue à gauche en a si la restriction de f à I ∩] − ∞, a] est continue en a c’est-à-dire :
lim f = f ( a).
a−

Exemple : Toujours la fonction partie entière. Elle est continue à droite en tout point. Par contre elle n’est pas
continue à gauche aux entiers.

Définition [Link]

Soit f une fonction définie sur I et a une bornée réelle de I qui n’est pas dans I (en particulier f ( a) n’est pas
défini). Si f admet une limite finie quand x tend vers a. On dit que f est prolongeable par continuité et on
appelle prolongement par continuité la fonction

f˜ : I ∪ { a} → ( R
f (x) si x ∈ I .
x 7→ lim f si x = a
a

178
sin x
Exemple : Regardons la fonction f définie sur R?+ par f ( x ) = . Elle peut se prolonger par continuité en 0
x
sin x
en posant f (0) = lim = 1.
x →0 x
Remarque : Par extension, on peut aussi prolonger par continuité une fonction f définie sur I \ { a} où a est un
élément de I qui n’est pas une borne. Dans ce cas, on peut la prolonger si lima f existe ce qui revient à lima− f et
sin x
lima+ f existent et sont égales. Par exemple pour x 7→ définie sur R? .
x

1.5 Caractérisation séquentielle


Nous allons relier les limites de fonctions et les limites de suites.

Théorème [Link]

Soit f une fonction définie sur un intervalle I. Soit a ∈ I et ` ∈ R.


La limite de f en a est ` si et seulement si pour toute suite (un ) à valeur dans I de limite a, la suite
f (un ) tend vers `.

Remarques :
1. La partie ⇐ est utile pour moi. Cela permet de déduire des théorèmes sur les limites des fonctions en se
basant sur les résultats similaires sur les limites des suites.
2. La partie ⇒ est utile pour vous.
 
n2 + 1
— Si lim un = a et lim f ( x ) = ` alors lim f (un ) = `. Par exemple lim = 0.
x→a n→∞ 2n2 + n
— C’est aussi le résultat que l’on utilise pour montrer que la limite d’une suite un+1 = f (un ) avec f une
fonction continue est un point fixe de f .
— On peut démontrer qu’une fonction n’a pas de limite. En effet si on trouve deux suites (un ) et (vn )
convergeant vers a telles que f (un ) et f (vn ) ne convergent pas ou pas vers la même limite alors f n’a
pas de limite. Montrons pas exemple de la fonction f définie sur R? par f ( x ) = sin(1/x ) n’a pas de
1 1
limite en 0. On considère les suites un = et vn = . On a lim(un ) = lim(vn ) = 0 mais
2nπ 2nπ + π/2
lim( f (un )) = 0 et lim( f (vn )) = 1. En particulier elle n’a pas de limite en 0 (pas plus en 0+ ).

0,5

-1,25 -1 -0,75 -0,5 -0,25 0 0,25 0,5 0,75 1 1,25

-0,5

-1

Exercice : Montrer que la fonction x 7→ cos( x ) n’a pas de limite en +∞.


Démonstration :
— ⇒ On suppose que lim f = `. Soit u une suite tendant vers a on veut montrer que ( f (un )) tend vers
a
`. Faisons le avec des voisinage pour traiter tous les cas à la fois. On veut donc montrer que pour tout
voisinage V de ` il existe N tel que si n > N alors f (un ) appartient à V . On se fixe donc un voisinage V
quelconque. Maintenant on sait que lim f = `. De ce fait il existe un voisinage U de a tel que si x ∈ I ∩ U
a
alors f ( x ) ∈ V . Pour finir, il suffit de voir que, comme lim u = a. Pour ce voisinage U il existe N tel que
si n > N alors un ∈ U . Si on récapitule on a donc que dès que n est supérieur à N, un appartient à U et
donc f (un ) appartient à V .
— ⇐ On procède par l’absurde. On suppose que la limite de f en a n’est pas ` (ce qui signifie que cette
limite n’existe pas ou qu’elle existe mais qu’elle ne vaut pas `). On va alors prouver qu’il existe une suite u
tendant vers a telle que ( f (un )) ne tende pas vers `. Pour simplifier on fait le cas où ` ∈ R et a ∈ R.

179
Le fait que la limite de f en a n’est pas ` s’écrit :

∃ε > 0, ∀η > 0, ∃ x ∈ I, | x − a| 6 η et | f ( x ) − `| > ε.

Soit un ε fixé par le résultat ci dessus, pour tout entier n, on pose η = 1/n et ce qui précède nous dit qu’il
existe xn ∈ I tel que
1
| xn − a| 6 η = et | f ( xn ) − `| > ε.
n
Cela signifie bien que ( xn ) tend vers a et que f ( xn ) ne tend pas vers `.


Corollaire [Link]

Soit f une fonction définie sur I et a ∈ I. La fonction f est continue en a si et seulement si pour toute
suite (un ) tendant vers a, ( f (un )) tend vers f ( a).

1.6 Opérations
2
Soit I un intervalle et a ∈ I. Soit f et g deux fonctions définies sur I. Soit (`, `0 ) ∈ R . On suppose que
lim f ( x ) = ` et lim g( x ) = `0 . On a les même formules que pour les suites.
x→a x→a
• Somme
La limite de la fonction f + g en a est donnée par :

PP lim f
PP
` −∞ +∞
lim g PPP P
`0 ` + `0 −∞ +∞
−∞ −∞ −∞ ?
+∞ +∞ ? +∞
Démonstration : Montrons, en utilisant la caractérisation séquentielle, par exemple que si lim f ( x ) = ` ∈ R
x→a
et lim g( x ) = `0 ∈ R alors lim ( f + g)( x ) = ` + `0 . En effet, pour tout suite (un ) tendant vers a en +∞, la
x→a x→a
suite f (un ) tend vers ` et la suite g(un ) tend vers `0 . En utilisant le théorème sur les limites de suites, on
obtient que lim ( f + g)(un ) = ` + `0 . Ceci étant vrai pour toute suite tendant vers a, on en déduit que
n→+∞
lim ( f + g)( x ) = ` + `0 . 
x→a
Exercice : Faire la démonstration de manière « directe » en utilisant la quantification.
Remarque : Si on fixe un intervalle I et un élément a dans I. L’ensemble (R I , +, ×) des fonctions de I dans R
est un anneau et donc (R I , +) est un groupe abélien. Le résultat précédent permet de dire que l’ensemble des
fonctions tendant vers 0 forment un sous-groupe de (R I , +).
• Multiplication externe
Soit λ un réel. La limite de la fonction λ. f est donnée par :

PP lim f
PP
PP ` −∞ +∞
λ PP
λ>0 λ.` −∞ +∞
λ=0 0 0 0
λ<0 λ.` +∞ −∞
Notons que si λ = 0 et que f tend vers ±∞ ce n’est pas une forme indéterminée. En effet la fonction λ. f est la
fonction nulle.
• Produit
La limite de la fonction f .g est donnée par le tableau suivant :

PP lim f ` < 0
PP
`=0 `>0 −∞ +∞
lim g PPP P
`0 < 0 `.` 0 0 `.` 0 +∞ −∞
0
` =0 0 0 0 ? ?
`0 > 0 `.` 0 0 `.` 0 −∞ +∞
−∞ +∞ ? −∞ +∞ −∞
+∞ −∞ ? +∞ −∞ +∞

180
Noter en particulier que la forme (+∞) × (−∞) n’est pas une forme indéterminée.
• Quotient
La limite de la fonction f /g est donnée par le tableau suivant :

PP lim f
PP
`<0 `=0 `>0 −∞ +∞
lim g PPP P
`0 < 0 `/`0 0 `/`0 +∞ −∞
` 0 = 0− +∞ ? +∞ +∞ -∞
` 0 = 0+ −∞ ? +∞ −∞ +∞
`0 > 0 `/`0 0 `/`0 −∞ +∞
−∞ 0 0 0 ? ?
+∞ 0 0 0 ? ?

• Composition
On a aussi un théorème sur la limite d’une composée de fonctions.

Théorème [Link]

Soit f une fonction définie sur un intervalle I et g une fonction définie sur un intervalle J contenant
f ( I ).
1. Soit a ∈ I, b ∈ R. Si lim f ( x ) = b alors b ∈ J.
x→a
2. Si de plus il existe ` ∈ R tel que lim f ( x ) = ` alors lim( g ◦ f )( x ) = `.
x →b a

Démonstration : Cela découle de la caractérisation séquentielle.


Exemples :
2 1 2
1. On veut étudier la limite de x 7→ e1/x en +∞. On a lim 2
= 0 et lim e x = 1 donc lim e1/x = 1.
x →+∞ x x →0 x →+∞
4
2. On veut étudier la limite en 0 de x 7→ 1
.
2+ 1− e x

1.7 Inégalités
Là encore, on a des théorèmes similaires à ceux sur les limites des suites et les inégalités.

Théorème [Link]

Soit I un intervalle et f , g deux fonctions définies sur I. Soit a ∈ I, on suppose que :


— la fonction f est supérieure à la fonction g au voisinage de a
— Il existe ` et `0 des éléments de R tels que lim f ( x ) = ` et lim g( x ) = `0 .
x→a x→a
Dans ce cas ` > `0 .

Remarques :
1. Pour ce théorème, les inégalités dans R sont définis en supposant que pour tout x dans R, −∞ 6 x 6 +∞.
2. Comme d’habitude, même si on a de plus, que pour tout x de I, f ( x ) > g( x ), on ne peut pas conclure à
` > `0 . Il suffit de considérer par exemple les fonctions x 7→ | x | et x 7→ 0 en 0.
Exercice : (En classe) Faire la démonstration pour a, ` et `0 réels. On procédera par l’absurde.
Il y a aussi un analogue des théorèmes des gendarmes.

181
Théorème [Link] (Théorèmes d’encadrements)

Soit I un intervalle, f , g et h trois fonctions définies sur I et a ∈ I


1. S’il existe ` ∈ R tel que lim f ( x ) = lim g( x ) = ` et si, pour tout x dans I, f ( x ) 6 h( x ) 6 g( x )
x→a x→a
alors h tend vers ` en a.
2. Si lim f ( x ) = +∞ et si, pour tout x dans I, f ( x ) 6 h( x ) alors h tend vers +∞ en a.
x→a
3. Si lim f ( x ) = −∞ et si, pour tout x dans I, f ( x ) > h( x ) alors h tend vers −∞ en a.
x→a

Remarque : Là encore il suffit que les majorations ne soient vraies que sur un voisinage de a.

Corollaire [Link]

Soit I un intervalle, f et g deux fonctions définies sur I et a ∈ I.


1. Si lim g = 0 et que | f | 6 g au voisinage de a alors lim f = 0.
a a
2. Si lim g = 0 et que f est bornée au voisinage de a alors lim f g = 0.
a a

Démonstration

Exemple : La fonction x 7→ x sin(1/x ) est prolongeable par continuité en 0.

0.10

0.05

-0.3 -0.2 -0.1 0.1 0.2 0.3

-0.05

-0.10

-0.15

-0.20

1.8 Fonctions monotones


Nous allons établir des résultats analogues aux théorèmes de convergence monotone des suites. Cependant,
dans le cas des fonctions ils sont moins utiles.

Proposition [Link]

2
Soit I un intervalle ouvert c’est-à-dire de la forme I =] a, b[ où ( a, b) ∈ R . Soit f une fonction
croissante sur I.
1. Si f est majorée alors f admet une limite en b qui est sup f ( x ).
x∈ I
2. Si f n’est pas majorée alors lim f = +∞.
b
3. Si f est minorée alors f admet une limite en a qui est inf f ( x ).
x∈ I
4. Si f n’est pas minorée alors lim f = −∞.
a

Démonstration

Remarques :

182
1. Si l’intervalle n’est pas ouvert, ce résultat n’est plus vrai. On peut prendre par exemple la fonction partie
entière sur [0, 1]. Elle n’a pas de limite en 1. Mais elle a une limite à gauche en 1.
2. On a des résultats analogues pour f décroissante, il suffit de remplacer f par − f .
3. Il faut bien voir que l’hypothèse croissante est essentielle comme le prouver par exemple sin(1/x ) sur
]0, 1[.

Corollaire [Link]

Soit f une fonction monotone définie sur un intervalle I. Elle admet des limites à droite et à gauche
en tout point a de I qui n’est pas une extrémité de I.

Remarques :
1. Si les extrémités sont dans I, il n’y a qu’une limite à droite ou à gauche.
2. De part la démonstration, si f est croissante, soit a un élément de I qui n’est pas une extrémité,

lim f 6 f ( a) 6 lim f .
a− a+

2 Relations de comparaisons
Si on regarde les courbes des fonctions x 7→ x et x 7→ sin x on voit que ce sont deux fonctions très différentes.
Cependant, au voisinage de 0 elles sont similaires.

-2 -1 1 2

-1

-2

Le but de ce chapitre est de donner des définitions précises de « les fonctions x 7→ sin x et x 7→ x sont
équivalentes en 0 » ou « la fonction x2 est négligeable devant x 7→ e x en +∞ ».
On va avoir besoin d’une hypothèse technique qui va nous permettre de simplifier nos définitions.
Notation : Soit a ∈ R on va dire que f vérifie Fa si elle est définie au voisinage de a et qu’elle ne s’annule pas
sur un voisinage de a sauf peut-être en a. cela s’écrit
— ∃ε > 0, ∀ x ∈] a − ε, a[∩] a, a + ε[, f ( x ) 6= 0 si a ∈ R
— ∃ M ∈ R, ∀ x > M, f ( x ) 6= 0 si a = +∞.
— ∃ M ∈ R, ∀ x 6 M, f ( x ) 6= 0 si a = −∞.

183
2.1 Définitions
Définition [Link]

Soit a ∈ R et f , g deux fonctions vérifiant Fa . Les fonctions f et g sont équivalentes au voisinage de a et on


note f ∼ g si
a
f (x)
lim = 1.
x→a g( x )

ATTENTION

De part la définition de Fa on ne peut pas considérer la fonction nulle. Nous n’aurons jamais f ∼ 0.
a

Exemples :
1. On le reverra plus bas. Si on considère le polynôme P( x ) = −3x4 − 3x2 + x − 1. On a

−3x4 − 3x2 + x − 1 ∼ −3x4 .


Attention par contre que P( x ) n’est pas équivalent à x4 . De plus, cet équivalent n’est plus vrai du tout au
voisinage de 0 ou de a = 3 par exemple.
sin x
2. On a lim = 1 donc sin x ∼ x. En pratique, on pourra donc remplacer dans les calculs de limite en 0,
x →0 x 0
sin3 x
les sin x par x. Si on veut déterminer lim qui est une forme indéterminée, on écrira que sin3 x ∼ x3
x →0 x 2 0
sin3 x x3
d’où ∼ = x. Donc
x2 0 x2
sin3 x
lim = 0.
x →0 x 2

Remarques :
1. On pourra omettre le a dans la notation f ∼ g s’il est évident.
a
2. Faire attention que cette notion est locale. Par exemple sin x est équivalente à x au voisinage de a = 0n
cependant, ce n’est plus du tout vrai si on se place au voisinage de a = 7 par exemple...
3. On peut définir la notion d’équivalence en a pour des fonctions qui ne vérifient par Fa . On dit que f est
équivalente à g s’il existe un voisinage V de a, une fonction ε définie sur V telle que
— pour tout x dans V , f ( x ) = g( x )ε( x ).
— lim ε = 1.
a
On voit que f ∼ 0 signifie qu’il existe un voisinage V de a telle que f soit la fonction nulle sur V .
a
4. Le but de cette notion est de remplacer des fonctions f à priori compliquée par des fonctions g plus
simples qui sont équivalentes au voisinage de l’endroit qui nous intéresse. Dans la plupart des cas la
fonction g sera de la forme ( x − a)n pour a ∈ R et x α pour a = ±∞.
5. Il n’est réellement intéressant de faire des équivalents que pour lever des formes indéterminées. De ce fait
cela ne concerne que des fonctions qui tendent vers 0 ou vers ±∞. C’est pour cela que l’équivalent en 1 de
sin n’est pas très intéressant car c’est juste sa valeur.

Définition [Link]

Soit a ∈ R et f , g deux fonctions vérifiant Fa .


f (x)
1. On dit que f est négligeable devant g en a (ou au voisinage de a) et on notera f = o ( g) si lim = 0.
a x→a g( x )
2. On dit que f est dominée devant g en a (ou au voisinage de a) et on notera f = O ( g) si f /g est bornée
a
au voisinage de a.

184
Remarques :
1. On pourra omettre le a dans les notations f = o ( g) et f = O ( g)s’il est évident.
2. Faire attention que ces notions sont locales.
3. On peut aussi définir ces notions en a pour des fonctions qui ne vérifient par Fa de la même manière que
ci-dessus.
Exemples :
 x
1. On a x = o x2 . En effet, lim = 0.
+∞ x →+∞ x2
2. On a aussi x = o (1).
0

3. On a 2x2 = O x2 .
+∞

Proposition [Link]

Soit f une fonction définie au voisinage de a. On suppose que f est dérivable en a et que f 0 ( a) 6= 0.
On a
f ( x ) ∼ f 0 ( a)( x − a).
a

Démonstration : Par définition. 


Remarque : Cette proposition illustre le fait que la recherche d’équivalent peut-être visualisée comme la
recherche d’une tangente à une courbe (dans le cas où la fonction est dérivable).

2.2 Propriétés
Le lien entre les fonctions équivalentes et les fonctions négligeables sont donnés par la proposition suivante.

Proposition [Link]

Soit a ∈ R et f et g deux fonctions vérifiant Fa .

f = g + o ( g) ⇔ f ∼ g.
a a

Démonstration : On raisonne par équivalence :


f = g + o ( g) ⇔ f − g = o ( g)
a a
f −g
⇔ lim = 0.
a g
f −g f
Or, pour tout x, on a ( x ) = ( x ) − 1 donc
g g
f −g f
lim =0 ⇔ lim =1
a g a g
⇔ f ∼ g.
a

Proposition [Link]

Soit a ∈ R et f , g et h trois fonctions qui vérifient Fa .

f = o ( g) et g = o (h) ⇒ f = o (h) (Transitivité).


a a a

185
Proposition [Link]

Soit a ∈ R et f , g et h trois fonctions qui vérifient Fa .


1. on a f ∼ f (Réfléxivité).
a
2. si f ∼ g alors g ∼ f . (Symétrique)
a a
3. si f ∼ g et g ∼ h alors f ∼ h. (Transitivité)
a a a

Remarque : La relation d’équivalence est une relation d’équivalence ! ! ! !

Proposition [Link]

Soit a ∈ R et f , g deux fonctions qui vérifient Fa . Soit ` ∈ R. Si f ∼ g alors


a
   
lim f = ` ⇔ lim g = ` .
a a

Remarque : Bien comprendre le sens de ce qui précède. Cela signifie que si f a une limite alors g aussi et que
ce sont les mêmes limites. En particulier cela signifie que pour déterminer l’existence et faire le calcul d’une
limite on peut remplacer une fonction par une fonction qui lui est équivalente.

ATTENTION

A l’inverse, il est faut en général de penser que deux fonctions f et g qui ont la même limite ` en a
sont équivalentes. Si ` est fini et non nul c’est vrai mais pas pour ` = 0 ou ` = ±∞. Par exemple x et
x2 en 0.

On peut donc voir la relation d’équivalence en a comme « plus fine »que la relation avoir la même limite en a.

Proposition [Link]

Soit f et g deux fonctions vérifiant Fa . Si f ∼ g alors f et g ont le même signe au voisinage de a.


a

Démonstration : Il suffit de voir que comme f /g tend vers 1 en a, elle est strictement positive au voisinage de
a.


2.3 Équivalents classiques


Proposition [Link] (Croissances comparées en +∞)

Au voisinage de +∞ on les mêmes croissances comparées que pour les suites. Précisément :

1. Soit α ∈ R et β > 0, (ln( x ))α = o x β .
+∞

2. Soit α et β deux réels. Si α < β alors x α = o x β .
+∞
3. Soit α ∈ R et β > 0, xα = o (exp( βx )). En particulier si k > 1, x α = o (k x ) .
+∞ +∞

Démonstration :

186
— Le point 1 se ramène au 3 par un changement de variable t = ln x.
— Le point 2 est évident.
e βx
— On étudie la fonction f : x 7→ . Elle est dérivable de dérivée :

e βx x α−1
f 0 : x 7→ ( βx − α) .
x2α
On en déduit donc que pour x > α/β la fonction f est croissante. L’étude de sa limite se ramène alors à
l’étude de f (n) qui a déjà été faite.


Proposition [Link] (Croissances comparées en 0)

 β !
1
1. Soit α ∈ R et β > 0, (ln( x ))α = o .
0+ x
2. Soit α et β deux réels. Si α < β alors x β = o ( x α ) .
0

ATTENTION

Ce ne sont pas les mêmes qu’en +∞.

Remarques :
 β
1
1. Pour le premier, il faut faire attention que l’on compare ln( x ) qui tend vers ∞ avec qui tend aussi
x
vers ∞ pour β > 0.
2. Pour le deuxième c’est le sens inverse de la comparaison en +∞.

Proposition [Link] (Equivalent d’un polynôme)

Un polynôme non nul est quivalent à son terme de plus haut degré en ±∞ et à son terme de plus
bas degré en 0.

Voici les équivalents à connaître :

Théorème [Link]

Voici les équivalents des fonctions usuelles en 0

x2
? sin x ∼ x ? cos x ∼ 1 et cos x − 1 ∼ −
0 0 0 2
? tan x ∼ x ? (1 + x )α ∼ 1 et (1 + x )α − 1 ∼ αx
0 0 0
? ln(1 + x ) ∼ x ? e x ∼ 1 et e x − 1 ∼ x
0 0 0
? sh x ∼ x ? th x ∼ x
0 0
x2
? ch x ∼ 1 et ch x − 1 ∼ ? arcsin x ∼ x et arctan x ∼ x
0 0 2 0 0

Démonstration : Il se démontre tous en calculant des dérivées. La seule qui est différente est celle du cosinus et
du cosinus hyperbolique. Nous les démontrerons plus loin. 
Remarque : Il y a des cas particuliers à connaitre.

187
— La formule (1 + x )α − 1 ∼ αx permet d’obtenir :
0

1 √ 1
− 1 ∼ −x 1 + x − 1 ∼ x.
1+x 0 0 2

— La formule ln(1 + x ) ∼ x peut aussi s’écrire ln X ∼ X − 1.


0 1

2.4 Opérations
Proposition [Link]

Soit a ∈ R et f , g et h trois fonctions qui vérifient Fa . Si f = o ( g) alors f h = o (hg).


a a

 
Exemple : Si f ( x ) = o x2 alors x3 f ( x ) = o x5 .
0 0

Proposition [Link]

Soit a ∈ R et f 1 , f 2 , g1 et g2 quatre fonctions qui vérifient Fa . On suppose que f 1 ∼ f 2 et que g1 ∼ g2 .


a a
Alors
f1 f
1. f 1 g1 ∼ f 2 g2 et ∼ 2.
a g1 a g2
2. Pour α ∈ R? FIXÉ, f 1α ∼ f 2α .
a

Remarque : Dans la deuxième partie, si α ∈ / N, on doit supposer que f 1 et f 2 sont strictement positives au
voisinage de a sauf éventuellement en a.
sin3 x
Exemple : Cette proposition justifie le calcul de ∼ x fait plus haut.
x2 0

ATTENTION

Il y a des opérations qui ne sont pas compatibles avec les équivalents.


1. La somme ou différence : par exemple, x + x2 ∼ x et x + x3 ∼ x mais x2 − x3  0.
0 0
C’est une erreur très très classique. Elle conduit souvent à une équivalence à 0 ce qui n’est JAMAIS possible .
2 2
2. La composition : par exemple x + x2 ∼ x2 mais e x+ x  e x . Autre exemple 1 + x ∼ 1 mais
+∞ 0
(1 + x )1/x  11/x = 1. Comparer ceci avec la propriété 2. de la proposition ci-dessus.

Étudions quelques calculs de calculs de somme d’équivalents Exemples :


1. Soit f : x 7→ sin x + sh x. On ne peut pas faire la somme, on va essayer de se ramener à des limites en
disant que  
sin x sh x
sin x + sh x = x + .
x x
Maintenant comme sin x ∼ x et sh x ∼ x la parenthèse tend vers 2 et donc f ∼ 2x. Dans ce cas, la somme
0 0 0
« marchait ».
2. Soit g : x 7→ sin x − sh x. Cette fois on ne peut plus procéder comme ci-dessus car
 
sin x sh x
sin x − sh x = x − .
x x

Là, la parenthèse tend vers 0. On en tire g = o ( x ) . On verra plus tard dans l’année que faire dans ce cas...
0

188
3. Soit h : x 7→ sin x + (cos x − 1). Dans ce cas, on utilise que cos x − 1 = o (() sin x ) car cos x − 1 ∼ − x2 /2
0 0
et sin x ∼ x donc h ∼ sin x ∼ x.
0 0 0

Proposition [Link] (Changement de variable)

Soit a ∈ R et f , g deux fonctions qui vérifient Fa . Soit b ∈ R et h une fonction qui vérifie Fb telle
que limb h = a.
Si f ∼ g alors f ◦ h ∼ g ◦ h.
a b

 
1 1
Exemple : On sait que sin x ∼ x donc sin x2 ∼ x2 ou sin √ ∼ √ .
0 0 2 + x +∞ 2 + x
Remarque : ne pas confondre avec la composition « à gauche ». Par exemple on veut montrer que ln(1 + sin x ) ∼
0
x en utilisant que sin x ∼ x et ln(1 + x ) ∼ x. Voici deux rédactions :
0 0
— On a sin x ∼ x donc ln(1 + sin x ) ∼ ln(1 + x ). Or ln(1 + x ) ∼ x donc ln(1 + sin x ) ∼ x.
0 0 0 0
— On sait que limx→0 sin x = 0 et ln(1 + x ) ∼ x donc ln(1 + sin x ) ∼ sin x. De plus sin x ∼ x donc
0 0 0
ln(1 + sin x ) ∼ x.
0
La première rédaction n’est pas correcte - même si le résultat final est bon - car elle repose sur la composition
par x 7→ ln(1 + x ) de l’équivalent sin x ∼ x. Par contre la deuxième est correcte. En effet, on fait un changement
0
de variable X = sin x.
Exemple : On peut maintenant démontrer la formule pour l’équivalent
p de cos et de ch . Le cosinus
p se traite

2x = 2 2
de la manière suivante. Au voisinage
√ de 0, cos x = cos 1 − sin x. D’où cos x − 1 = 1 − sin x − 1.
2 1
Comme lim − sin x = 0 et que 1 + X ∼ 2 X. On a en utilisant la substitution que nous verrons plus loin.
x →0 0

sin2 x x2
cos x − 1 ∼ − ∼− .
0 2 0 2

189
Continuité sur un
13
intervalle
1 Fonctions continues 190
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
1.2 Théorèmes des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
1.3 Cas des fonctions monotones - théorème de la bijection . . . . . . . . . . . . . . . . . . . . . . 194
1.4 Bornes d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
1.5 Exemple de résolution d’équations fonctionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
2 Très brève extension aux fonctions à valeurs complexes 196
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
2.2 Le théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

Nous allons nous intéresser aux fonctions qui sont continues partout où elles sont définies. Le but est
d’obtenir alors des propriétés « globales » et non plus « locales ».

1 Fonctions continues
1.1 Généralités
Définition [Link]

Soit f une fonction définie sur un intervalle I. On dit que f est continue si elle est continue en tout point de I.
L’ensemble des fonctions continues sur un intervalle I sera notée C 0 ( I ).

Exemples :
1. Les polynômes sont des fonctions continues.
2. Les fonction circulaires, cos, sin et tan sont continues.
3. Les fonctions exponentielles, trigonométriques hyperboliques et logarithmes sont continues

4. Les fonctions puissances sont continues. En particulier x 7→ x et x 7→ 1/x
Remarque : on peut définir des fonctions continues sur des parties de R qui ne sont pas des intervalles (par
exemple ( x 7→ 1/x ) est continue sur R? ), cependant, la plupart des théorèmes de ce chapitre nécessiteront de se
situer sur un intervalle.

190
Théorème [Link]

Soit f et g deux fonctions continues et λ ∈ R


1. la somme f + g est continue.
2. le produit externe λ. f est continue.
3. le produit f × g est continue.
4. le quotient f /g est continue (sur son ensemble de définition).
5. la composition f ◦ g est continue (sur son ensemble de définition).

Remarque : dans les deux derniers cas, on a précisé, sur son ensemble de définition pour bien signifier qu’il
faut justifier dans ce cas la définition de la fonction. Quand on veut montrer que f = f 1 / f 2 est continue sur un
intervalle I on montre que f 1 et f 2 le sont et que f 2 ne s’annule pas sur I.
Exemples :
1. Soit f la fonction définie par
1
f (x) = p .
3
sin( x + 2x ) + 2
p
La fonction f est définie sur R car, pour tout √ x dans R, sin( x3 + 2x ) > −1 d’où sin( x3 + 2x ) + 2 est
défini et non nul. De plus x 7→ x3 + 2x , x 7→ x + 2, x 7→ 1/x sont des fonctions continues donc f est
continue.
2. On considère la fonction partie entière notée [.] Elle n’est pas continue car elle n’est pas continue en 1.

Cela correspond bien à l’intuition qui dit que le graphe d’une fonction continue se trace « sans lever le
crayon ».

Proposition [Link]

Soit I un intervalle et f et g deux fonctions continues sur I.


1. La fonction | f | est continue.
2. Les fonctions sup( f , g) : x 7→ Max( f ( x ), g( x )) et inf( f , g) : x 7→ Min( f ( x ), g( x )) sont conti-
nues.

Démonstration :
1. Par composition avec X 7→ | X |.
f + g + | f − g| f + g − | f − g|
2. On remarque que sup( f , g) = et .
2 2


Proposition [Link]

Soit I un intervalle de f une fonction continue sur I. Si J est un intervalle inclus dans I alors la
restriction f | J de f à J est continue.

191
Proposition [Link]

Soit I in intervalle et a ∈ I. On note I− = I ∩] − ∞, a] et I+ = I ∩ [ a, +∞[. Soit f une fonction définie


sur I. Si les restrictions de f à I+ et I− sont continues alors f est continue.

Remarque : Ce n’est pas évident. Par exemple, le même énoncé avec dérivable est faux.
Démonstration : Pour tout x dans I \ { a} alors il existe un voisinage de x contenu dans I+ ou dans I− . De ce
fait, la continuité de f en x découle de la continuité des restrictions.
Pour x = a. Comme la restriction de f à I− (resp. à I+ ) est continue alors f est continue à gauche (resp. à
droite). Donc f est continue. 

1.2 Théorèmes des valeurs intermédiaires


Théorème [Link]

Soit f une fonction continue sur un intervalle I. Soit ( a, b) ∈ I 2 . On suppose que f ( a) f (b) 6 0 alors
il existe c compris entre a et b tel que f (c) = 0. Si de plus f ( a) f (b) < 0 on peut supposer que c est
strictement compris entre a et b.

Remarque : Par contraposé on en déduit qu’une fonction continue qui ne s’annule pas garde un signe constant.
Démonstration : La démonstration du théorème se fait par dichotomie. Cela consiste à construire deux suites
( an ) et (bn ) puis à montrer qu’elles sont adjacentes. De ce fait elles convergent et le c cherché sera la limite.
On suppose que a < b par convention et on suppose aussi que f ( a) 6 0 6 f (b) (sinon on peut faire de
même avec − f ). Dès lors on pose a0 = a et b0 = b. On va construire des suites adjacentes ( an ) et (bn ) telles que
a0 + b0
pour tout entier n, f ( an ) 6 0 6 f (bn ). On coupe l’intervalle [ a0 , b0 ] en deux en posant u0 = : le milieu.
2
On sépare les cas selon le signe de f (u0 )
— si f (u0 ) 6 0 on pose a1 = u0 et b1 = b0 .
— si f (u0 ) < 0 on pose a1 = a0 et b1 = u0 .
Et on recommence. On construit ainsi des suites ( an ) et (bn ) et on remarque que

a = a0 6 a1 6 a2 6 · · · 6 an 6 · · · 6 bn 6 · · · 6 b2 6 b1 6 b0 = b.

De plus, ∀n ∈ N f ( an ) est négatif et f (bn ) positif. Pour finir, on a

bn − a n b0 − a0
∀n ∈ N, bn+1 − an+1 = d’où bn − an = .
2 2n
On en déduit que les suites sont adjacentes et on note c la limite commune.
Il reste à montrer que c répond bien à la question. Comme f est continue, les suites ( f ( an )) et ( f (bn ))
convergent vers f (c). On en déduit que f (c) est positif et négatif donc il est nul. 

Théorème [Link] (Théorème des valeurs intermédiaires)

Soit I un intervalle, f une fonction continue sur I et ( a, b) ∈ I 2 . Pour tout ` compris entre f ( a) et
f (b), il existe un c compris entre a et b tel que f (c) = `.

Remarques :
1. C’est un théorème fondamental. Il faut l’utiliser dès que l’on veut montrer l’existence, d’un nombre x
vérifiant f ( x ) = c (ou si on prend c = 0 l’existence d’une racine de f ).
2. Sous cette forme, ce théorème ne donne que l’existence, si l’on a besoin en plus de l’unicité il faut se
tourner vers le théorème de la bijection - voir plus loin. Par exemple pour x 7→ x3 − x si on prend a = −2
( f ( a) = −6) et b = 2 ( f (b) = 6) et ` = 0, il y a plusieurs solutions pour c : −1, 0 et 1.

192
3. Si la fonction f n’est pas continue ce n’est plus vrai. Considérons par exemple la fonction partie entière
avec a = 0, b = 1 et ` = 1/2.
4. Si l’on n’est pas sur un intervalle ce n’est plus vrai. Par exemple x 7→ 1/x, a = −1, b = 1 et ` = 0.
5. L’abréviation TVI n’est pas à mettre sur une copie.
Remarque : Nous verrons en IPT l’implémentation de cette démonstration.

Corollaire [Link]

Soit f une fonction continue sur I. Si f ne s’annule pas elle garde un signe constant.

Démonstration : Par contraposée




Proposition [Link] (Variante à l’infini)

Soit a ∈ R et f une fonction continue sur [ a, +∞[. Soit ` un nombre strictement compris entre f ( a) et
lim f . Il existe c > a tel que f (c) = `.
+∞

Démonstration : Il suffit de voir que, comme lim f = +∞ il existe b > a tel que f (b) > `. On applique alors le
+∞
TVI.
Remarques :
1. On peut de même remplacer a par −∞. On peut aussi le faire en supposant que f est continue sur ] a, b] où
a ∈ R. Là encore, il faut alors supposer que ` est strictement compris entre f ( a) et f (b).
2. On est obligé de prendre des inégalités strictes. Par exemple pour x 7→ 1/x, a = 1 et ` = 0.

Corollaire [Link]

Soit I un intervalle et f une fonction continue sur I alors f ( I ) est un intervalle.

Démonstration : c’est juste une reformulation du théorème des valeurs intermédiaires. En effet, soit x et y deux
éléments de f ( I ). Il existe donc a et b dans I tels que f ( a) = x et f (b) = y. Maintenant pour tout ` compris entre
x et y, il existe bien c dans I (car I est un intervalle) tel que f (c) = ` donc ` ∈ f ( I ). 
Exercice : Soit f la fonction définie sur [0, π/2] par

1
f (x) = cos x − x2 + 1
x+1
Montrer qu’il existe une solution de l’équation f ( x ) = 0 et donner une méthode pour en localiser une avec une
précision de 0, 1.

193
1.3 Cas des fonctions monotones - théorème de la bijection
Théorème [Link] (Théorème de la bijection)

Soit I un intervalle et f une fonction continue et strictement monotone sur I. La fonction f réalise
une bijection de I sur f ( I ).

Remarque : Si f est croissante, f ( I ) est un intervalle de la forme suivante

I [ a, b] [ a, b[ ] a, b] ] a, b[
f (I) [ f ( a), f (b)] [ f ( a), limb f [ ] lima f , f (b)] ] lima f , limb f [
Si f est decroissante, f ( I ) est un intervalle de la forme suivante

I [ a, b] [ a, b[ ] a, b] ] a, b[
f (I) [ f (b), f ( a)] ] limb f , f ( a)] [ f (b), lima f [ ] limb f , lima f [
Exemples :
1. Soit f la fonction définie sur [−2, 4] par f ( x ) = x3 + 2x. Elle est continue et strictement croissante. De plus
f (−2) = −12 et f (4) = 72. C’est donc une bijection de [−2, 4] sur [−12, 72].
2. La fonction exponentielle est définie sur R. Elle est continue et strictement croissante. De plus lim e x = 0
x →−∞
et lim e x = +∞. Elle réalise donc une bijection de R sur ]0, +∞[.
x →+∞
Démonstration : Nous allons faire la démonstration dans le cas où I est de la forme [ a, b]. Nous supposerons
que f est strictement croissante (le cas décroissant est similaire).
Par définition, f est surjective si on prend f ( I ) comme ensemble d’arrivé.
Il reste à montrer l’injectivité. C’est-à-dire, que pour tout couple ( x, x 0 ) d’éléments de I tels que x 6= x 0 alors
f ( x ) 6= f ( x 0 ). Comme x 6= x 0 , l’un est strictement plus grand que l’autre. Posons par exemple x 0 > x. Dans ce
cas, f ( x 0 ) > f ( x ) et donc f ( x 0 ) 6= f ( x ). L’application est bien injective.
Elle est injective et surjective, c’est donc une bijection.


Proposition [Link]

Avec les hypothèses précédentes, la fonction f −1 de f ( I ) dans I est continue.

Démonstration : On a donc g = f −1 qui réalise une bijection strictement monotone de J = f ( I ) dans I. Quitte
à échanger g en − g on peut supposer que g est strictement croissante. On va montrer par l’absurde que g est
continue. Supposons donc que g n’est pas continue. Il existe y ∈ J tel que g ne soit pas continue en y.
— Supposons que y n’est ps une borne de J. On sait que, g étant strictement monotone elle admet des limites
à droite et à gauche en y et de plus
lim g 6 g(y) 6 lim g.
y− y+

La fonction n’étant pas continue, l’une des deux inégalités est stricte. Supposons par symétrie que
g(y) < lim g. Un élément α strictement compris entre g(y) et lim g ne peut pas être dans l’image de g. En
y+ y+
effet pour tout x de J, si x 6 y alors g( x ) 6 g(y) < α et si x > y alors g( x ) > limy+ g. Donc α ∈
/ g( J ) = I.
Cela contredit le fait que I est un intervalle.
— La démonstration est similaire si y est une borne.

Il y a un énoncé qui ressemble à une réciproque

Proposition [Link]

Soit f une fonction injective et continue sur un intervalle. Elle est strictement monotone.

194
Idée de démonstration : Supposons que f n’est pas strictement monotone par l’absurde. Il existe alors x < y
tels que f ( x ) 6 f (y) (et même f ( x ) < f (y) par injectivité) car f n’est pas strictement décroissante. De même il
existe a < b tels que f ( a) > f (b).
Il suffit (c’est facile à dire) d’étudier les différent cas pour conclure. Si on suppose par exemple que x < y 6
a < b.
— si f ( a) < f (y) : en appliquant le TVI entre x et y puis entre y et a on peut trouver deux antécédents à
f ( a) + f (y) f ( x ) + f (y)
ou à selon que f ( a) soit supérieur ou inférieur à f ( x ).
2 2
— si f ( a) > f (y) : en appliquant le TVI entre x et a puis entre a et b on peut trouver deux antécédents à
f ( a) + f (b) f ( x ) + f ( a)
ou à selon que f (b) soit supérieur ou inférieur à f ( x ).
2 2
Les autres cas sont similaires.


1.4 Bornes d’une fonction continue


Définition [Link]

On appelle segment ou intervalle fermé et borné tout intervalle I de la forme [ a, b] où a et b sont des réels.

Théorème [Link]

Soit I un segment et f une fonction continue sur I. La fonction est bornée et atteint ses bornes.

Démonstration : On note I = [ a, b]. Remarquons tout de suite que si f est constante c’est vrai. On exclut par la
suite ce cas.
— Commençons par montrer que f est majorée. Par l’absurde, supposons que ce n’est pas le cas. Pour tout
entier naturel n il existe alors un élément xn de I tel que f ( xn ) > n. La suite ( xn ) étant une suite d’élément
de I elle est bornée (∀n ∈ N, a 6 xn 6 b). Il existe donc une sous suite ( x ϕ(n) ) convergente. Soit ` sa
limite. Comme f est continue, f ( x ϕ(n) ) tend vers f (`). Cependant, pour tout entier n, f ( x ϕ(n) ) > ϕ(n) par
construction. C’est donc absurde.
— Montrons maintenant que α = supx∈[ a,b] f ( x ) = sup f ( I ) est atteint par f . Comme f ( I ) n’est pas réduit à
1
un point. Il existe un entier N tel que α − ∈ f ( I ). Dès lors, par définition de la borne supérieure, pour
N
tout entier n > N , α − 1/n appartient à f ( I ) donc il existe un dans I tel que

1
α− = f (un )
n
. Là encore, on peut extraire une sous-suite convergente de (un ) car elle est bornée. Cette sous suite
converge vers c dans I et, par continuité f (c) = α.
On fait de même pour l’inf. 
Exemple : Soit f une fonction strictement positive sur un segment. Il existe α > 0 tel que ∀ x ∈ I, f ( x ) > α.

Corollaire [Link]

Soit I un segment et f ∈ C 0 ( I ). On pose m = Min f et M = Max f alors f ( I ) = [m, M ].


[ a,b] [ a,b]

1.5 Exemple de résolution d’équations fonctionnelles


La résolution d’une équation fonctionnelle consiste à trouver toutes les fonctions f vérifiant une certaine
condition.

195
Déterminer toutes les fonctions f de R dans R telles que

∀( x, y) ∈ R2 , f ( x + y) = f ( x ) + f (y).

On commence souvent par chercher des cas particuliers. Ici pour x = 0 on trouve f (0 + y) = f (0) + f (y)
donc f (0) = 0.
De plus, on peut voir que f (2) = f (1 + 1) = f (1) + f (1) = 2 f (1). Par récurrence on prouve alors que pour
tout entier naturel n, f (n) = n f (1). On peut ensuite l’étendre au cas de n dans Z.
On remarque alors que tout entier naturel n non nul

n f (1/n) = f (1/n) + · · · + f (1/n) = f (1/n + · · · + 1/n) = f (1).

Il en découle que pour tout x dans Q, f ( x ) = x f (1).


Sans autres hypothèses, on ne peut pas aller plus loin. Si on suppose de plus que f est continue alors
f : x 7→ x f (1) en approchant un réel x par une suite de rationnels.
Exercices :
1. Déterminer toutes les applications continues f de I =]0, +∞[ dans R telles que ∀( x, y) ∈ I 2 , f ( xy) =
f ( x ) + f ( y ).
2. Déterminer toutes les applications continues f de R dans R telles que ∀( x, y) ∈ R2 , f ( x + y) = f ( xy).

2 Très brève extension aux fonctions à valeurs complexes


2.1 Généralités
Dans tout ce paragraphe on se fixe un intervalle I de R et f une fonction de I dans C.

Définition [Link]

Avec les notations précédentes, on appelle partie réelle (resp. partie imaginaire) de f la fonction notée Re( f )
(resp. Im( f )) définie de I dans R par

Re( f ) : t 7→ Re( f (t))(resp. Im( f ) : t 7→ Im( f (t))).

Définition [Link]

Avec les notations précédentes on note | f | et f les fonctions définies sur I par

∀ x ∈ I, | f |( x ) = | f ( x )| et f ( x ) = f ( x ).

Définition [Link]

On dit que f de I dans C est bornée si | f | l’est.

On peut alors définir la limite en a ∈ I dans le cas où cette limite est finie : ` ∈ C.

Définition [Link]

Soit f une fonction définie de I sur C, a ∈ I et ` ∈ C. On dit que f tend vers ` en a si | f − `| tend vers 0 en a.

Remarques :
1. Dans la définition ci dessus, | f − `| est une fonction à valeurs réelles.
2. Cela revient à réécrire la définition avec cette fois des modules et non plus des valeurs absolues.

196
Proposition [Link]

Avec les notations précédentes :

lim f = ` ⇐⇒ lim Re( f ) = Re(`) et lim Im f = Im`.


a a a

Définition [Link]

Soit I un intervalle de R et f une fonction définie de I sur C. On dit que f est continue si pour tout a de I ,
lim f = f ( a). On note C 0 ( I, C) l’ensemble des fonctions complexes continues sur I.
a

Proposition [Link]

La fonction f est continue si et seulement si Re( f ) et Im( f ) le sont.


En particulier, les sommes, produits et multiplication externe de fonctions continues sont continues

2.2 Le théorème des valeurs intermédiaires


B Le théorème des valeurs intermédiaires n’est plus vrai dans C. On peut « contourner » une valeur. Par
exemple, la fonction f : t 7→ eiπt . On a f (−1) = −1 et f (0) = 1 mais il n’existe pas t0 entre 0 et 1 tel que
f (t0 ) = 0.

197
Polynômes
14
1 Ensembles de polynômes à coefficients dans K 199
1.1 Construction et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1.2 Degré et valuation d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
1.3 Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2 Dérivation 204
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2.2 Dérivées successives et formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
3 Divisibilité et racines d’un polynôme 207
3.1 Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
3.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
3.3 Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
3.4 Ordre de multiplicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
3.5 Fonctions symétriques des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
3.6 Interpolation de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
4 Arithmétique dans K[ X ] 215
4.1 Plus grand commun diviseur (PGCD) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
4.2 Polynômes premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
4.3 Généralisation à une famille de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
4.4 Le plus grand commun multiple (PPCM) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
4.5 Propriétés du PGCD et du PPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5 Factorisation 219
5.1 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
5.2 Décomposition en produit de facteurs irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . 220
5.3 Factorisation sur C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
5.4 Quelques applications de la factorisation sur C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
5.5 Factorisation sur R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221

Dans tout ce chapitre K désigne le corps des réels R ou le corps des nombres réels C. La très grande majorité
des résultats s’applique au cas où K est un corps en général. On pourra aussi à l’occasion utiliser le corps Q.

198
1 Ensembles de polynômes à coefficients dans K
1.1 Construction et propriétés
On va vouloir construire des polynômes. Ce sont des « fonctions »de la forme x 7→ a0 + · · · + an x n pour
un entier n fixé et ( a0 , . . . , an ) ∈ Kn+1 . En pratique on veut définir un vrai objet algébrique dont la fonction
présentée ci-dessus ne sera qu’une réalisation.

Définition [Link]

On appelle polynôme à coefficients dans K une suite d’éléments de K stationnaire à 0.

Remarque : Un polynôme est donc une suite ( an ) ∈ KN tel qu’il existe un entier naturel N tel que

∀n > N, an = 0.

Terminologie :
1. On appelle coefficient du polynôme ( an ) les nombres a0 , a1 , . . . , a N .
2. On appelle polynôme nul et on notera 0 si cela ne porte pas à confusion le polynôme dont tous les
coefficients sont nuls.

Proposition [Link]

1. L’ensemble des polynômes à coefficients dans K est stable par l’addition de KN .


2. Soit λ un élément de K. La multiplication (externe) par λ stabilise l’ensemble des polynômes à
coefficients dans K.
On définit donc ainsi une addition noté + et une multiplication externe par un élément de K sur
l’ensemble des polynômes.

Démonstration

Exemple : Soit p = (1, 6, 2, −1, 0, 0, . . .) et q = (2, 7, −1, 3, 1, 0, 0, . . .) deux polynômes. Alors p + q = (3, 13, 1, 2, 1, 0, 0, . . .).
De même 5.p = (5, 30, 10, −5, 0, 0, . . .).
Remarques :
1. Nous verrons dans un prochain chapitre que cela signifie que l’ensemble des polynômes sur K est un
sous-espace vectoriel de RN .
2. Cette somme correspond bien à ce que nous voulons sur nos fonctions
On va aussi vouloir définir un produit. Ce ne sera pas le produit terme à terme. Regardons sur un exemple
ce que cela donne sur un exemple :

( a0 + a1 x + a2 x2 ) × (b0 + b1 x + b2 x2 ) = · · · = c0 + c1 x + c2 x2 + c3 x3 + c4 x4 .


c0 = a0 b0 ; c1 = a1 b0 + a0 b1 ; c2 = a2 b0 + a1 b1 + a0 b2 ; . . .
On peut donc généraliser

Proposition [Link]

Soit p = ( an ) et q = (bn ) deux polynômes à coefficients dans K. On pose pour tout entier n,
n
cn = ∑ a k bn − k = ∑ ai b j .
k =0 i + j=n

La suite (cn ) est un polynôme.

199
Remarque : Dans la deuxième somme, on fait la somme sur tous les couples (i, j) de N2 tels que i + j = n.
Démonstration : Posons N1 et N2 tels que ∀k > N1 , ak = 0 et ∀k > N2 , bk = 0. Soit n > N1 + N2 on a

n N1 n
cn = ∑ a k bn − k = ∑ a k bn − k + ∑ a k bn − k .
k =0 k =0 k = N1 +1

Dans la deuxième somme tous les termes sont nuls car ak = 0 pour k > N1 . Dans la première somme, k 6 N1
donc n − k > n − N1 > N2 donc bn−k = 0.
On a bien cn = 0. 

Définition [Link]

Soit p et q deux polynômes à coefficients dans K, on appelle produit de p et de q et on note p × q le polynôme


défini par la proposition ci-dessus.

Exemple : Soit p = (1, 6, −1, 0, 0, . . .) et q = (2, 7, 0, 0, . . .). Le polynôme p × q est (2, 19, 40, 0, . . .).
Remarque : Ce n’est pas la multiplication « classique »dans RN .

Théorème [Link]

L’ensemble des polynômes à coefficients dans K muni de l’addition et de multiplication définies


ci-dessus est un anneau commutatif.

Remarques :
1. Ce n’est pas un sous-anneau de KN car le produit n’est pas le même.
2. C’est aussi un anneau intègre mais on repousse cette partie à plus tard
Démonstration :
— L’ensemble des polynômes n’est pas vide car il contient le polynôme nul.
— L’addition est associative et commutative car elle l’est dans KN .
— Le polynôme nul est un élément neutre pour l’addition.
— Pour tout polynôme p = ( an ), le polynôme q = (− an ) vérifie que p + q = 0. C’est le symétrique de p pour
+
On a prouvé que l’ensemble des polynômes à coefficients dans K est un groupe abélien.
— Soit p = ( an ), q = (bn ) et r = (cn ). On a alors ( p.q).r = (dn ) et p.(q.r ) = en où
!
dn = ∑ ∑ a k bl cj = ∑ a k bl c j
i + j=n k + l =i i +k+l =n

et !
en = ∑ ai ∑ bk c l = ∑ a i bk c l .
i + j=n k+l = j i +k+l =n

On a bien (en ) = (dn ). Le produit est donc associatif.


— On peut montrer de même que la multiplication est distributive sur l’addition.
— Le polynôme 1 = (1, 0, 0, . . .) est un élément neutre pour la multiplication.
— De par la symétrie de la formule la multiplication est commutative.

Notation : On convient de noter X le polynôme (0, 1, 0, 0, . . .). On montre par récurrence que pour tout entier k
le polynôme X k est défini par ( an ) où

1 si k = n
∀n ∈ N, an = δkn =
0 sinon.

200
N
Dès lors le polynôme p = ( a0 , a1 , a2 , . . . , a N , 0, 0, 0, . . .) peut s’écrire a0 X 0 + a1 X 1 + · · · + a N X N = ∑ ak X k .
k =0
N
On notera souvent un polynôme ∑ ak X k . Il faut noter que rien n’implique a priori que a N est non nul. De
k =0
N1 N2
fait, si on considère deux polynômes (et même un nombre fini de polynômes) ∑ ak X k et ∑ bk X k on peut les
k =0 k =0
N N
écrire ∑ ak X k et ∑ bk X k en prenant N = Max( N1 , N2 ). Comme on sait que plus que tous les termes de la
k =0 k =0
+∞
suite sont nuls à partir d’un certain rang on notera aussi ∑ ak X k mais en comprenant bien que c’est une somme
k =0
finie.
N
On remarque que l’on peut faire les calculs de produit comme d’habitude. En effet si P = ∑ ak X k et
k =0
N
Q= ∑ bk X k
k =0 ! !
N N 2N
La formule P × Q = ∑ ak X k
× ∑ bk X k
= ∑ ck X k où ck = ∑ ai b j est obtenu par distributivité.
k =0 k =0 k =0 i + j=k
Terminologie :
1. On notera K[ X ] l’ensemble des polynômes à coefficients dans K.
2. Les polynômes de la formes λX k où λ ∈ K et k ∈ N s’appellent des monômes.
3. On appelle polynôme constant tout monôme de la forme λX 0 .
En tant qu’anneau commutatif, on peut calculer les puissances d’une somme de polynômes avec la formule
du binôme de Newton :

Proposition [Link] (Binôme de Newton)

Soit ( P, Q) ∈ K[ X ]2 et n ∈ N,   n
n k n−k
( P + Q) = ∑
n
P Q .
k =0
k

La mutliplication

Proposition [Link] (Propriétés de multiplication externe)

Soit ( P, Q) ∈ K[ X ]2 et (λ, µ) ∈ K2 on a :

?λ.(µ.P) = (λ × µ).P ?(λ + µ).P = λ.P + λ.µ


?λ.( P + Q) = λ.P + λ.Q ?0.P = 0
?(λ.P) × (µ.Q) = (λ.µ).( P × Q) ?(λ.P)k = λk .Pk .

Proposition [Link] (Composition)

N
Soit P et Q deux polynômes de K[ X ]. On note P = ∑ ak . On appelle compostion de P et de Q et on
k =0
note P ◦ Q ou P( Q) le polynôme
N
P◦Q = ∑ ak Pk
k =0

où Pk désigne la puissance k-ième de P.

201
Remarque : Si le polynôme Q est le polynôme X on trouve P ◦ X = P. C’est pour cela que l’on trouve la
notation P( X ) pour le polynôme P.
Exemple : Soit P = − X 2 + 3X + 2 et Q = 2X − 1 On trouve
P( Q) = −2Q2 + 3Q + 2Q0 = −(2X − 1)2 + 3(2X − 1) + 2 = −4X 2 + 10X − 3.

Proposition [Link]

Soit P, Q et R trois éléments de K[ X ].

( P × Q)( R) = P( R) × Q( R).

Démonstration : C’est la classique formule du produit obtenue par distributivité. 

1.2 Degré et valuation d’un polynôme


Soit P un polynôme de K[ X ] non nul. L’ensemble {k ∈ N | ak 6= 0} est une partie non vide (car P 6= 0) et
majorée (par définition) de N. Elle admet donc un plus grand élément.

Définition [Link]

Soit P un polynôme de K[ X ] non nul. Le degré du polynôme P, que l’on note deg P est le plus grand élément
de {k ∈ N | ak 6= 0}. Par convention, on dira que le polynôme nul est de degré −∞.

Exemples :
1. Un polynôme de degré zéro est un polynôme constant non nul.
2. Un polynôme de degré un est de la forme a0 + a1 X où a1 6= 0.
Remarques :
1. Les exemples ci-dessus montrent que, si n est un entier, il est souvent plus agréable de considérer les
polynômes de degré inférieur ou égal à n que les polynômes de degré exactement n. On dit alors que c’est
un polynôme de degré au plus n.
2. Comme on le voit sur la définition, le cas du polynôme nul est souvent à part. Il faut penser, dès que l’on
travaille avec le degré à réfléchir au cas du polynôme nul.
Notation : Soit n un entier, l’ensemble des polynômes de degré inférieur à n se note
K n [ X ].

Définition [Link]

Soit P un polynôme non nul.


— le coefficient du monôme X deg P s’appelle le coefficient dominant de P. Le monôme de degré deg P
s’appelle le terme dominant.
— si le coefficient dominant est égal à 1, le polynôme est dit unitaire ou normalisé.

1
Remarque : Soit P un polynôme non nul. Si λ est son coefficient dominant, le polynôme P est normalisé. Il
λ
s’appelle le normalisé de P.

Proposition [Link]

Soit P et Q deux polynômes non nuls.

deg( P + Q) 6 Max{deg P, deg Q}.

De plus si deg P 6= deg Q l’inégalité ci-dessus est une égalité.

202
Démonstration : Il suffit de l’écrire pour prouver l’inégalité. De plus si deg P 6= deg Q, le coefficient dominant
du polynôme de plus haut degré ne peut pas être compensé par un terme de l’autre polynôme. On a bien
l’égalité. 
B Il se peut que le degré de P + Q soit strictement inférieur au degré de P et de Q. Par exemple si P = 2 + X
et Q = −1 − X. De ce fait Kn [ X ] est stable par addition et pas l’ensemble de polynômes de degré exactement n.

Proposition [Link]

1. Soit P et Q deux polynômes non nuls

deg( P.Q) = deg P + deg Q.

2. Soit P un polynôme non nul et Q un polynôme non constant,

deg( P ◦ Q) = deg P. deg Q.

Remarque : Que se passe-t-il dans le cas 2. si le polynôme Q est constant ?


Exercice : Soit ( Pn ) la suite de polynôme définie par

P0 = 1, P1 = 1 + 3X et ∀n ∈ N? , Pn+1 = 2XPn + ( X 2 − 2X + 3) Pn−1 .


Déterminer le degré de Pn . (on trouve Pn = αn X n + · · · où αn = 2n + 1)

Proposition [Link]

Soit P et Q deux éléments de K[ X ].

P × Q = 0 ⇒ P = 0 ou Q = 0.

L’anneau K[ X ] est donc intègre.

Démonstration : Par contraposée, si P 6= 0 et Q 6= 0 alors deg( PQ) > 0 donc PQ 6= 0. 

Proposition [Link]

Les éléments inversibles de K[ X ] sont les polynômes de degré 0 c’est-à-dire les polynômes constants
non nuls.

Démonstration :
1
— Soit P = λ un polynôme constant avec λ 6= 0. On pose Q = . On a alors
λ
P × Q = 1.
Donc P est inversible.
— Réciproquement, si P est un polynôme inversible, il n’est pas nul (car le polynôme nul est absorbant).
Soit Q son inverse, deg( P) + deg( Q) = deg( P × Q) = deg(1) = 0. On en déduit que deg( P) 6 0 et donc
deg( P) = 0.

Remarque : Quand nous aborderons l’arithmétique des polynômes ils faudra faire attention aux polynômes
inversibles qui jouent le rôle des éléments inversibles de Z qui sont ±1.

Définition [Link]

Soit P un polynôme non nul. On appelle valuation de P et on note val( P) le plus petit élément de {k | ak 6= 0}
qui existe car c’est un ensemble non vide de N. Par convention la valuation du polynôme nul est +∞.

203
On a alors des propriétés analogues à celles sur le degré :

Proposition [Link]

Soit P et Q deux polynômes non nuls.


1. val( P + Q) > Min(val( P), val( Q)).
2. val( PQ) = val( P) + val( Q).

1.3 Fonctions polynomiales


Définition [Link]

N N
Soit P un élément de K[ X ] et α un élément de K. Si P = ∑ ak X k pour N ∈ N. On note P(α) = ∑ ak αk .
k =0 k =0
La fonction de K dans lui même définie par α 7→ P(α) s’appelle la fonction polynomiale associée à P. On la
e
notera P.

Terminologie : On dit que l’on remplace ou substitue X par α.


Remarque : On verra plus loin que l’application définie de K[ X ] dans l’ensemble des fonctions de K dans K
qui associe à un polynôme sa fonction polynomiale est injective.

Proposition [Link]

La substitution est compatibles aux opérations. Précisément :


1. La fonction polynomiale associée à une somme de deux polynômes et la somme des fonctions
polynomiales. Il en est de même pour la multiplication par λ dans K.
2. La fonction polynomiale associée à un produit de deux polynômes et le produit des fonctions
polynomiales.

Remarque : Pour calculer la valeur d’un polynôme en α on utilise l’algorithme de Hörner (voir cours d’algo-
rithmique). De même pour calculer un monôme, on utilise l’algorithme d’exponentiation rapide.

2 Dérivation
2.1 Définition
On peut dériver "formellement" un polynôme sans avoir recours à la notion "analytique" de dérivée vue en
classe de première.

Définition [Link]

N
Soit P un polynôme on note P = ∑ ak X k . Le polynôme dérivée, que l’on note P0 est le polynôme :
k =0

N N −1
P0 = ∑ kak X k−1 = ∑ (k + 1)ak+1 X k .
k =1 k =0

204
Proposition [Link]

Avec les notations précédentes, si P est un polynôme à coefficients réels, alors Pe est un fonction de R
dans R dérivable et la fonction polynomiale associée au polynôme dérivé de P est la fonction dérivée
de la fonction polynomiale associée à P. C’est-à-dire

( Pe)0 = Pe0 .

Exemples :
1. La dérivée du polynôme nul est le polynôme nul.
2. La dérivée du polynôme 7X 3 + 4X − 1 est le polynôme 21X 2 + 4.

Proposition [Link] (Linéarité de la dérivation)

Soit P et Q deux polynômes et soit (λ, µ) deux scalaires, on a

(λP + µQ)0 = λP0 + µQ0 .

Démonstration : Evident 

Proposition [Link]

Soit P un polynôme.
1. Si P est non constant,
deg( P0 ) = deg( P) − 1.
2. Le polynôme P est constant si et seulement si P0 = 0.

Démonstration
Proposition [Link]

Soit P et Q deux polynômes, on a

( P × Q)0 = P0 × Q + P × Q0 .

N
Demo à faire en prenant pour formule de la dérivée ∑ ( k + 1 ) a k +1 X k .
k =0
Exemple : Soit Pk = ( X − α)k . Démontrons par récurrence que Pk0 = k ( X − α)k−1 . Il suffit de voir qu’en dérivant
Pk+1 = ( X − α) Pk on obtient,
Pk0 +1 = Pk + k( X − α).Pk0 .

2.2 Dérivées successives et formule de Taylor


Définition [Link]

Soit P un polynôme. On définit les dérivées successives par récurrence. Précisément, soit n un entier la dérivée
n-ième, notée P(n) , est donnée par :
 (0)
 P =P
P (1) = P 0

∀n ∈ N, P(n+1) = ( P(n) )0

205
Exemple : Soit P = X 4 − 3X 3 + 5X − 1. On a P0 = 4X 3 − 9X 2 + 5, P(2) = 12X 2 − 18X, P(3) = 24X − 18,
P(4) = 24 et pour tout entier supérieur à 5 on a P(n) = 0.

Proposition [Link]

Soit i, k deux entiers on a 


 0 si i > k
( X k ) (i ) = k!
 X k −i sinon
(k − i )!

Proposition [Link]

Soit P un polynôme et n un entier non nul on a :


1. Si deg P > n alors deg P(n) = deg P − n.
 
2. (deg P 6 n − 1) ⇔ P(n) = 0 .

Proposition [Link] (Formule de Leibniz)

Soit P et Q deux polynômes et n un entier on a :


 
n
k (k)
( P.Q) (n)
(X) = ∑ P ( X ) Q ( n − k ) ( X ).
k =0
n

Remarques :
1. Pour le cas n = 1 on retrouve la classique formule de la dérivée d’un produit.
2. Cela sera encore vrai pour toute fonctions suffisamment dérivables de R dans R.
Démonstration : Par une récurrence similaire à celle du binôme de Newton. 

Proposition [Link]

Soit P un polynôme. On note P = ∑kN=0 ak X k . On peut retrouver les coefficients ak en regardant les
dérivées successives en 0. On a

P00 (0) P ( k ) (0) P ( n ) (0)


a0 = P (0) , a1 = P 0 ( a1 ) , a2 = , . . . , ak = , . . . , an = .
2 k! k!

Exemple : Soit P = a0 + a1 X + a2 X 2 + a3 X 3 + . . .. On a
P0 = a1 + 2a2 X + 3a3 X 2 + . . .
P00 = 2a2 + 6a3 X + . . .
P (3) = 6a3 + . . .
N
Démonstration : De manière générale, on écrit que P = R + ∑ ak X k avec deg( R) < p. D’où
k= p

N  ( p) N
k!
P( p) = R( p) + ∑ ak Xk = ∑ ( k − p ) !
ak X k− p .
k= p k= p

On a donc
p!
P ( p ) (0) = a p = p!a p .
( p − p)!

On voit que l’on sait calculer les coefficients d’un polynôme à partir de ses dérivées en 0. On peut généraliser
cela.

206
Théorème [Link] (Formule de Taylor)

Soit P un polynôme à coefficients dans K et α un élément de K. Pour tout entier n supérieur au degré
de P on a :
P00 (α) P(n) ( α )
P = P(α) + P0 (α)( X − α) + ( X − α )2 + · · · + ( X − α)n
2! n!
n
P(k) ( α )
= ∑ k!
( X − α)k .
k =0

Remarques :
1. Si on prend α = 0 dans la formule de Taylor, on retrouve la proposition précédente.
2. La plupart du temps on prendre pour N le degré de P, cependant, si on ne sait exactement déterminer ce
degré on utilisera un nombre N plus grand. C’est sans influence sur la formule car si k > deg( P) alors
P(k) (α) = 0.
3. Cette formule est importante, on la reverra dans le cas des fonctions.
4. Il faut essayer de penser à cette formule dès que l’on a dans un énoncé la valeur d’un polynôme et de ses
dérivées en un même point.
Démonstration : On va se ramener au cas α = 0. On pose Q = P ◦ ( X + α) on a donc P = Q ◦ ( X − α) car
( X − α) ◦ ( X + α) = X.
D’après la proposition précédentes, on a
N
Q ( k ) (0) k
Q= ∑ k!
X .
k =0

On en déduit que
N
Q ( k ) (0)
P = Q ◦ ( X − α) = ∑ k!
( X − α)k .
k =0

Il ne reste plus qu’à montrer que pour tout entier k entre 0 et N, Q(k) (0) = P(k) (α).
N
On voit déjà que Q(0) = P(α). De plus, on remarque que si P = ∑kN=0 ak X k alors Q = ∑ ak (X + α)k . En
k =0
dérivant on obtient par linéarité
N
Q0 = ∑ kak (X + α)k−1 en effet on montre par récurrence que ((X + α)k )0 = k(X + α)k−1 .
k =1

On a donc Q0 (0) = P0 (α). Il ne reste plus qu’a réitérer le procédé. 


Exemple : On veut déterminer les polynômes P de degré inférieur à 2 tels que P(1) = 1 et P0 (1) = 3. On peut
poser P = a + bX + cX 2 et essayer de trouver des équations sur a, b et c. Il est plus rapide de dire que si P
vérifient les équations alors :

P = 1 + 3( X − 1) + γ( X − 1)2 = (1 + γ) + (3 − 2γ) X + γX 2 .

3 Divisibilité et racines d’un polynôme


3.1 Divisibilité
Définition [Link]

Soit P et Q deux polynômes. On dit que P divise Q ou que Q est multiple de P et on note P| Q s’il existe un
polynôme R tel que Q = P.R. Le polynôme R est alors le quotient de Q par P.

Remarque : Cette définition est l’analogue de la notion de divisibilité des entiers.


Exemples :

207
1. Le polynôme X divise le polynôme X + 3X 2 car X + 3X 2 = X.(1 + 3X ).
2. Le polynôme 1 + X + X 2 divise le polynôme 1 − X 3 car 1 − X 3 = (1 − X ).(1 + X + X 2 )
3. Le polynôme 1 + X ne divise pas le polynôme 2 + 3X − X 2 .
4. Soit a ∈ K? . Tout polynôme non nul est divisible par le polynôme constant de valeur a.
5. Seul le polynôme nul est divisible par le polynôme nul.

Proposition [Link]

Soit P et Q deux polynômes.


1. Si P| Q et Q est non nul alors deg P 6 deg Q.
2. Si P| Q et Q| P alors il existe a ∈ K? tel que P = αQ.

Démonstration

B Il faut faire attention à la deuxième partie de la proposition. On a en fait P = UQ où U est un élément


inversible de K[ X ]. D’ailleurs dans Z on a l’analogue avec {±1}.

Définition [Link]

Soit P et Q deux polynômes. On dit que P et Q sont associés s’il existe λ ∈ K∗ tel que P = λ.Q.

Remarque : Le fait d’être associé est une relation d’équivalence.

3.2 Division euclidienne


Comme dans Z on a une division euclidienne en utilisant le degré car on ne peut pas dire que R < Q.

Théorème [Link]

Soit P1 et P2 deux polynômes de K[ X ] avec P2 6= 0. Il existe un unique couple ( Q, R) de polynômes


vérifiant
P1 = Q.P2 + R et deg Q < deg R.
Le polynôme Q s’appelle le quotient et le polynôme R s’appelle le reste de la division euclidienne de
P1 par P2 .

Démonstration :
— (Unicité) Supposons qu’il existe deux couples ( Q1 , R1 ) et ( Q2 , R2 ) qui satisfont au résultat du théorème.
On a donc
( Q1 − Q2 ) P2 = R2 − R1 .
Donc P2 divise ( R2 − R1 ). Mais le degré de R2 − R1 est strictement inférieur de celui de P2 cela implique
que R2 − R1 = 0 et donc R1 = R2 .
Par la suite ( Q1 − Q2 ) P2 = 0 et on conclut en utilisant que K[ X ] est intègre.
— (Existence) On procède par récurrence sur le degré de P1 . Précisément on pose

Hn = ”∀ P1 ∈ K[ X ], deg( P1 ) < n ⇒ ∃( Q, R) ∈ (K[ X ])2 , P1 = Q.P2 + R et deg Q < deg R”.

— I Pour n 6 deg P2 . Dans ce cas le couple (0, P2 ) convient.


— H Soit n un entier supérieur ou égal à deg P2 . On suppose Hn et on veut montrer Hn+1 . Soit P2
un polynôme de degré strictement inférieur à n + 1. Si son degré est inférieur strictement à n + 1 il
suffit d’utiliser Hn . Sinon, on pose an+1 6= 0 le coefficient dominant de P1 et on note bm X m le terme
dominant de P2 . On considère le polynôme obtenu en "tuant" le terme de plus haut degré de P1 . On
pose
a
P = P1 − n+1 X n+1−m P2 .
bm

208
Par construction, P a un degré inférieur strictement à n. On peut donc appliquer Hn . Il existe ( Q, R)
tels que P = QP2 + R donc  
a
P1 = Q + n+1 X n+1−m P2 + R.
bm


Remarque : La preuve ci-dessus donne une méthode algorithmique de faire cette division euclidienne. On
remarquera au passage que c’est beaucoup plus simple quand P2 est unitaire car dans ce cas il n’y a pas de
divisions.
Exemple : Calculer la division euclidienne de X 5 + 3X 4 − 7X 3 + X + 2 par X 3 + 3X − 2 donne Q = X 2 − 3X − 10
et R = 11X 2 + 25X + 22.

Proposition [Link]

Soit P1 et P2 deux polynômes avec P2 6= 0. Le polynôme P2 divise P1 si et seulement si le reste de


division euclidienne de P1 par P2 est nul.

Démonstration

Remarques :
1. En particulier si P1 et P2 sont deux polynômes de R[ X ]. On peut aussi les considérer comme polynômes
de C[ X ]. Par l’unicité on voit que les quotient et les reste de la division euclidienne de P1 par P2 sont les
mêmes dans R[ X ] et dans C[ X ]. En particulier P2 divise P1 dans R[ X ] si et seulement P2 divise P1 dans
C [ X ].
2. On voit donc que l’anneau K[ X ] a à peu près les mêmes propriétés que Z. Nous pourrons développer les
notions de PGCD, PPCM, etc. Cela est en fait un cas particulier des anneaux euclidiens.

3.3 Racines
Définition [Link]

Soit P un polynôme et α ∈ K. On dit que α est une racine de P si P(α) = 0.

Exemples :
1. Soit P = −3 − 2X + X 2 , ses racines sont 3 et −1.
2. Le polynôme X 2 + 1 n’ a pas de racines dans R. Dans C ses racines sont i et −i.
3. Tout nombre est racine du polynôme nul.

Théorème [Link]

Soit Q un polynôme non nul et α ∈ K. Le nombre α est racine de Q si et seulement si X − α divise Q.


C’est à dire :
P(α) = 0 ⇔ ( X − α)| Q.

Démonstration :
— ⇐ : C’est la proposition précédente.
— ⇒ : On utilise la formule de Taylor en α. On peut aussi le faire avec la division euclidienne.


209
Corollaire [Link]

Soit Q un polynôme non nul et (α1 , . . . , α p ) ∈ K p des nombres distincts. Tous les αi sont racines de
p
Q si et seulement si ∏( X − αi ) divise Q. C’est à dire :
i =1
!
p
(∀i ∈ [[ 1 ; p ]] , Q(αi ) = 0) ⇔ ∏ ( X − αi ) | Q.
i =1

Démonstration :
— ⇐ : C’est encore la proposition précédente.
— ⇒ : On a Q(α1 ) = 0 d’où il existe un polynôme Q1 tel que Q = ( X − α1 ).Q1 . De plus pour tout i compris
entre 2 et p on a Q1 (αi ) = 0 car (αi − α1 ) = 0. On peut recommencer.

Remarque : Nous verrons plus loin une meilleure preuve de ce corollaire. Il suffira d’utiliser que les ( X − αi )
sont premier entre eux.
Exemples :
1. Considérons le polynôme P = X 4 − X 3 − 5X 2 − X − 6. On remarque que P(3) = P(−2) = 0. On
en déduit que P est divisible par ( X − 3)( X + 2) = X 2 − X − 6. Vérifions par le calcul. On a P =
( X − 3)( X 3 + 2X 2 + X + 2) = ( X − 3)( X + 2)( X 2 + 1).
2. Soit n un entier et Pn = X n − 1. On sait que pour tout k ∈ [[ 0 ; n − 1 ]] le nombre ωk = e2ikπ/n est une
racine de Pn . D’où
n −1
∏ (X − ωk )| Pn .
k =0
!
n −1
De plus, deg ∏ ( X − ωk ) = deg Pn = n. Le quotient est donc de degré 0 : c’est un polynôme constant.
k =0
En regardant le terme de plus haut degré on en déduit que
n −1
Pn = ∏ ( X − ω k ).
k =0

Corollaire [Link]

Soit P un polynôme non nul. Le nombre de racine de P est inférieur au degré de P.

Démonstration : Il suffit de regarder le degré dans la proposition précédente. 


Remarques :
1. On en déduit que si deg P = n et si P a plus de n + 1 racines alors c’est le polynôme nul.
2. Le seul polynôme avec une infinité de racine est le polynôme nul.
On peut maintenant prouver la propriété énoncée plus haut.

Proposition [Link]

L’application de K[ X ] dans KK qui associe à un polynôme P sa fonction polynomiale associée est


injective.

e et on veut montrer que P = Q.


Démonstration : Soit P et Q. On suppose que Pe = Q
e
Si on pose H = P − Q. On a H = 0. Le polynôme H a donc une infinité de racines. Il est donc nul d’où
P = Q. 
Remarque : C’est la méthode la plus classique pour montrer que deux polynômes sont égaux. On montre que
leur fonctions polynomiales associées coïncident sur une infinité de valeurs.

210
3.4 Ordre de multiplicité
Nous verrons un peu plus loin qu’au moins dans C[ X ] les polynômes ( X − α) vont jouer le rôle des nombres
premiers. On va maintenant définir l’analogue de la validation p-adique. A savoir caractériser qu’un polynôme
soit divisible par une puissance de ( X − α).

Définition [Link]

Soit P un polynôme et α ∈ K. Soit r ∈ N.


1. on dit que α est une racine de multiplicité au moins r si et seulement si ( X − α)r | P
2. on dit que α est une racine de multiplicité r si et seulement si elle racine d’ordre au moins r mais pas
d’ordre au moins r + 1. C’est-à-dire

( X − α)r | P et ( X − α)r+1 - P.

On dit alors que r est l’ordre de multiplicité de α.

Remarques :
1. De fait, on va compter une racine de multiplicité r comme r racines confondues.
2. Une racine de multiplicité 0 est juste un α qui n’est pas racine.
3. Une racine de multiplicité supérieure à 1 est juste un α qui est racine.
4. Soit P un polynôme non nul et α ∈ K. On peut définir l’ordre de multiplicité de α en tant que racine de P
comme le plus grand entier p tel que ( X − α) p divise P. Il existe car { p ∈ N | ( X − α) p | P} est majoré par
le degré de P.
5. La multiplicité de 0 est la valuation.
Exemples :
1. Dans le cas du trinôme P = aX 2 + bX + c avec a 6= 0. On retrouve les cas connus. Si ∆ = 0 on a une racine
double α et ( X − α)2 | P.
2. On considère P = X 3 − 7X 2 + 15X − 9. On a P = ( X − 1)( X − 3)2 donc 1 est racine de multiplicité 1 et 3
est racine de multiplicité 2.
Terminologie : Une racine de multiplicité 1 est dite racine simple. Une racine de multiplicité strictement
supérieure à 1 est dite racine multiple. En particulier une racine de multiplicité 2 est dite racine double.

Proposition [Link]

Soit P un polynôme et α une racine d’ordre au moins r. Il existe Q tel que P = ( X − α)r Q. De plus

Q(α) 6= 0 ⇐⇒ l’ordre de multiplicité de α est r

Démonstration :
— ⇒ Par contraposée, si l’ordre de multiplicité n’est pas r il est au moins r + 1. On a alors ( X − α)r Q =
( X − α)r+1 R donc, comme K[ X ] est intègre, Q = ( X − α) R et donc Q(α) = 0.
— ⇐ Encore par contraposée. Si Q(α) = 0, alors Q = ( X − α) R et la multiplicité est strictement supérieure
à r.

Nous allons voir comment la notion de multiplicité d’une racine peut se voir avec le polynôme dérivé. Nous
allons commencer par un lemme.

Lemme [Link]

Soit P un polynôme et r un entier naturel non nul. Si α est une racine d’ordre r de P alors c’est une
racine d’ordre r − 1 de P0 . En particulier, si α est une racine simple de P alors P0 (α) 6= 0.

211
Démonstration du lemme : D’après les hypothèses, il existe un polynôme Q tel que P = ( X − α)r .Q( X ) et
Q(α) 6= 0. On dérive et on obtient :
P0 = r ( X − α)r−1 Q + ( X − α)r .Q0 = ( X − α)r−1 (rQ + ( X − α).Q0 ).
Or en α, le polynôme rQ + ( X − α).Q0 vaut rQ(α) et donc ne s’annule pas. On en déduit que α est bien une
racine d’ordre r − 1 de P0 . 

Théorème [Link]

Soit P un polynôme, α ∈ K et r ∈ N? .
1. Le nombre α est une racine de multiplicité supérieure à r si et seulement si P(α) = 0, P0 (α) =
0, · · · , P(r−1) (α) = 0.
2. Le nombre α est une racine de multiplicité r si et seulement si P(α) = 0, P0 (α) =
0, · · · , P(r−1) (α) = 0 et P(r) (α) 6= 0.

Remarque : pour se souvenir des exposants, il suffit de se souvenir des petites valeurs.
— Le nombre α est une racine simple (de multiplicité 1) si et seulement si P(α) = 0 et P0 (α) 6= 0.
— Le nombre α est une racine au moins double (de multiplicité supérieure ou égale à 2) si et seulement si
P(α) = 0 et P0 (α) = 0.
Démonstration : Il suffit de démontrer le 1.
— ⇒ On suppose que α est racine d’ordre r. En appliquant le lemme, α est racine d’ordre r − 1 de P0 puis
d’ordre r − 2 de P00 . Et ainsi de suite. On en déduit que pour tout i ∈ [[ 0 ; r − 1 ]], α est racine d’ordre
r − i > 0 de P(i) . En particulier pour tout i ∈ [[ 0 ; r − 1 ]], P(i) (α) = 0.
— ⇐ C’est juste la formule de Taylor en α :

P (r ) ( α )
P ( X ) = 0 + 0 + · · · + 0 + ( X − α )r +···
r!

Remarque : C’est, en pratique, comme cela que l’on détermine la multiplicité d’une racine.
Exemple : Déterminer la multiplicité de −1 dans P( X ) = X 5 + 3X 4 + 5X 3 + 7X 2 + 6X + 2.

Corollaire [Link]

Soit P un polynôme non nul. Les éléments (α1 , . . . , αn ) ∈ Kn sont des racines de multiplicité
n
respective r1 , . . . , rn si et seulement si P est divisible par ∏( X − αi )ri .
i =1

Démonstration :
— ⇐ C’est évident.
— ⇒ Attention ce n’est pas évident. En effet si ( X − α1 )r1 | P et ( X − α2 )r2 | P, rien ne dit à priori que
( X − α1 )r1 .( X − α2 )r2 divise P. Cela découlera plus tard du fait que ( X − αi )ri et ( X − α j )r j sont premiers
entre eux.


Corollaire [Link]

Soit P un polynôme non nul. On suppose que les éléments (α1 , . . . , αn ) ∈ Kn sont des racines de
multiplicité respective r1 , . . . , rn . On a alors

r1 + r2 + · · · + rn 6 deg( P).

En particulier, si P est un polynôme de degré inférieur ou égal à n et que les éléments (α1 , . . . , αn ) ∈
Kn sont des racines de multiplicité respective r1 , . . . , rn . Si r1 + r2 + · · · + rn > n alors P est le
polynôme nul.

212
Démonstration : C’est la proposition précédente en utilisant que si Q| P alors deg Q 6 deg P. 
Remarque : Cela justifie bien que l’on compte autant de fois une racine que sa multiplicité.

3.5 Fonctions symétriques des racines


Définition [Link]

Un polynôme P de K[ X ] est dit scindé s’il existe λ, x1 , . . . , xn des éléments de K tels que
n
P = λ ∏ ( X − x k ).
k =1

Remarques :
1. Si un polynôme non nul de degré n a n racines distinctes, il est scindé.
2. Si un polynôme non nul de degré n a n racines comptées avec leur multiplicité, il est scindé.
3. Réciproquement, si P = λ ∏nk=1 ( X − xk ), les racines de P sont les xk .
Exemples :
 
1. Soit n un entier naturel. Le polynôme X n − 1 est scindé sur C. On a vu en effet que X n − 1 = ∏ X − e2ikπ/n .
Par contre, pour n = 3, X 3 − 1 n’est pas scindé sur R car il n’a qu’une racine réelle qui est simple et qui est
1.
2. Soit P = aX 2 + bX + c. Il est scindé sur C. Il est scindé sur R si et seulement si ∆ > 0.
Nous voulons voir comment les coefficients d’un polynôme scindé s’expriment en fonction des racines de ce
polynômes. Commençons par deux exemples.
Exemples :
1. Si P est de degré 2, ce résultat est déjà connu. Si on note P = a0 + a1 X + a2 X 2 = a2 ( X − x1 )( X − x2 ). En
développant on trouve :
a0 a
x1 x2 = et x1 + x2 = − 1 .
a2 a2
2. Si P est de degré 3 et si on note P = a0 + a1 X + a2 X 2 + a3 X 3 = a3 ( X − x1 )( X − x2 )( X − x3 ). Là encore,
en développant on trouve :
a0 a a2
x1 x2 x3 = − , x1 x2 + x1 x3 + x2 x3 = 1 et x1 + x2 + x3 = − .
a3 a3 a3

Cela conduit à la définition suivante (nous nous plaçons dans le cas d’un polynôme unitaire pour simplifier) :

Définition [Link] (Fonctions symétriques des racines)

n
Soit P = ∏ (X − xk ). Pour tout entier p dans [[ 1 ; n ]] on note
k =1

σp = ∑ x1 x2 · · · x p .
i1 <i2 <···<i p

Remarques :
1. On a donc
n
σ1 = ∑ x i = x1 + · · · x n
i =1
σ2 = ∑ x i x j = x 1 x 2 + x 1 x 2 + · · · x n −1 x n
i< j
n
σn = ∏ x i = x1 · · · x n
i =1

213
2. Cela s’appelle les fonctions symétriques car elles sont clairement symétriques. Elle ne dépendent pas de
l’ordre des racines. De fait on peut montrer que toute expression polynomiale symétrique des racines peut
s’exprimer unique en fonctions des σi . Par exemple,

x12 + x22 + x32 = ( x1 + x2 + x3 )2 − 2( x1 x2 + x1 x3 + x2 x3 ) = σ12 − 2σ2 .


Trouver en exercice l’expression de x13 + x23 + x33

Proposition [Link]

n
Soit P un polynôme scindé unitaire. Si on note P = a0 + a1 X + · · · + X n = ∏ (X − xk ). On a
k =1

a0 = (−1)n σn , a1 = (−1)n−1 σn−1 , . . . , ak = (−1)n−k σn−k , . . . , an−1 = −σ1 .

Remarque : Ces formules s’appellent les relations coefficients-racines et généralisent celles qui ont été vues
pour le degré 2.
Exemple : Soit P = X 3 − X 2 − X − 2. Nous allons voir qu’il est scindé sur C. Si on note a, b et c ses racines alors

a2 + b2 + c2 = σ12 − 2σ2 = (1)2 − 2(−1) = 3.

3.6 Interpolation de Lagrange


Soit n ∈ N∗ . On se donne ( xi ) ∈ Kn et yi ∈ Kn . On cherche à trouver des polynômes L de degré minimal
tel que ∀i ∈ [[ 1 ; n ]] L( xi ) = yi . Cela revient à chercher une courbe représentant un polynôme passant par les
points Ai ( xi , yi ) pour tout i dans [[ 1 ; n ]].
Exemple : On sait bien que par deux points passe toujours une droite. On doit donc pour n = 2 trouver un
polynôme de degré 1. De même pour trois points, il ne passe plus toujours une droite (même si cela peut arriver)
on va donc chercher un polynôme de degré 2 et faire passer une parabole par ces points et ainsi de suite

Théorème [Link] (Polynôme interpolateur de Lagrange)

Avec les notations ci-dessus, il existe un unique polynôme L tel que ∀i ∈ [[ 1 ; n ]] L( xi ) = yi de degré
inférieur ou égal à n − 1

Définition [Link]

Le polynôme défini par le théorème ci-dessus s’appelle polynôme interpolateur de Lagrange.

Démonstration :
— Unicité : Soit P et Q deux polynômes de Kn−1 [ X ] tels que ∀i ∈ [[ 1 ; n ]] P( xi ) = Q( xi ) = yi . Si on considère
P − Q qui est encore de degré au plus n − 1, il vérifie que ∀i ∈ [[ 1 ; n ]] ( P − Q)( xi ) = 0. Il est donc nul et
P = Q.
— Existence : Si on considère le polynôme
n
Ai = ∏ ( X − x k ).
k =0
k 6 =i

Ce dernier s’annule en x1 , . . . , xi−1 , xi+1 , . . . , xn et Ai ( xi ) = ∏nk=0 ( xi − xk ) 6= 0. On introduit donc


k 6 =i
n
∏ ( X − xk )
k =0
k 6 =i
Li = n .
∏ ( xi − x k )
k =0
k 6 =i

214
Il vérifie que 
1 si i = j
∀ j ∈ [[ 1 ; r ]] , Li ( x j ) = δij =
0 si i 6= j
Il suffit donc de prendre
r
L= ∑ yi Li .
i =1


4 Arithmétique dans K[ X ]
Nous allons voir que la grande partie des résultats vus en arithmétique s’étendent au cas des polynômes.

4.1 Plus grand commun diviseur (PGCD)


On a vu que dans l’anneau K[ X ], comme dans l’anneau Z on avait une notion de divisibilité ainsi que la
division euclidienne. De ce fait, la plupart des définitions et résultats de l’arithmétique de Z s’étende à K[ X ].
La plus grande différence est que dans Z si n|n0 et n0 |n alors n = n0 ou n = −n0 car les inversibles de Z sont
justes +1 et −1. Dans K[ X ] si P| Q et Q| P, il existe un polynôme constant non nul α tel que P = αQ. Pour cela
on remplacera le « positif » par « unitaire ».

Proposition [Link]

Soit P et Q deux polynômes non tous nuls. L’ensemble D ( P) ∩ D ( Q) est non vide. De plus il existe
un entier d tel que D ( P) ∩ D ( Q) ⊂ Kd [ X ]

Démonstration : L’ensemble D ( P) ∩ D ( Q) n’est pas vide car il contient 1. De plus, par symétrie on peut
supposer que P 6= 0. De ce fait, tout polynôme R de D ( P) ∩ D ( Q) vérifie que deg( R) 6 deg( P). 

Définition [Link]

Soit P et Q deux polynômes non tous nuls. On appelle un PGCD de P et Q tout polynôme R de D ( P) ∩ D ( Q)
de degré maximal.

Exemple : Soit P = X 2 − 2X + 1 et Q = X 2 − 3X + 2. On voit que ( X − 1) divise P et Q mais que tout polynôme


de degré 2 ne peut pas diviser P et Q.

Proposition [Link]

Soit P et Q deux polynômes avec Q 6= 0. On pose P = AQ + R, alors les diviseurs communs à P et


Q sont les même que ceux à Q et R. En particulier, si P = SQ + R est la division euclidienne de P
par Q, on a
D ( P ) ∩ D ( Q ) = D ( Q ) ∩ D ( R ).

Remarque : C’est la même chose que dans Z


F Méthode : Comme dans le cas de Z, l’algorithme d’Euclide permet de calculer un PGCD.
Soit P = X 4 + 3X 3 − X 2 + 3X − 6 et Q = X 2 + 4X − 5.
On a P = ( X 2 − X + 8) Q + (−34X + 34) puis Q = R(−34X + 34) + 0. Donc −34X + 34 est un PGCD de P
et Q.

Proposition [Link]

Soit P et Q deux polynômes de K[ X ] non tous nuls et D un PGCD de P et Q. On a

∀ R ∈ K[ X ], ( R| P et R| Q) ⇐⇒ R| D.

215
Remarque : Dans la proposition le sens ⇐ signifie en particulier que D est un diviseur commun car il se
divise lui même. Le sens ⇒ signifie que D est bien le plus grand diviseur commun au sens de la division.
Démonstration :
— ⇐ : C’est juste la transitivité de la division car D | P et D | Q.
— ⇒ : Comme dans le cas de Z, on fait une récurrence sur le degré de Q (ou de P si Q = 0). Le principe est
d’utiliser la division euclidienne.
Corollaire [Link]

Soit P et Q deux polynômes non tous nuls. Si D1 et D2 sont deux PGCD de P et Q alors D1 et D2
sont associés.

Définition [Link]

Soit P et Q deux polynômes non tous nuls. On appelle le PGCD de P et Q l’unique PGCD unitaire de P et
Q. On le note P ∧ Q. Par extension, si P = Q = 0 on note P ∧ Q = 0.

Théorème [Link] (Théorème de Bézout)

Soit P et Q deux polynômes non tous. Il existe des polynômes U et V tels que

PU + QV = P ∧ Q.

Démonstration : Il suffit d’utiliser l’algorithme mis en en place dans Z pour déterminer U et V. 


Remarques :
1. Cela signifie que { PU + QV | (U, V ) ∈ (K[ X ])2 } = {( P ∧ Q).R | R ∈ K[ X ]}. Relation que l’on peut écrire
PK[ X ] + QK[ X ] = ( P ∧ Q)K[ X ].
Là encore, cela serait une bonne manière de définir plus abstraitement le PGCD.
2. En appliquant l’algorithme d’Euclide on obtient les coefficients de Bézout.

4.2 Polynômes premiers entre eux


Définition [Link]

Soit P et Q deux polynômes. On dit que P et Q sont premiers entre eux si et seulement si P ∧ Q = 1.

Remarque : Cela signifie que les seuls polynômes divisant P et Q sont les polynômes constants.

Proposition [Link]

Soit P et Q deux polynômes, ils sont premiers entre eux si et seulement s’il existe U, V dans K[ X ]
tels que
PU + QV = 1.
Cela revient à dire que tout polynôme R de K[ X ] peut s’écrire sous la forme PU + QV.

Exemple : Soit P = X − α et Q = X − β avec α 6= β. On a alors P − Q = β − α donc


1 1
P− Q = 1.
β−α β−α
On en déduit que P et Q sont premier entre eux.
On a aussi une version du lemme de Gauss

216
Proposition [Link] (Lemme de Gauss)

Soit P et Q deux polynômes premiers entre eux alors pour tout polynôme R,

P| QR ⇒ P| R.

Démonstration : Même démonstration que sur Z en utilisant le théorème de Bézout. 

Corollaire [Link]

Soit P et Q deux polynômes premiers entre eux alors Pr et Qs sont premiers entre eux.
En particulier si α 6= β, ( X − α)r ∧ ( X − β)s = 1.

Proposition [Link]

Soit P et Q deux polynômes. Il existe des polynômes P1 et Q1 premiers entre eux tels que

P = DP1 et Q = DQ1

où D = P ∧ Q.

Démonstration : Là encore la démonstration est analogue à celle dans Z. 

4.3 Généralisation à une famille de polynômes


Comme dans le cas de Z, on peut généraliser ces définitions au cas d’une famille finie de polynômes

Proposition-Définition [Link]

Soit r ∈ N \ {0, 1} et P1 , . . . , Pr une famille de polynômes non tous nuls.


1. Il existe un unique polynôme unitaire D tel que

∀ R ∈ K[ X ], (∀i ∈ [[ 1 ; r ]] , R| Pi ) ⇔ R| D

on le note D = P1 ∧ . . . ∧ Pr
2. Il existe (U1 , . . . , Ur ) ∈ K[ X ]r , P1 U1 + · · · + Pr Ur = P1 ∧ . . . ∧ Pr .

Remarque : On a par exemple P1 ∧ P2 ∧ P3 = ( P1 ∧ P2 ) ∧ P3 . Il suffit de voir que


P1 K[ X ] + P2 K[ X ] + P3 K[ X ] = ( P1 ∧ P2 ∧ P3 )K[ X ].

Définition [Link]

Soit P1 , . . . , Pr une famille de polynômes. On dit qu’il sont mutuellement premiers entre eux (ou premiers
entre eux dans leur ensemble) si et seulement si P1 ∧ . . . ∧ Pr = 1.

ATTENTION

Comme dans le cas de Z. La notion de premiers en leur ensemble est plus faible que 2 à 2 premiers
entre eux.

Exemple : Soit α1 , . . . , αr des éléments de K deux à deux distincts. Les polynômes ( X − αi )ni sont premiers
entre eux dans leur ensemble

217
4.4 Le plus grand commun multiple (PPCM)
Proposition [Link]

Soit P et Q deux polynômes. Il existe un unique polynôme M unitaire ou nul dont les multiples sont
les multiples communs à P et Q. On a

∀ R ∈ K[ X ], P| R et Q| R ⇒ M| R.

Démonstration :
— Unicité : C’est le même argument que pour le PGCD.
— Existence : Remarquons d’abord que si A ou B est nul, on peut prendre M = 0. Par la suite, supposons
A et B non nuls. Il existe des multiples communs par exemple AB. Notons M l’ensemble des multiples
communs non nuls et D = {deg N | N ∈ M }. L’ensemble D est une partie non vide de N (car 0 ∈ / M ).
Considérons un polynôme N de M de degré minimal.
— Tout multiple de N est bien un multiple commun de P et Q.
— Soit R un multiple commun de P et Q montrons que N divise R. On fait pour cela la division
euclidienne de R par N et on note S le reste. On a donc S = R − TN. Donc S est un multiple commun
de P et Q. Comme il est de degré strictement inférieur à celui de N on a S = 0 et N | R.

Définition [Link]

Soit P et Q deux polynômes. On appelle PPCM le polynôme défini ci-dessus. On le note P ∨ Q.

Remarque : Là encore, M est un multiple commun et c’est le plus petit au sens de la division.
Exemples :
1. Si P ou Q est nul, P ∨ Q = 0.
2. Soit P = ( X − α) et Q = ( X − β). On a

( X − α)( X − β) si α 6= β
P∨Q =
X−α si α = β

4.5 Propriétés du PGCD et du PPCM


Proposition [Link]

Soit P et Q deux polynômes. Soit R un polynôme unitaire alors

PR ∧ QR = ( P ∧ Q) R et PR ∨ QR = ( P ∨ Q) R.

Démonstration : Comme nous ne l’avions pas faite sur Z, nous allons la faire.
— Pour le PGCD : On note D = P ∧ Q. On sait que D divise P et Q donc DR divise PR et QR. On en déduit
que DR|( PR ∧ QR).
De plus, si on note T = ( PR ∧ QR). On veut montrer que T | DR. Remarquons d’abord que R| T car R est
un diviseur commun de PR et QR. On peut donc écrire T = UR. Maintenant comme T divise PR on a U
qui divise P. De même U divise Q. On en déduit que U | D et donc T = UR| DR.
On conclut en utilisant que PR ∧ QR et ( P ∧ Q) R sont unitaires.
— Pour le PPCM : On note M = P ∨ Q. Alors P| M et Q| M donc PR| MR et QR| MR. On en déduit ( PR ∨
QR)| MR. Maintenant on sait que PR|( PR ∨ QR) donc R|( PR ∨ QR). On note PR ∨ QR = UR. Comme
PR|UR on en déduit que P|U. De même on trouve que Q|U et donc ( P ∨ Q)|U. En multipliant par R on
a ( P ∨ Q) R|UR = PR ∨ QR. On conclut comme précédemment en utilisant que ce sont des polynômes
unitaires.


218
Proposition [Link]

Soit P et Q deux polynômes premiers entre eux. Soit R un polynôme alors

P| R et Q| R ⇒ PQ| R.

En particulier si PQ est unitaire alors P ∨ Q = PQ.

Démonstration : Puisque P et Q sont premiers entre eux il existe U et V tels que PU + QV = 1 et donc
PRU + QRV = R. Maintenant, Q| R donc PQ| PRU. De même PQ| QRV. On a bien PQ| R. 

Corollaire [Link]

Soit P et Q deux polynômes. Il existe λ ∈ K? tel que

( P ∧ Q)( P ∨ Q) = λPQ.

Démonstration : La proposition précédente est le cas où P et Q sont premiers entre eux. On démontre le cas
général en écrivant P = DP1 et Q = DQ1 où D = P ∧ Q et P1 ∧ Q1 = 1. 

5 Factorisation
C’est un résultat connu que si n est un entier, il peut s’écrire de manière unique comme un produit de
nombres premiers. Par exemple 12936 = 23 × 3 × 72 × 11. Nous allons essayer de faire de même pour les
polynômes dans R[ X ] et C[ X ]. La première tache est alors de trouver un analogue aux nombres premiers.

5.1 Polynômes irréductibles


Définition [Link]

Un polynôme non constant P est dit irréductible s’il n’a pas de diviseurs triviaux, c’est-à-dire que P n’est
divisible que par les multiples de P et les polynômes constants. Cela s’écrit :

∀ Q ∈ K[ X ], Q| P ⇒ (∃λ ∈ K, Q = λ.P ou Q = λ).

Remarques :
1. C’est un analogue des nombres premiers. Un nombre entier est dit premier s’il n’est divisible que par
lui-même et par 1. Avec toujours le fait que les inversibles de K[ X ] ne sont pas que 1 et −1 mais tous les
polynômes constants.
2. On considère qu’un polynôme constant n’est pas irréductible, de la même manière que 1 n’est pas un
nombre premier.
Exemples :
1. Les polynômes de degré 1 sont irréductibles.
2. Étudions le cas des polynôme de degré 2 pour K = C. On sait qu’ils ont toujours une racine α. De ce fait
ils ne sont pas irréductibles car divisible par ( X − α).
3. Étudions le cas des polynôme de degré 2 pour K = R. On regarde ∆ le discriminant.
— si ∆ > 0 le polynôme a des racines réelles. Il n’est donc pas irréductible.
— si ∆ < 0 le polynôme n’a pas de racines réelles. Supposons par l’absurde qu’il ne soit pas irréductible.
Il serait alors divisible par un polynôme non constant de degré strictement inférieur. C’est à dire par
un polynôme de degré 1. C’est absurde car il n’a pas de racines réelles. Dans ce cas, le polynôme est
irréductible.

219
Remarque : Attention, contrairement à ce que pourrait faire croire ci qui précède, il n’y a pas équivalence entre
être irréductible et ne pas avoir de racines. On a bien
( P est irréductible ) ⇒ P n’a pas de racines.
Cela se démontre bien par contraposée. Mais la réciproque est fausse. Par exemple le polynôme P = 2X 4 +
6X 2 + 4 n’a pas de racines réelles de manière évidente. Cependant P = 2( X 2 + 1)( X 2 + 2). Donc P n’est pas
irréductible.

5.2 Décomposition en produit de facteurs irréductibles


C’est l’analogue de la décomposition en facteurs premiers dans Z. Nous avons déjà énoncé le théorème
précédemment. Nous allons maintenant le démontrer. Nous aurons avant besoin d’un proposition.

Proposition [Link]

Soit P un polynôme irréductible. Il est premier avec tous les polynômes qu’il ne divise pas.

Démonstration : Soit Q un autre polynôme. On suppose que P et Q ne sont pas premiers. Dans ce cas il existe R
non constant qui divise P et Q. Comme R est non constant et qu’il divise P qui est irréductible, il existe λ ∈ K?
tel que P = Rλ. On a donc P| Q. 

Théorème [Link]

Soit P un polynôme non constant. Il peut s’écrire sous la forme


p
P = λ. ∏ Qk ,
k =1

où λ ∈ K et les Qk sont des polynômes unitaires irréductibles sur K. De plus cette décomposition est
unique à l’ordre des facteurs.

Démonstration : L’existence se fait par récurrence sur le degré de P. L’unicité est la même démonstration que
dans Z. 
Remarques :
1. C’est l’analogue de la décomposition en nombres premiers dans Z.
2. Nous le démontrerons plus loin.
3. Une telle décomposition s’appelle une factorisation de P.
Exemple : Dans l’exemple précédent, l’écriture P = 2( X 2 + 1)( X 2 + 2) est la factorisation sur R car les
polynômes X 2 + 1 et X 2 + 2 sont irréductibles sur R (les discriminants sont −4 et −8). Par contre sur C la
factorisation sera √ √
P = 2( X + i )( X − i )( X + i 2)( X − i 2).
On a alors le même corollaire que dans Z :

Proposition [Link]

Soit P et Q deux polynômes. On note


β β
P = R1 1 × · · · × Rrαr et Q = R1 1 × · · · × Rr r
α

les décompositions en facteurs premiers. On a alors


1. Le nombre P divise Q si et seulement si ∀i ∈ [[ 1 ; r ]] , αi 6 β i .
2. On a
r Min(αi ,β i ) r Max(αi ,β i )
P∧Q = ∏ Ri et P ∨ Q = ∏ Ri .
i =1 i =1

220
5.3 Factorisation sur C
Contrairement à ce que vous pourriez penser, il est plus simple de factoriser sur C. La raison est que la
description des polynômes irréductibles est plus élémentaires. On a

Théorème [Link] (Théorème de Gauss-D’alembert)

Soit P un polynôme à coefficient complexe. Si deg P > 1 alors P a une racine dans C.

Remarques :
1. Il faut comprendre le « P a une racine » dans le sens de l’existante d’une racine c’est-à-dire qu’il peut en
avoir plusieurs.
2. Ce théorème est très important en mathématique et est assez difficile à démontrer.
3. Cela englobe en particulier le cas des polynômes réels.

Corollaire [Link]

Les polynômes irréductibles dans C[ X ] sont les polynômes de degré 1. En particulier, soit P un
polynôme à coefficient dans C, sa factorisation est de la forme
p
P( X ) = λ. ∏ ( X − αi )ri ,
k =1

où λ ∈ C est le coefficient dominant de P, αi les racines de P et ri leur multiplicité.

Remarque : Cela signifie que tout polynôme est scindé sur C.


Exemple : On considère le polynôme P = 1 − X 4 . On l’écrit P = −( X 4 − 1). Ses racines sont 1, eiπ/2 , eiπ et
e3iπ/2 . On a quatre racines distinctes, elles sont donc toutes simples. On a alors

3
P( X ) = − ∏ ( X − eikπ/2 ) = −( X − 1)( X − i )( X + 1)( X + i ).
k =0

Exercice : Factoriser le polynôme X 5 + X 4 − X − 1.

5.4 Quelques applications de la factorisation sur C


Proposition [Link]

Soit P un polynôme à coefficients dans C. Soit (α1 , . . . , α p ) ∈ C p ses racines et (r1 , . . . , r p ) les
multiplicités respectives. On a
r1 + · · · + r p = deg P.

Proposition [Link]

Soit P et Q deux polynômes non nuls à coefficients complexes. Le polynôme Q divise P si et


seulement si toutes les racines de Q sont des racines de P avec des multiplicités supérieures.

Exemple : Pour quels entiers n, X 2 + X + 1 divise-t-il Pn = X 2n+1 + X n+2 + 1 ? A-t-on ( X 2 + X + 1)2 | Pn ?

5.5 Factorisation sur R


Attention le théorème de d’Alembert-Gauss n’est plus vrai dans R. Par exemple le polynôme X 2 + 1 n’a pas
de racines et est irréductible.

221
Proposition [Link]

Les polynômes irréductibles de R sont :


— Les polynômes de degré 1.
— Les polynômes de degré 2 de la forme aX 2 + bX + c avec b2 − 4ac < 0.

Théorème [Link] (Factorisation dans R[ X ])

Soit P un polynôme à coefficients réels. Il existe λ ∈ R, ( p, q) ∈ N2 , (r1 , · · · , r p ) ∈ N p , (s1 , . . . , sq ) ∈


Nq , (α1 , · · · , α p ) ∈ R p , ( β 1 , · · · , β q ) ∈ Rq et (γ1 , . . . , γq ) ∈ Rq tels que
p q
P = λ. ∏( X − αi )ri . ∏( X 2 − β i + γi )si .
i =1 i =1

Avant de le démontrer on va devoir un peu travailler sur la conjugaison complexe.

Définition [Link]

N
Soit P = ∑ ak X k un polynôme de C[X ]. On appelle conjugué de P et on note P le polynôme
k =0

N
P= ∑ ak X k .
k =0

On a alors les propriétés suivantes :

Proposition [Link]

Soit ( P, Q) ∈ (C[ X ])2 .


1. P + Q = P + Q.
2. ∀α ∈ C, P(α) = P(α).
0 (k)
3. P = P0 et donc ∀k ∈ N, P(k) = P .
4. P ∈ R[ X ] ⇐⇒ P = P.

Corollaire [Link]

Soit P un polynôme à coefficients réels. Soit α une racine complexe, le conjugué α est aussi racine et
de même multiplicité.

Démonstration

On peut maintenant démontrer le théorème. La démonstration est importante car c’est la méthode utilisée
dans les calculs.
Démonstration : On considère toutes les racines complexes de P. On met d’un coté les racines réelles. On
p
donne le terme ∏( X − αi )ri . On considère alors les racines complexes que l’on regroupe deux à deux avec les
i =1
conjugués puis on utilise que
( X − α)( X − α) = ( X 2 − 2Re(α) X + |α|2 ).

222

Exemple : On considère le polynôme X4 + 1. Ses racines dans C sont eiπ/4 , e3iπ/4 , e5iπ/4 et e7iπ/4 . On remarque
alors que
e5iπ/4 = eiπ/4 et e7iπ/4 = e3iπ/4 .
D’où √ √
( X 4 + 1) = ( X 2 + 2 + 1)( X 2 − 2 + 1).
Exercice : Soit P = 1 + 2X + 3X 2 + 2X 3 + X 4 . Montrer que j est racine et déterminer sa multiplicité. En déduire
sa factorisation sur C puis sur R

223
1 Définitions
Dérivation
15 224
1.1 Nombre dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1.2 Interprétation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.3 Fonction dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.4 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.5 Dérivées des fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
2 Dérivées d’ordre supérieure 231
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
2.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
3 Accroissements finis 233
3.1 Extremums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
3.2 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
3.3 Inégalités des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
3.4 Application à la monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
3.5 Application aux prolongements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237

Nous allons étudier la notion de dérivée. Pour cela nous commencerons pas regarder la dérivée en un point
puis la notion de fonction dérivée.

1 Définitions
1.1 Nombre dérivé
Définition [Link] (Nombre dérivé)

Soit I un intervalle et I une fonction définie sur I. Soit a ∈ I, on dit que la fonction est dérivable en a si le
taux d’accroissement en a à une limite finie. C’est à dire si la fonction ϕ a définie sur I − { a} par

f ( x ) − f ( a)
ϕa (x) =
x−a
admet une limite quand x tend vers a.
df
Dans ce cas, cette limite s’appelle nombre dérivé de f en a et se note f 0 ( a) ou ( a). On dit que f est dérivable
dx
en a.

224
Remarque : Si on veut faire ce calcul, on se ramène la plupart du temps à une limite en 0 en posant x = a + h.
Dès lors, sous réserve d’existence,
f ( a + h) − f ( a)
f 0 ( a) = lim .
h →0 h
Exemples :
1. Soit f : x 7→ 2x2 + 3. On cherche à savoir si elle est dérivable en a = 3. On calcule

f ( x ) − f (3) 2x2 + 3 − 21 x2 − 9
ϕa (x) = = = 2. = x + 3.
x−3 x−3 x−3
On en déduit que ϕ a tend vers 6 quand x tend vers 3 donc f est dérivable en 3 et f 0 (3) = 6..

2. Soit f : x 7→ x. Soit a ∈ R+ . On a donc
√ √
x− a 1
ϕa (x) = = √ √ .
x−a x+ a

1
On en déduit que si a 6= 0 alors f est dérivable et f 0 ( a) = √ . Par contre elle n’est pas dérivable en 0.
2 a
 
1
3. Soit f la fonction définie sur R? par f : x 7→ x sin .
x
On remarque que ∀ x ∈ R? , | f ( x )| 6 | x |. En particulier on peut la prolonger par continuité en 0 en posant
f (0) = 0 1 .
On peut alors se demander si le prolongement obtenu est dérivable en 0. Pour cela on regarde le taux
d’accroissement en 0 :
x sin(1/x ) − 0
∀ x ∈ R ? , ϕ0 ( x ) = = sin(1/x ).
x
On en déduit que le taux d’accroissement n’a pas de limite en 0 et, de ce fait, la fonction f n’est pas
dérivable en 0.
Exercice : Le prolongement par continuité de x 7→ x2 sin(1/x ) est-il dérivable en 0 ?

Proposition [Link]

Si f est dérivable en a alors elle est continue en a. La réciproque est fausse.

Démonstration

Définition [Link] (Nombre dérivé à droite et à gauche)

Avec les notations précédentes, on dit que f est dérivable à droite (resp. à gauche) en a si ϕ a admet une limite à
droite (resp. à gauche) finie. On note alors
 
0 f ( x ) − f ( a) 0 f ( x ) − f ( a)
f d ( a) = lim , resp. f g ( a) = lim .
x → a+ x−a x → a− x−a

Remarque : La fonction f est dérivable à droite en a si la restriction de f à I ∩ [ a, +∞[ est dérivable. De même
à gauche avec la restriction à I ∩] − ∞, a].
On a alors comme pour les limites

Proposition [Link]

Avec les notations précédentes :

( f dérivable en a) ⇔ ( f dérivable à droite et à gauche en a et f d0 ( a) = f g0 ( a)).

1. Par abus on note encore f le prolongement par continuité obtenu.

225
Démonstration : La fonction ϕ a n’est pas définie en a. De ce fait, elle a une limite en a si et seulement elle a des
limites à gauche et à droite qui existent et sont égales. 
Exemple : Soit f définie sur R par f : x 7→ | x |.
Soit a ∈ R?+ , il existe un voisinage V de a dont tous les éléments sont strictement positif. Pour tout x dans
V \ { a}, on a
| x | − | a| x−a
ϕa (x) = = = 1.
x−a x−a
On en déduit que f est dérivable en a et que f 0 ( a) = 1.
De même si a ∈ R?− , on trouve f 0 ( a) = −1.
Pour a = 0, les calculs précédents montrent que f d0 (0) = 1 et f g0 (0) = −1. On en déduit alors par la
proposition ci-dessus que f n’est pas dérivable en 0.

Définition [Link]

On dit que f admet un développement limité à l’ordre 1 au voisinage de a s’il existe ( a0 , a1 ) ∈ R2 , pour tout
x au voisinage de a
f ( x ) = a0 + a1 ( x − a ) + o ( x − a ) .
a

Remarque : Si on applique cela à x = a on trouve que nécessairement, a0 = f ( a).

Proposition [Link]

Une fonction f est dérivable en a si et seulement si elle admet un développement limité à l’ordre 1
en a. Dans ce cas, a0 = f ( a) et a1 = f 0 ( a).

Démonstration :
— ⇒ On suppose que f est dérivable en a et on veut montrer que f ( x ) − f ( a) − f 0 ( a)( x − a) est négligeable
devant x − a en a. Il suffit de calculer
f ( x ) − f ( a) − f 0 ( a)( x − a) f ( x ) − f ( a)
∀ x 6= a, = − f 0 ( a ).
x−a x−a
Ceci tend bien vers 0 par définition de f 0 .
— ⇐ Il suffit de faire le calcul dans l’autre sens.


Corollaire [Link]

Avec les notations précédentes, si f est dérivable en a et que f 0 ( a) 6= 0 alors

f ( x ) − f ( a ) ∼ ( x − a ) f 0 ( a ).
a

Proposition [Link]

Soit f et g deux fonctions qui coïncident au voisinage de a. On a alors f est dérivable en a si et


seulement si g dérivable en a. De plus, dans ce cas, f 0 ( a) = g0 ( a).

226
1.2 Interprétation graphique
Soit f unefonctiondéfinie sur I et a un élément de  I. On appelle
 C la courbe de f . On pose A le point de
a x
coordonnées et M le point de coordonnées . On regarde alors la corde ( AM ). Sa pente est
f ( a) f (x)
donnée par le taux d’accroissement ϕ a ( x ). En particulier, le vecteur (1, ϕ a ( x )) en est un vecteur directeur.
Si on suppose que f est dérivable en a alors les vecteurs directeurs (1, ϕ a ( x )) tendent vers (1, f 0 ( a)) qui est
donc la « limite »des cordes ( AM ).
La tangente à la courbe C en a est donc la droite passant par A et de vecteur directeur (1, ϕ a ( x )). Son
équation est
y − f ( a) = f 0 ( a)( x − a) ( ou y = f ( a) + f 0 ( a)( x − a)).
Remarques :
1. Si un fonction admet une dérivée à droite (ou à gauche) en a alors sa courbe a une demi-tangente à ce
point. Par exemple la fonction x 7→ | x |.
2. Si f est continue en a et que le taux d’accroissement tend vers ±∞ alors les cordes «√tendent »vers la droite
verticale passant par A. On dit que C a une tangente verticale. Par exemple x 7→ x en 0.

1.3 Fonction dérivée


Définition [Link]

Soit I un intervalle et f une fonction définie sur [Link] dit que f est dérivable sur I (ou juste dérivable) si f est
dérivable en tout point de I. La fonction dérivée de f est alors la fonction, notée f 0 définie sur I qui associe à x
df
dans I le nombre dérivée f 0 ( x ). On la note aussi .
dx

Notation : On notera D 1 ( I ) l’ensemble des fonctions définies et dérivables sur un intervalle I.

Définition [Link]

Soit I un intervalle et f une fonction définie sur I. On dit que f est de classe C 1 si elle est dérivable sur I et si
sa fonction dérivée est continue sur I. L’ensemble des fonctions de classe C 1 sur I se note C 1 ( I ).

Remarque : De fait, la notion de fonction de classe C 1 est souvent plus utile que celle de fonction dérivable.
On a
C 1 ( I ) ⊂ D 1 ( I ) ⊂ C 0 ( I ).

1.4 Opérations algébriques


On se fixe un intervalle I dans tout ce paragraphe.

Proposition [Link] (Linéarité)

Soit f , g deux fonctions définies sur I et (λ, µ) ∈ R2 . Soit a ∈ I, si f et g sont dérivable en a alors
λ. f + µ.g est dérivable en a et (λ. f + µ.g)0 ( a) = λ. f 0 ( a) + µ.g0 ( a).
On en déduit que si f et g appartiennent à D 1 ( I ), (λ. f + µ.g) aussi et (λ. f + µ.g)0 = λ. f 0 + µ.g0 .

Remarque : cette proposition remplace l’addition et la multiplication externe.


Démonstration : En utilisant le développement limité.

227
Corollaire [Link]

Les ensembles C 1 ( I ) et D 1 ( I ) sont des sous-espaces vectoriels de F ( I, R). En particulier, une


combinaison linéaire de fonctions dérivables est dérivable. De plus l’application

D: D 1(I) → F ( I, R)
f 7→ f0

est linéaire

Proposition [Link] (Produit)

Soit f , g deux fonctions définies sur I. Soit a ∈ I, si f et g sont dérivables en a alors f .g est dérivable
en a et ( f .g)0 ( a) = f 0 ( a).g( a) + f ( a).g0 ( a).
On en déduit que si f et g appartiennent à D 1 ( I ), ( f .g) aussi et ( f .g)0 = f 0 .g + f .g0 .

Démonstration : En utilisant les développements limités.


f ( x ) = f ( a) + ( x − a) f 0 ( a) + o ( x − a) et g( x ) = g( a) + ( x − a) g0 ( a) + o ( x − a) .
a a

C’est à dire qu’il existe des fonctions ε 1 et ε 2 tendant vers 0 en a telle que
f ( x ) = f ( a) + ( x − a) f 0 ( a) + ( x − a)ε 1 ( x ) et g( x ) = g( a) + ( x − a) g0 ( a) + ( x − a)ε 2 ( x ).
On fait le produit et on trouve :
( f .g)( x ) = ( f .g)( a) + ( x − a)[ f ( a) g0 ( a) + f 0 ( a) g( a)] + ( x − a)2 f 0 ( a) g0 ( a) + ( x − a)ε 1 ( x )( g( a) + ( x − a) g0 ( a) + ( x − a)ε 2
= ( f .g)( a) + ( x − a)[ f ( a) g0 ( a) + f 0 ( a) g( a)] + o (( x − a)) .
a


Exemple : On trouve directement que la fonction x 7→ x2
est dérivable et que sa dérivée est x 7→ 2x. Par
récurrence, on prouve que la dérivée de x 7→ x n est x 7→ nx n−1 . On peut ensuite généraliser aux polynômes par
linéarité
Proposition [Link] (Quotient)

Soit f , g deux fonctions définies sur I. Soit a ∈ I, si f et g sont dérivable en a et g( a) 6= 0, alors f /g


est dérivable en a et  0
f f 0 ( a) g( a) − f ( a) g0 ( a)
( a) = .
g g2 ( a )
On en déduit que si f et g appartiennent à D 1 ( I ) et que g ne s’annule pas sur I, ( f /g) aussi et
f 0 .g − f .g0
( f /g)0 = .
g2

Démonstration : Commençons par 1/g. On en déduira alors le cas général en utilisant le produit. Soit g une
fonction dérivable en a et qui ne s’annule pas en a.
Alors pour x 6= a,
1 1

g( x ) g( a) g( x ) − g( a) −1
ϕa (x) = = . .
x−a x−a g( x ) g( a)
− g0 ( a)
Quand x tend vers a cela tend vers .
g2 ( a )
Maintenant, on a donc
− g0 ( a) f 0 ( a) g( a) − f ( a) g0 ( a)
( f × 1/g)0 ( a) = f 0 ( a) × (1/g)( a) + f ( a) × 2
= .
g ( a) g2 ( a )


228
Proposition [Link] (Composée)

Soit f une fonction définie sur I et g une fonction définie sur J. On suppose que g( J ) ⊂ I. Soit a un
élément de J. Si g est dérivable en a et f est dérivable en g( a) alors f ◦ g est dérivable en a et

( f ◦ g)0 ( a) = g0 ( a).( f 0 ◦ g)( a).

On en déduit que si f appartient à D 1 ( I ) et g appartient à D 1 ( J ) alors f ◦ g est un élément de D 1 ( J )


et
( f ◦ g)0 = g0 × f 0 ◦ g.

Démonstration :
Soit x 6= a. On a
f ( g( x )) − f ( g( a))
ϕa (x) = .
x−a
On voudrait écrire que

f ( g( x )) − f ( g( a)) f ( g( x )) − f ( g( a)) g( x ) − g( a)
= ×
x−a g( x ) − g( a) x−a
mais on est embêté si jamais g( x ) = g( a).
Pour cela on pose 
 f (y) − f ( g( a))
si y 6= g( a)
ψ : y 7→ y − g( a)
 0
f ( g( a)) sinon
Ainsi définie, cette fonction est continue sur J (car on pris la bonne valeur quand y = g( a).).
Maintenant, pour tout x 6= a,

f ( g( x )) − f ( g( a)) g( x ) − g( a)
ϕa (x) = = ψ( g( x )) × .
x−a x−a
En effet, c’est ce que l’on avait vu quand g( x ) 6= g( a) et de plus quand g( x ) = g( a) les deux termes sont
nuls.
En faisant tendre x vers a on trouve le résultat cherché.


Proposition [Link] (Réciproque)

Soit f : I → J une bijection.


— Soit a un élément de I. Si f est dérivable en a et que f 0 ( a) 6= 0 alors f −1 est dérivable en f ( a) et

1 1
( f −1 )0 ( f ( a)) = ou ( f −1 )0 (b) = en posant b = f ( a).
f 0 ( a) f 0 ( f −1 (b))

— Si f est dérivable sur I et si f 0 ne s’annule pas alors f −1 est dérivable sur J et

1
( f −1 ) 0 = .
f 0 ◦ f −1

Démonstration : On pose b = f ( a) et on veut montrer que

f −1 ( y ) − f −1 ( b ) 1
lim = 0 .
y→b y−b f ( a)

Or
f ( x ) − f ( a)
f 0 ( a) = lim .
x→a x−a

229
Comme la fonction f −1 est continue, lim f −1 (y) = f −1 (b) = a, par composition,
y→b

f ( f −1 (y)) − f ( a) y−b
f 0 ( a) = lim = lim −1 .
y→b f −1 ( y ) − a y→b f ( y ) − f −1 ( b )
Comme f 0 ( a) n’est pas nul on peut passer à l’inverse. 
Remarque : Si on veut juste la formule sans à redémontrer la dérivabilité, on peut ultiliser que ( f ◦ f −1 ) = Id.
En dérivant, ( f −1 )0 × f 0 ◦ f −1 = 1 et donc
1
( f −1 ) 0 = .
f 0 ◦ f −1
Exemple : On prend f la restriction de cos à [0, π ]. On sait que c’est une bijection de [0, π ] sur [−1, 1] et qu’elle
est dérivable. De plus f 0 s’annule en 0 et en π. Donc arccos est dérivable sur [−1, 1] \ { f (0), f (π )} =] − 1, 1[.
De plus, sa dérivée en x ∈] − 1, 1[ est
1
arccos0 ( x ) = .
− sin(arccos x )

Et on sait que que sin(arccos( x )) = 1 − x2 . On a donc
−1
arccos0 ( x ) = √
.
1 − x2
Nous verrons plus loin que l’on peut dire qu’en 1 et −1 la courbe représentative de de arccos a une tangente
verticale.

1.5 Dérivées des fonctions usuelles

Fonction Dérivée Remarques


xn (n ∈ Z) nx n−1 sur R ou R? si n < 0
xα (α ∈
/ Z) αx α−1 sur R?+
√ 1
† x √ R?+
2 x
eωx (ω ∈ C) ω.eωx sur R
ax ln a × a x R
ln x 1/x sur R?+
1
loga x sur R?+
x ln a
sin x cos x sur R
cos x − sin x sur R
1
tan x 1 + tan2 x = sur ] − π/2 + kπ, π/2 + kπ [
cos2 x
1
† arcsin x √ sur ] − 1, 1[
1 − x2
−1
† arccos x √ sur ] − 1, 1[
1 − x2
1
arctan x sur R
1 + x2
th x ch x sur R
ch x sh x sur R
2 1
th x 1 − th x = sur R
ch 2 x
En utilisant la formule pour les dérivées de fonctions composées et les dérivées des fonctions usuelles on
trouve que :

Fonction Dérivée
uα αu0 uα−1
√ u0
u √
2 u
eu u0 .eαu
u0
ln u
u

230
2 Dérivées d’ordre supérieure
2.1 Définitions
L’idée est que si f est dérivable sur un intervalle I. Si la fonction dérivée f 0 est encore dérivable on dira que
la fonction est deux fois dérivable et que se dérivée seconde est f 00 = ( f 0 )0 . Précisément :

Définition [Link]

Soit I un intervalle et f une fonction définie sur I. On définit les dérivées d’ordre 0, 1, · · · , n par récurrence
quand elles existent par :
∀ x ∈ I, f (n) ( x ) = ( f (n−1) )0 ( x ).
La fonction f (n) s’appelle la dérivée n-ième. Si elle existe, la fonction f est dite n fois dérivable.

Notation : L’ensemble des fonctions n fois dérivables sur un intervalle I se note D n ( I ). On note aussi C n ( I )
l’ensemble des fonctions n fois dérivable et dont la dérivée n-ième est continue. 2
On a donc :
· · · ⊂ D n +1 ⊂ C n ⊂ D n ⊂ · · · ⊂ D 2 ⊂ C 1 ⊂ D 1 ⊂ C 0
On notera aussi C ∞ les fonctions infiniment dérivables, c’est à dire que l’on peut dériver autant de fois que
l’on veut.

Proposition [Link]

1. Les polynômes sont des fonctions C ∞ sur R.


2. Les fonctions exponentielles et logarithmes sont C ∞ sur leur ensemble de définition.
3. Les fonctions puissances sont C ∞ . On fera attention à l’intervalle de définition.
4. Les fonctions circulaires sont C ∞ sur leur ensemble de définition.
5. Les fonctions arcsin et arccos sont C ∞ sur ] − 1, 1[. La fonction arctan est C ∞ sur R.
6. Les fonctions ch , sh et th sont C ∞ .

Exemples :
p!
1. Soit p ∈ N et n un entier inférieur à p alors ( x p )(n) = x p−n .
( p − n)!
2. Soit α ∈ R et f : x 7→ x α . Pour tout réel strictement positif x et tout entier n,

f ( n ) ( x ) = α ( α − 1) · · · ( α − n + 1) x α − n .

3. Soit n ∈ N et α ∈ R, (eαx )(n) = αn eαx .


4. Soit n ∈ N, cos(n) ( x ) = cos( x + nπ/2). En effet si on remarque que cos( x ) = Re(eix ). Alors

cos(n) ( x ) = Rein eix = Re(eiπ/2 )n eix = Reei( x+nπ/2) = cos(n + nπ/2).

2.2 Opérations algébriques


On va voir que les relations sur les opérations algébriques sont aussi vraies pour les dérivées n-ièmes. Nous
allons écrire tous les énoncés pour les ensembles C n mais ils sont aussi vrais pour C ∞ ou D n .

Proposition [Link] (Linéarité)

Soit I un intervalle et f , g deux fonctions et (λ, µ) ∈ R2 . Si f et g appartiennent à C n ( I ), (λ. f + µ.g)


aussi et (λ. f + µ.g)(n) = λ. f (n) + µ.g(n) .

2. la condition ne porte que sur la dérivée n-ième car les autres étant dérivables elles sont obligatoirement continues.

231
Corollaire [Link]

On en déduit que C n ( I ), C ∞ ( I ) et D n ( I ) sont des sous-espaces vectoriels de F ( I, R). Une combi-


naison linéaire de fonctions n fois dérivables est n fois dérivable. Sa dérivée n-ième est la même
combinaison linéaire des dérivées n-ième. En effet l’application

Dn : D n(I) → F ( I, R)
f 7→ f (n)

est linéaire.

Proposition [Link] (Produit - Formule de Leibniz)

Soit I un intervalle et f et g deux fonctions définies sur I.


Si f et g appartiennent à C n ( I ), ( f .g) aussi et
n  
n (k) (n−k)
( f .g) (n)
= ∑ f .g .
k =0
k

Démonstration : Montrons par récurrence sur n ∈ N? que pour tout entier non nul n, « Si f et g appartiennent
à C n ( I ), ( f .g) aussi et ( f .g)(n) = ∑nk=0 (nk) f (k) .g(n−k) . ».
— Initialisation : pour n = 1, c’est la propriété vue précédemment. On a bien
1  
1 ( k ) (1− k )
( f .g)0 = f 0 g + g0 f = ∑ f g .
k =0
k

— Hérédité : On suppose que f et g sont n + 1 fois dérivables. Alors elles sont n fois dérivables et de ce fait
( f g) aussi et
n  
n (k) (n−k)
( f .g) = ∑
(n)
f .g .
k =0
k
La forme de droite est dérivable, on en déduit que celle de gauche aussi et
!0
n  
n (k) (n−k)
( f g) ( n +1)
= ∑ k f .g
k =0
n   0
n
= ∑ f (k) .g(n−k)
k =0
k
 
n
n  ( k +1) ( n − k ) 
= ∑ f .g + f ( k ) g ( n +1− k )
k =0
k
! !
n   n  
n ( k +1) ( n − k ) n ( k ) ( n +1− k )
= ∑ k f .g + ∑
k
f g
k =0 k =0
! !
n +1   n  
n n ( k ) ( n +1− k )
= ∑ k − 1 f .g ( k ) ( n +1− k )
+ ∑
k
f g
k =1 k =0
       
0 (0) ( n +1) n +1 n n n ( n +1) (0)
= f g +∑ + ( k ) ( n +1− k )
f .g + f g
0 k =1
k − 1 k n
n +1  
n + 1 ( k ) ( n +1− k )
= ∑ f .g
k =0
k


Proposition [Link] (Quotient)

Soit I un intervalle et f , g deux fonctions. Si f et g appartiennent à C n ( I ) et que g ne s’annule pas


sur I, ( f /g) est n fois dérivable.

232
Proposition [Link] (Composée)

Soit f une fonction définie sur I et g une fonction définie sur J. On suppose que g( J ) ⊂ I. Si f
appartient à C n ( I ) et g appartient à C n ( J ) alors f ◦ g est un élément de C n ( J ).

Démonstration : Montrons par récurrence.


— I Pour n = 1 cela a été fait ci-dessus.
— H Soit n on suppose que si f et g sont de classe C n alors f ◦ g aussi. Montrons que la propriété est aussi
vraie pour n + 1. Supposons donc que f et g soient de classe C n+1 . On sait alors que ( f ◦ g) est dérivable
et ( f ◦ g)0 = g0 × f 0 ◦ g. Maintenant, g0 ∈ C n car g ∈ C n+1 et f 0 ◦ g ∈ C n donc, par produit, ( f ◦ g)0 est de
classe C n d’où f ◦ g est de classe C n+1 .
Donc, par récurrence . . .


ATTENTION

La formule de la dérivée n-ieme d’une composé est TRES compliquée. C’est la formule de Faà di
Bruno : !m j
n ( j) ( x )
n! g
( f ◦ g )(n) ( x ) = ∑ f (m1 +···+mn ) ( g( x )) × ∏ .
m1 ! · · · m n ! j =1
j!

La somme est prise sur tous les n-uplets (m1 , . . . , mn ) tels que m1 + 2m2 + · · · + nmn = n.

Proposition [Link] (Réciproque)

Soit f : I → J une bijection. Si f est n fois dérivable sur I et si f 0 ne s’annule pas alors f −1 est n fois
dérivable sur J.

Exercice : faire la démonstration par récurrence.


Exercice : Calculer les dérivées n-ièmes de x 7→ ln(1 + x ) et x 7→ x2 ln(1 + x ).

3 Accroissements finis
3.1 Extremums
Définition [Link]

Soit I un intervalle et f une fonction définie sur I. Soit a un élément de I.


1. On dit que a est un maximum global si : ∀ x ∈ I, f ( x ) 6 f ( a).
2. On dit que a est un minimum global si : ∀ x ∈ I, f ( x ) > f ( a).
3. On dit que a est un maximum local s’il existe un voisinage V de a tel que a soit un maximum global de
la restriction de f à V. C’est-à-dire : ∃ε > 0, ∀ x ∈ I ∩] a − ε, a + ε[, f ( a) > f ( x ).
4. On dit que a est un minimum local s’il existe un voisinage V de a tel que a soit un minimum global de
la restriction de f à V. C’est-à-dire : ∃ε > 0, ∀ x ∈ I ∩] a − ε, a + ε[, f ( a) 6 f ( x ).
5. On dit que a est un extremum global si c’est un maximum global ou un minimum global.
6. On dit que a est un extremum local si c’est un maximum local ou un minimum local.

Remarque : Un extremum global est aussi un extremum local le contraire est faux.

233
Définition [Link]

Soit I un intervalle et a ∈ I.
1. On dit que a est un point intérieur à I s’il appartient à I et que ce n’est pas une borne.
2. Soit f une fonction définie et dérivable sur I. On dit que a est un point critique de f si f 0 ( a) = 0.

Théorème [Link]

Soit f une fonction dérivable sur un intervalle I et a un point intérieur de I. Si a est un extremum
local pour f alors f 0 ( a) = 0. C’est un point critique.

Remarques :
1. Il faut faire attention que le point a peut-être un extremum sans que la dérivée ne s’annule si c’est une
borne. Par exemple x 7→ x sur [0, 1].
2. La réciproque est bien sûre fausse. Par exemple, le point 0 pour la fonction f : x 7→ x3 .
Démonstration : Soit a, on suppose que c’est un extremum local. Soit ε > 0 tel que a soit un maximum global
sur ] a − ε, a + ε[⊂ I. On a alors
f ( a + h) − f ( a)
f 0 ( a) = lim .
h →0 h
f ( a + h) − f ( a)
Pour tout h ∈] − ε, 0[ on a > 0 car le numérateur et le dénominateur sont négatifs. Par contre
h
f ( a + h) − f ( a)
Pour tout h ∈]0, ε[ on a 6 0 car le numérateur est encore négatif mais le dénominateur est
h
positif. On en déduit que
f ( a + h) − f ( a) f ( a + h) − f ( a)
lim > 0 et lim 6 0.
h →0− h h →0 + h
On en déduit que f 0 ( a) = 0. 

3.2 Théorème des accroissements finis


Théorème [Link] (Théorème de Rolle)

Soit f une fonction continue sur [ a, b] et dérivable sur ] a, b[. Si f ( a) = f (b) il existe c ∈] a, b[ tel que
f 0 (c) = 0.

Démonstration : Si la fonction est constante, c’est évident. On élimine donc ce cas. La fonction f est alors
continue sur un intervalle fermé et bornée, elle est donc bornée et atteint ses bornes. Elle a donc soit un
maximum, soit un minimum dans ] a, b[. On l’appelle c, il vérifie f 0 (c) = 0. 
Remarques :
1. Cela se voit bien sur un dessin.
2. Il faut faire attention aux hypothèses et il faut les connaître. Cela est vrai de manière plus générale avec
f dérivable sur [ a, b] mais
√ le petit raffinement permet de l’utiliser avec des fonctions définies à l’aide de
fonctions comme x 7→ x ou x 7→ arcsin x.
Le théorème de Rolle sert à démontrer le suivant :

Théorème [Link] (Théorème des accroissements finis)

Soit f une fonction continue sur [ a, b] et dérivable sur ] a, b[. Il existe c ∈] a, b[ tel que

f (b) − f ( a)
= f 0 ( c ).
b−a

234
Remarques :
1. Cela se voit aussi géométriquement, c’est une version « penchée » du théorème de Rolle. En effet, cela
signifie qu’il y a une tangente parallèle à la droite (AB) où A = ( a, f ( a)) et B=(b, f (b)).
2. Ce théorème s’appelle aussi « égalité des accroissements finis ».
Démonstration : On veut se ramener au théorème de Rolle. On considère la fonction g définie sur [ a, b] par

f (b) − f ( a)
∀ x ∈ [ a, b], g( x ) = f ( x ) − x.
b−a
On a alors que g est encore continue sur [ a, b] et dérivable sur ] a, b[. De plus g( a) = g(b). On applique le
f (b) − f ( a)
théorème de Rolle. Il existe c ∈] a, b[ tel que g0 (c) = 0 or g0 (c) = f 0 (c) − . On en déduit que
b−a
f (b) − f ( a)
= f 0 ( c ).
b−a

x
Exemple : Montrons que pour tout x > 0, il existe c ∈]0, x [ tel que ln(1 + x ) = . On applique le théorème
1+c
des accroissements finis à f : x 7→ ln(1 + x ) entre 0 et x. Il existe c ∈]0, x [ tel que

ln(1 + x ) − 0 1 1
= car f 0 ( x ) = .
x−0 1+c 1+x
En particulier, ln(1 + x ) 6 x.

3.3 Inégalités des accroissements finis


Corollaire [Link] (Inégalités des accroissements finis)

Soit f une fonction continue sur [ a, b] et dérivable sur ] a, b[. On suppose que la dérivée f 0 est bornée
sur ] a, b[. Soit (m, M ) ∈ R2 tels que ∀ x ∈] a, b[, m 6 f 0 ( x ) 6 M alors

m ( b − a ) 6 f ( b ) − f ( a ) 6 M ( b − a ).

Remarques :
1. Ce corollaire est très utile pour majorer la différence de deux valeurs prises par une fonction.
2. Si, et c’est le cas le plus courant, la fonction f est de classe C 1 sur [ a, b] alors la dérivée est obligatoirement
bornée sur [ a, b] donc sur ] a, b[. C’est ce qui explique que l’on est fréquemment en situation d’utiliser cette
formule.

Corollaire [Link] (Reformulation de l’inégalités des accroissements finis)

Soit f une fonction continue sur [ a, b] et dérivable sur ] a, b[. On suppose que la dérivée f 0 est bornée
sur ] a, b[. Soit M ∈ R tels que ∀ x ∈] a, b[, | f 0 ( x )| 6 M alors

| f (b) − f ( a)| 6 M|b − a|.

En particulier, la fonction f est lipschitzienne.

B La plupart des résultats donné dans le chapitre s’étend aux fonctions à valeurs dans C mais pas le théorème
de Rolle (et donc pas le théorème des accroissements finis) car on peut « tourner »autour de 0 dans C. Par
exemple, la fonction f : t 7→ exp 2itπ. Elle vérifie, f (0) = f (2π ) = 1. Sa dérivée ne s’annule pourtant pas.
Cependant l’inégalité des accroissements finis reste vraie. On peut en effet la démontrer par d’autres moyens
comme l’intégration. Si on suppose que pour tout t dans I, | f 0 (t)| 6 k alors
Z y Z y
| f ( x ) − f (y)| = f 0 (t) dt 6 | f 0 (t)| dt = k| x − y|.
x x

235
Définition [Link]

Soit I un intervalle et k ∈ R+ . Une fonction f définie sur I est dite k-lipschitzienne si

∀( x, y) ∈ I 2 , | f ( x ) − f (y)| 6 k| x − y|.

On dit qu’une fonction est lipschitzienne s’il existe k ∈ R+ tel qu’elle soit k-lipschitzienne.

Proposition [Link]

Avec les notations précédentes :


1. Si f est lipschitzienne alors elle est continue.
2. Une fonction de classe C 1 sur un segment est lipschitzienne.

Démonstration
Remarques :

1. Il existe des fonctions continues qui ne sont pas lipschitziennes. Par exemple, x 7→ e x sur R ou x 7→ x
sur [0, 1].
2. Une fonction de classe C 1 (et même C ∞ ) peut ne pas être lipschitzienne sur un intervalle non borné. Par
exemple x 7→ exp( x ).

3.4 Application à la monotonie


Proposition [Link]

Soit I un intervalle et f une fonction dérivable sur I.


1. La fonction f est constante sur I ⇔ ∀ x ∈ I, f 0 ( x ) = 0.
2. La fonction f est croissante sur I ⇔ ∀ x ∈ I, f 0 ( x ) > 0.
3. La fonction f est décroissante sur I ⇔ ∀ x ∈ I, f 0 ( x ) 6 0.

Remarque : Ce théorème est très classique et très utile. Il faut faire attention que le fait que I soit un intervalle
est essentiel. Par exemple sur R? la dérivée de x 7→ 1/x est toujours négative mais la fonction n’est pas
décroissante sur R? .
Démonstration : On va se contenter de démontrer le 2.
f ( x ) − f ( a)
— ⇒ Soit a ∈ I. On sait que f 0 ( a) = lim ϕ a ( x ) ou ϕ a ( x ) = .
x→a x−a
Or pour tout x > a, on a f ( x ) > f ( a) d’où f ( x ) − f ( a) > 0 et x − a > 0. On en déduit que ϕ a ( x ) > 0.
De même, pour tout x 6 a, on a f ( x ) 6 f ( a) d’où f ( x ) − f ( a) 6 0 et x − a 6 0. On en déduit que
ϕ a ( x ) > 0.
Par passage à la limite, f 0 ( a) > 0.
— ⇐ Soit x et y des éléments de I. On suppose que x 6 y. On peut appliquer le théorème des accroissements
finis entre x et y. Il existe c ∈] x, y[ tels que f (y) − f ( x ) = f 0 (c)(y − x ) or f 0 (c) > 0 par hypothèses donc
f (y) − f ( x ) > 0.

Il y a une variante avec des inégalités strictes. Il faut cependant faire un peu plus attention.

Proposition [Link]

Soit I un intervalle et f une fonction dérivable sur I.


1. ∀ x ∈ I, f 0 ( x ) > 0 ⇒ la fonction f est strictement croissante sur I.
2. ∀ x ∈ I, f 0 ( x ) < 0 ⇒ la fonction f est strictement décroissante sur I.

236
Remarque : On n’a plus que l’implication dans ce sens, qui se démontre encore en utilisant le théorème des
accroissements finis. La démonstration de la réciproque n’est plus bonne car l’inégalité stricte ne survie pas au
passage à la limite. Et de fait le résultat est faux comme le prouve la fonction x 7→ x3 .
On a quand même un énoncé plus précis

Proposition [Link]

Soit I un intervalle et f une fonction dérivable sur I. La fonction f est strictement monotone si et
seulement si f 0 est de signe constant et ne s’annule pas sur un sous intervalle de I non réduit à un
point.

Démonstration
On utilise la plupart du temps le corollaire suivant :

Corollaire [Link]

Soit f une fonction dérivable sur I. Si f 0 est de signe constant et ne s’annule qu’en un nombre fini de
points elle est strictement monotone.

3.5 Application aux prolongements


On a vu dans le chapitre sur la continuité que quand une fonction à une limite à une borne finie de son
intervalle de définition, on pouvait la prolonger par continuité. Il est alors naturel de se demander dans quelles
conditions ce prolongement est dérivable. Nous allons commencer par regarder des exemples.
Exemples :
 
? 1
1. Soit f la fonction définie sur R par f : x 7→ x sin . On a vu dans le chapitre sur la continuité que
x
limx→0 f ( x ) = 0. On la prolonge par continuité en posant f (0) = 0. La fonction obtenue est-elle dérivable
en 0 ? On calcule la limite du taux d’accroissement :
 
f ( x ) − f (0) 1
ϕ0 ( x ) = = sin .
x−0 x
On en déduit que la fonction n’est pas dérivable en 0.
 
1
2. Soit f la fonction définie sur R? par f : x 7→ x2 sin . On de même que limx→0 f ( x ) = 0. On la
x
prolonge par continuité en posant f (0) = 0. La fonction obtenue est-elle dérivable en 0 ? On calcule la
limite du taux d’accroissement :
 
f ( x ) − f (0) 1
ϕ0 ( x ) = = x sin .
x−0 x
Donc limx→0 ϕ0 ( x ) = 0. La fonction est donc dérivable en 0. Cependant la dérivée n’est pas continue. En
effet, pour tout x non nul    
1 1
f 0 ( x ) = 2x sin − cos .
x x
 
3 1
Exercice : Montrer que la fonction x 7→ x sin se prolonge par continuité et que le prolongement est de
x
classe C 1 .

Théorème [Link]

Soit f une fonction continue sur un intervalle I et a ∈ I. On suppose que f est dérivable sur I \ { a}.
Soit ` ∈ R.
f ( x ) − f ( a)
Si lim f 0 ( x ) = ` alors lim = `.
x→a x→a x−a
En particulier, si ` ∈ R, alors f est dérivable en a et f 0 ( a) = `. Par contre si ` ∈ {±∞} la fonction f
n’est pas dérivable et sa courbe admet une tangente verticale.

237
Démonstration : Avec le théorème des accroissements finis.

Corollaire [Link]

Soit f une fonction continue sur un intervalle I et a ∈ I. On suppose que f est de classe C 1 sur
I \ { a}. Si la dérivée f 0 ( x ) a une limite finie quand x tend vers a alors la fonction f est de classe C 1
sur I.

Exemples :
1. On considère la fonction x 7→ arccos x. On sait qu’elle est continue sur [−1, 1] et dérivable sur ] − 1, 1[. De
−1
plus, pour tout x de ] − 1, 1[, arccos0 ( x ) = √ . On particulier
1 − x2

lim arccos0 ( x ) = −∞ et lim arccos0 ( x ) = −∞.


x →−1 x →1

On en déduit que arccos n’est pas dérivable en −1 et 1 et que la courbe admet des tangentes verticales.
2. On considère la fonction définie sur R? par
 
x−1
f ( x ) = exp .
x2

Étudions son prolongement en 0. On remarque d’abord que f est de classe C 1 sur R? . De plus lim f ( x ) = 0.
x →0
On peut donc la prolonger par continuité.
Maintenant, pour tout x de R? ,
   
−x + 2 x−1 −1 x−1
f 0 (x) = exp ∼ exp .
x3 x2 0 x2 x2

Par croissance comparée, lim f 0 ( x ) = 0. Le prolongement est donc de classe C 1 .


x →0
Il y a aussi un résultat analogue pour montrer qu’un prolongement est de classe C k .

Corollaire [Link]

Soit I un intervalle et a ∈ I. Soit f une fonction de classe C n sur I \ { a}. Si pour tout k ∈ [[ 0 ; n ]]
la dérivée k-ième f (k) ( x ) a une limite finie quand x tend vers a alors la fonction f se prolonge par
continuité et ce prolongement est de classe C n sur I.

2
Exemple : Considérons f : x 7→ e−1/x définie sur R∗ .
Elle se prolonge naturellement par continuité en posant f (0) = 0.
On peut montrer de plus que pour tout entier n et tout réel non nul x,

Pn ( x ) −1/x2
f (n) ( x ) =
e
x3n
où Pn est un polynôme donné par la relation de récurrence :

P0 = 1 et Pn+1 = X 3 Pn0 − (3nX 2 + 2) Pn .

Par croissances comparées on en déduit alors que pour tout entier n, f (n) ( x ) −→ x→0 0. D’après le théorème
précédent, on en déduit que le prolongement par continuité de f est de classe C ∞ .

238
Suites récurrentes :
16
u n +1 = f ( u n )
1 Généralités 239
1.1 Représentation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
1.2 Existence de la suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
2 Méthodes d’étude 240
2.1 Caractérisation de la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
2.2 Utilisation des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2.3 Cas où f est croissante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2.4 Cas où f est décroissante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
3 Méthode de Newton 244

1 Généralités
Nous allons nous intéresser à des suites définies par une relation du type un+1 = f (un ) où f est une fonction
définie sur un intervalle I. On se placera le plus souvent sur des intervalles fermés c’est à dire de la forme [ a, b],
[ a, +∞[,] − ∞, b] ou R.

1.1 Représentation graphique


On peut essayer de représenter ces suites à l’aide de la courbe de f et de la première bissectrice.

u0 u1 u2
u3 u2 u1 u0

239
1.2 Existence de la suite
La première chose à vérifier est que la suite est entièrement définie. C’est-à-dire que l’on puisse bien définir
un pour tout entier n. Si la fonction f est définie sur R c’est évident. Dans un autre cas, cela ne l’est pas.

Définition [Link]

Soit X une partie de R. On dit qu’elle est stable par f si f ( X ) ⊂ X c’est-à-dire : ∀ x ∈ X, f ( x ) ∈ X.

Proposition [Link]

S’il existe N ∈ N tel que u N existe et appartienne à une partie stable par f alors la suite est définie et
de plus : ∀n > N, un ∈ X.

Démonstration : C’est une récurrence. 


Exemples :

1. Soit (u) définie par u0 = 0 et ∀n ∈ N, un+1 = 1 + un . On voit que la partie X = R+ est une partie stable
pour f . Comme u0 ∈ R+ , la suite est définie (et tous ses termes sont positifs).
x
2. Soit (u) une suite définie par u0 et ∀n ∈ N, un+1 = .
x+1
— Si u0 = −1, u1 n’est pas défini et donc la suite (u) non plus.
— Là encore X = R+ est stable pour f donc si u0 ∈ R+ alors la suite est définie.
— De même on voit que si u0 < −1 alors u1 > 0 et donc la suite (u) est définie.
— On voit que si u0 = −1/2 alors u1 = −1 et u2 n’existe pas. En fait on voit que f réalise une bijection
y
de R \ {−1} sur R \ {1}. La bijection réciproque est g : y 7→ . On en déduit que les valeurs
1−y
prises par la suite (v) définies par v0 = −1 et vn+1 = g(vn ) sont les valeurs interdites pour u0 . La
suite (v) est bien définie car X = [−1, 0] est stable par g.

2 Méthodes d’étude
2.1 Caractérisation de la limite
Définition [Link]

Un élément a de I est un point fixe de f si f ( a) = a.

Proposition [Link]

On suppose que f est continue. Si la suite (u) converge et que I est fermé alors la limite ` appartient
à I et est un point fixe de f .

Démonstration : L’intervalle I est défini avec des inégalités larges donc, en passant à la limite, ` ∈ I. On peut
donc utiliser la continuité de f en `. On a donc

lim( f (un )) = f (`)

Or la suite ( f (un )) est la suite (un+1 ) qui converge aussi vers `. Par unicité de la limite, on obtient f (`) = `. 
Remarques :
1. C’est un résultat important pour déterminer la limite d’une suite mais il faut démontrer au préalable que
la suite converge.
2. Ce n’est pas à proprement parlé un résultat du programme. Il faut donc le redémontrer à chaque fois.

240
2.2 Utilisation des accroissements finis

On veut étudier la suite définie par u0 > −2 et ∀n ∈ N, un+1 = 2 + un .

— On commence par remarquer que [−2, +∞[ est stable par f : x 7→ 2 + x donc la suite est définie.

— La fonction f étant continue, si (un ) converge ce sera vers une solution de 2 + x = x ⇐⇒ x = 2. On va
donc essayer de montrer que |un − 2| tend vers 0 en la majorant par une suite géométrique.
— Pour cela il faut se restreindre à un intervalle où la dérivée de f est strictement inférieure à 1. On voit
1 1
que f 0 ( x ) = √ . En particulier si x > 0 alors | f 0 ( x )| 6 a = √ < 1. Maintenant u1 > 0 et
2 x+2 2 2
∀n ∈ N, un > 0. On peut donc appliquer le théorème de l’inégalité des accroissements finis : pour tout
entier n > 1,
|un+1 − 2| = | f (un ) − f (2)| 6 a|un − 2|.
On en déduit par une récurrence immédiate que

∀n > 1, |un − 2| 6 an−1 |u1 − 2|.

Comme | a| 6 1, la suite de droite tend vers 0 donc celle de gauche aussi et (un ) tend 2. On a même une
majoration de la vitesse de convergence. Si on veut que |u2 − 2| 6 10− N il suffit de prendre n tel que

− N ln(10) − ln(2)
an−1 × 1 6 10− N ⇐⇒ (n − 1) > on a ln( a) < 0.
ln a

Remarque : L’argument clé est que la dérivée de f est strictement inférieure à 1 en valeur absolue au voisinage
du point fixe. Dans ce cas la fonction f est k-lipschitzienne avec |k| < 1. On dit alors que f est contractante.

2.3 Cas où f est croissante


Dans cet exemple, on va supposer que f est croissante sur la partie stable X considérée. L’argument clé (qui
est redémontrer est le suivant).

Proposition [Link]

Soit (un ) une suite définie par u0 ∈ X et un+1 = f (un ) où X est stable par f est f est croissante sur
X. La suite (un ) est monotone. Pour connaitre son sens de variations il suffit de calculer u1 − u0 .

Démonstration : Par recurrence. 


Remarques :
1. Ce résultat est à redémontrer.
2. Dans certains cas, il est aussi simple d’étudier le signe de f ( x ) − x sur un intervalle stable. Cela permet
d’éviter la récurrence.
2 x2
On considère la fonction f définie sur R+ par f : x 7→ + . On se donne u0 ∈ R+ et ∀n ∈ N, un+1 =
3 3
f ( u n ).
On voit que R+ est stable par f et que f est croissante sur R+ .
Commençons par essayer de visualiser la suite sur des dessins.

u0 u1 u2
u3 u2 u1 u0

241
On cherche les points fixes de la fonction f . Soit x ∈ R+ ,

2 x2
f (x) = x ⇔ + =x
3 3
⇔ 2 − 3x + x2 = 0
⇔ x = 1 ou x = 2.
On distingue alors les cas suivant les valeurs de u0 .
On peut remarquer tout de suite que si u0 = 1 ou si u0 = 2 alors la suite est constante. Elle converge donc
vers sa valeur.

Si u0 ∈ [0, 1[

1. On localise les termes de la suite. L’intervalle [0, 1[ est stable, donc par récurrence, ∀n ∈ N, un ∈ [0, 1[.
2. On sait que (un ) est monotone et u1 > u0 car u1 − u0 = f (u0 ) − u0 et f : x 7→ f ( x ) − x est positive
sur [0, 1[. Donc (un ) est croissante. On peut ici, éviter la récurrence en disant que pour tout entier,
un+1 − un = f (un ) − un > 0.
3. On étudie la convergence. On a vu que la suite (un ) est croissante et majorée (car tous les termes de la
suite sont inférieurs à 1). La suite (un ) est donc convergente. Notons ` sa limite. D’après la proposition
ci-dessus, ` est un point fixe de f . On en déduit que ` = 1 ou ` = 2. Or comme tous les termes de la suite
sont inférieurs à 1, la limite ` aussi. On a donc

lim(un ) = 1.

Si u0 ∈]1, 2[

On reprend une étude similaire.


1. On localise les termes de la suite en montrant par récurrence que pour tout n ∈ N un ∈]1, 2[.
2. On étudie les variations de la suite. Soit n ∈ N, un ∈]1, 2[ or on a vu que pour tout x dans ]1, 2[,
f ( x ) − x 6 0. D’où, pour x = un , un+1 − un = f (un ) − un 6 0. La suite (un ) est donc décroissante.
3. On étudie la convergence. On a vu que la suite (un ) est décroissante et minorée (car tous les termes de la
suite sont supérieurs à 1). La suite (un ) est donc convergente. Notons ` sa limite. Pour déterminer ` on
utilise la même propriété que ci-dessus.
On en déduit que ` = 1 ou ` = 2.

Faire une fausse rédaction

La suite (un ) est décroissante donc pour tout entier n, un 6 u0 < 2. On en déduit que ` 6 u0 < 2. Donc

lim(un ) = 1.

Si u0 ∈]2, +∞[

On reprend une étude similaire.


1. On localise les termes de la suite en montrant par récurrence que pour tout n ∈ N un > 2.
2. On étudie les variations de la suite. Soit n ∈ N, un > 2 or on a vu que pour tout x dans ]2, +∞[,
f ( x ) − x > 0. D’où, pour x = un , un+1 − un = f (un ) − un > 0. La suite (un ) est donc croissante.
3. On étudie la convergence. Sur le dessin, on voit que lim(un ) = +∞. On va le prouver par l’absurde.
Supposons qu’elle converge vers un réel `. D’après ce qui précède, ` = 1 ou ` = 2.
Or, comme ci-dessus pour tout entier n, un > u0 > 2. On en déduit que ` > u0 > 2 ce qui est absurde. La
suite (un ) ne converge donc pas, comme elle est croissante on en déduit que

lim(un ) = +∞.

2.4 Cas où f est décroissante


On a vu dans l’exemple précédent que le fait que f soit croissante (sur l’intervalle stable) était fondamental
car cela implique que (un ) est monotone. Nous allons voir ce qui se passe quand f est décroissante.

242
Premier exemple
On considère la suite définie par u0 = 0 et ∀n ∈ N, un+1 = cos(un ). On pose f : x 7→ cos( x ) et on remarque
que l’intervalle I = [0, 1] est stable par f . De ce fait la suite est bien définie et ∀n ∈ N, un ∈ [0, 1].
On peut appliquer le théorème de la bijection à g : x 7→ f ( x ) − x pour monter qu’il existe un unique point
fixe de f que nous noterons α et qui vérifie, α = cos(α). Si la suite (un ) converge cela ne peut-être que vers α.
Maintenant, comme f est décroissante sur [0, 1], on en déduit que f ◦ f est croissante sur [0, 1]. De ce fait les
suites extraites (vn ) = (u2n ) et (wn ) = (u2n+1 ) sont monotone car ∀n ∈ N, vn+1 = ( f ◦ f )(vn ) et de même pour
(wn ). On en déduit que les (vn ) et (wn ) sont convergentes car monotone est bornée.
Cependant, on voit que α est un point fixe de f ◦ f mais il se pourrait qu’il y en ait d’autre (ce n’est pas le
cas). Il n’est donc pas évident de montrer que (vn ) et (wn ) convergent vers α.
Le plus simple est d’alors de retourner aux accroissements finis. En effet sur [0, 1], la fonction f est dérivable
et | f 0 ( x )| = | sin x | 6 sin 1 < 1.

1.4

1.2

1.0

0.8

0.6

0.4

0.2

0.0
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4

Deuxième exemple
3
On considère la suite définie par u0 = 3 et ∀n ∈ N, un+1 = f (un ) où on pose f : x 7→ . La fonction
1 + 2x2
12x
est dérivable sur R de dérivée, f 0 : x 7→ − . En particulier, elle est strictement décroissante sur R+ et
(1 + 2x2 )2
comme f (0) = 3 on en déduit que I = [0, 3] est stable par f . La suite (un ) est bien définie et ∀n ∈ N, un ∈ [0, 3].
Là encore, la fonction f n’a qu’un point fixe dans I qui est 1. On remarque cette fois que, contrairement au cas
12 4
précédent, | f 0 (1)| = = > 1. On ne peut donc par utiliser un argument de type accroissements finis.
9 3
Là encore, on peut introduire les suites extraites (vn ) = (u2n ) et (wn ) = (u2n+1 ). Elles sont monotones. Si on
calcule les premiers termes on trouve.

3 1083 430923
u0 = 3 ; u1 = ' 0, 16 ; u2 = ' 2.86 < u0 ; u3 = ' 0, 17 > u1 .
19 379 2489419
En particulier, on en déduit que (vn ) est décroissante et (wn ) est croissante. On pourrait penser que les suites
(vn ) et (wn ) sont adjacentes et que de ce fait (un ) converge mais ce n’est pas le cas.
3.0

2.5

2.0

1.5

1.0

0.5

0.5 1.0 1.5 2.0 2.5 3.0

3 + 12x2 + 12x4
Si on étudie la fonction f ◦ f : x 7→ . On peut voir (avec Mathematica) qu’elle admet
√ √ 19 + 4x2 + 4x4
3− 7 3+ 7
α= ' 0, 177 et β ' 2, 823 comme point fixe en plus de 1. De ce fait, (vn ) tend vers β et (un )
2 2
tend vers α et donc (un ) diverge.

243
3.5

3.0

2.5

2.0

1.5

1.0

0.5

0.5 1.0 1.5 2.0 2.5 3.0 3.5

3 Méthode de Newton
La méthode de Newton est abordée dans le cours d’IPT La convergence est quadratique.

244
Corps des fractions
17
1 Généralités 245
1.1 Corps des fractions d’un anneau intègre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
1.2 Le corps K( X ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
1.3 Degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
1.4 Pôles et zéros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
1.5 Fonction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
1.6 Dérivation (HP ?) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
1.7 Composition par un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
2 Décomposition en éléments simples 251
2.1 Partie entière d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
2.2 Partie polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
2.3 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
2.4 Méthodes de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
2.5 Décomposition en éléments simple dans R( X ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

Dans ce chapitre K désigne R ou C.

1 Généralités
P
On va vouloir définir les fractions rationnelles qui sont des quotients où P et Q sont des polynômes avec
Q
Q non nul à l’image de ce que l’on fait pour passer de Z à Q. Nous allons d’abord le faire dans un cas général.

1.1 Corps des fractions d’un anneau intègre


Rappelons la définition d’un anneau intègre :

Définition [Link]

On appelle anneau intègre un anneau commutatif qui vérifie :

∀( a, b) ∈ A2 , ab = 0 ⇒ a = 0 ou b = 0.

245
Exemple : Les anneaux Z et K[ X ] sont intègres.
Soit A un anneau intègre on considère l’ensemble C = A × ( A \ {0}) = {( a, b) ∈ A2 | b 6= 0}.
L’ensemble C n’est pas celui que l’on veut car, si on revient sur l’exemple des rationnels, on veut que les
1 2
couples (1, 2) et (2, 4) soient « les mêmes » car c’est juste = .
2 4

Définition [Link]

Soient ( a, b) et (c, d) deux éléments de C. On dit qu’ils sont équivalents et on note ( a, b) ∼ (c, d) si ad = bc.

Proposition [Link]

La relation ∼ est une relation d’équivalence.

Démonstration : Montrons juste la transitivité. On suppose ( a, b) ∼ (c, d) et (c, d) ∼ (e, f ). De ce fait, ad = bc


et c f = ed. Donc par produit, adc f = bced ce qui revient à cd( a f − be) = 0. Comme A est intègre on en déduit
que a f = be. 

Définition [Link]

On note Frac( A) l’ensemble des classes d’équivalences de la relation ∼ sur C. Soit x un élément de Frac( A).
On appelle représentant de x tout couple ( a, b) de C qui appartient à x. La classe d’un élément ( a, b) se note
a
.
b

Remarque : De fait l’ensemble Frac( A) est un ensemble de parties de C. Mais il ne faut surtout pas se l’imaginer
ainsi. Il faut voir ses éléments comme des couples ( a, b) où a est dans A et b est non nul. Cependant, on identifie
deux couples ( a, b) et (c, d) qui vérifient ad = cb car de fait « cela donne la même fractions ». Il faut quand
même faire la différence entre une fraction et son représentant.

Proposition [Link]

On peut définir des additions et multiplications sur Frac( A) par

+: A) × Frac
Frac(  ( A) → Frac( A) ×: A) × Frac
Frac(  ( A) → Frac( A)
a a0 ab0 + a0 b et a a0 aa0 .
, 7→ , 7→
b b0 bb0 b b0 bb0

ATTENTION

Il faut comprendre qu’il y a quelque chose à démontrer. En effet, il faut vérifier que si on choisit
différents représentants pour les fractions de départs on obtiendra un élément différent de C mais
qui sera toujours un représentant de la même fraction à la fin.

Démonstration : Par symétrie, il suffit de montrer que si ( a, b) ∼ (α, β) alors ( ab0 + a0 b, bb0 ) ∼ (αb0 + a0 β, b0 β)
ce qui ce vérifie par le calcul. De même, si ( a, b) ∼ (α, β) alors ( aa0 , bb0 ) ∼ (αa0 , b0 β). 

246
Théorème [Link]

a
Avec les notations précédentes, ( Frac( A), +, ×) est un corps. En particulier, si est un élément non
b
b
nul de Frac( A) alors a 6= 0 et son inverse et .
a
De plus il existe une application injective de A dans Frac( A) compatible aux opérations (morphisme
d’anneaux)
ι : A → Frac( A)
a .
a 7→
1

1.2 Le corps K( X )
Définition [Link]

Le corps des fractions de l’anneau K[ X ] s’appelle corps des fractions rationnelles sur K. Il se note K( X ). Pour
P
toute fraction rationnelle F il existe un représentant ( P, Q) ∈ (K[ X ])2 avec Q 6= 0 tel que F = .
Q

Remarques :
1. Il suffit de remarquer que K[ X ] est un anneau intègre (donc commutatif).
2. Si ( P, Q) est un représentant d’une fraction rationnelle, les couples ( PR, QR) où R est un polynôme non
nul représente la même fraction rationnelle.
Exemples :
1 + 3X − X 2 X + 3X 2 − X 3
1. Le terme est une fraction rationnelle qui est égale à
3 − 2X 3X − 2X 2
P
2. Tout polynôme P peut être vu comme la fraction rationnelle via l’injection ι.
1
0 0
3. On appelle fraction rationnelle nulle la fraction rationnelle qui est égale à pour tout Q non nul.
1 Q
1 P
4. On appelle fraction rationnelle unité la fraction rationnelle qui est égale à pour tout P non nul.
1 P

Définition [Link]

Les addition et multiplication sur K( X ) sont définies en posant :


P P2
1. Soit 1 et deux fractions rationnelles, on pose
Q1 Q2

P1 P P Q + P2 Q1
+ 2 = 1 2 .
Q1 Q2 Q1 Q2

P1 P2
2. Soit et deux fractions rationnelles, on pose
Q1 Q2
P1 P PP
× 2 = 1 2 .
Q1 Q2 Q1 Q2

Remarque : C’est la construction précédente. Il faut juste remarquer que si on change le représentant d’une
fraction rationnelle, on ne change pas le résultat (mais on trouve peut-être un autre représentant de la même
fraction).

247
Définition [Link]

On appelle représentant irréductible d’une fraction rationnelle, tout représentant ( P, Q) où P ∧ Q = 1. On


appelle représentant irréductible unitaire d’une fraction rationnelle un représentant irréductible où Q est
unitaire.

Remarque : C’est l’équivalent de la notion de fraction irréductible dans Q. Là on a de plus besoin de la notion
de représentant unitaire car les éléments inversibles de K[ X ] sont les constantes et pas juste {±1}.

Proposition [Link]

Toute fraction rationnelle admet un unique représentant irréductible unitaire.

Démonstration :
P
— Existence : Notons un représentant de la fraction. On sait qu’il existe P1 et Q1 premiers entre eux tels
Q
que
P = ( P ∧ Q) P1 et Q = ( P ∧ Q) Q1 .
De plus si on note a le coefficient dominant de Q1 . On a alors
P P P/a
= 1 =
Q Q1 Q/a
et Q/a est unitaire.
P P
— Unicité : Soit = 1 deux représentants unitaires irréductibles d’une même fraction. On a donc
Q Q1
PQ1 = QP1 . Or Q| QP1 dont Q| PQ1 mais comme Q est premier avec P alors Q| Q1 . Par symétrie, Q1 | Q.
On en déduit qu’il existe λ dans K tel que Q1 = λQ comme ils sont unitaires, Q = Q1 et par suite, P = P1 .

Exemples :
1 2
X3 − 1 ( X + X + 1)
1. Soit F = . Son représentant irréductible unitaire est 2 .
2X 4 − 2 X3 + X2 + X1 + 1
0
2. Le représentant irréductible unitaire de la fraction nulle est .
1

1.3 Degré
Proposition [Link]

P1 P2
Soit F une fraction rationnelle et et deux représentants de F. On a
Q1 Q2

deg P1 − deg Q1 = deg P2 − deg Q2 .

Remarque : Les grandeurs deg P1 − deg Q1 et deg P2 − deg Q2 sont bien définies car Q1 et Q2 n’étant pas nuls
on n’a pas de « forme indeterminée ». Cette égalité est dans Z ∪ {−∞}.
Démonstration : On a P1 Q2 = P2 Q1 . De ce fait, deg P1 + deg Q2 = deg P2 + deg Q1 et donc deg P1 − deg Q1 =
deg P2 − deg Q2 . 

Proposition [Link]

P
Soit F un fraction rationnelle, on appelle degré de F et on note deg F le terme deg P − deg Q où
Q
est un représentant de F. En particulier deg F ∈ Z ∪ {−∞}.

248
Exemples :
P
1. Si P est un polynôme alors la fraction rationnelle a pour degré le degré de P. En particulier, deg F =
1
−∞ ⇐⇒ F = 0.
2X − 1
2. Le degré de est 0.
X−6

Proposition [Link]

Soit F1 et F2 deux fractions rationnelles.


1. deg( F1 F2 ) = deg( F1 ) + deg( F2 )
2. deg( F1 + F2 ) 6 Max(deg( F1 ), deg( F2 ))

Démonstration :
P1 P2
1. Si on choisit des représentants, F1 = et F2 = . On a alors
Q1 Q2
P1 P2
F1 F2 = .
Q1 Q2
D’où

deg( F1 F2 ) = deg( P1 P2 ) − deg( Q1 Q2 ) = deg( P1 ) + deg( P2 ) − deg( Q1 ) − deg( Q2 ) = deg( F1 ) + deg( F2 ).

2. On a aussi
P1 Q2 + P2 Q1
F1 + F2 = .
Q1 Q2
D’où

deg( F1 F2 ) = deg( P1 Q2 + P2 Q1 ) − deg( Q1 ) − deg( Q2 ) 6 Max(deg P1 − deg Q1 , deg P2 − deg Q2 ) = Max(deg F1 , deg F

1.4 Pôles et zéros


Définition [Link]

P
Soit F une fraction rationnelle et un représentant irréductible.
Q
1. On appelle zéro (ou racine) de F toute racine de P.
2. On appelle pole de F toute racine de Q.
3. Si F 6= 0. On appelle ordre de multiplicité du zéro (ou du pole) a son ordre de multiplicité en tant que
racine de P (ou de Q).

Remarques :
1. Il est essentiel de prendre un représentant irréductible. En effet on a par exemple

X3 − 1 X2 + X + 1
F= = .
X4 − 1 X3 + X2 + X + 1
On voit que 1 est racine de X 3 − 1 et de X 4 − 1. Par contre les zéros de F sont j et j2 . Ses pôles sont −1, i et
−i.
2. Soit F une fraction rationnelle et a un élément de K, il ne peut pas être un zéro et un pole de F car sinon
P
X − a divise P et Q où est un représentant irréductible de F.
Q
3. Dans C, le degré de F est le nombre de zéros (comptés avec multiplicité) moins de nombre de pôles
(comptés avec multiplicité).

249
1.5 Fonction rationnelle
De même que l’on peut associer une fonction polynomiale à un polynôme, on peut associer une fonction
rationnelle à un fraction rationnelle.

Définition [Link]

P
Soit F une fraction rationnelle et un représentant irréductible. Si on note Z l’ensemble des pôles de A. On
Q
appelle fonction rationnelle associée à F la fonction

F: K\Z → K
P( x )
x 7→ .
Q( x )

Remarques :
1. Là encore, il faut prendre un représentant irréductible pour ne pas avoir une forme indéterminée du type
0
.
0
2. L’application qui associe à une fraction rationnelle sa fonction rationnelle est compatible à la somme et au
produit en prolongeant éventuellement les fonctions par continuité sur les pôles qui ont disparus. Par
exemple si
1 −X
F1 = 2 et F2 = 2
X −1 X −1
1−X 1
La fraction F1 + F2 = 2 =− .
X −1 X+1

1.6 Dérivation (HP ?)


Définition [Link]

P
Soit F une fraction rationnelle et F = un représentant. On appelle dérivée de F et on note F 0 la fraction
Q
P0 Q − PQ0
rationnelle dont un représentant est .
Q2

Remarques :
1. Là encore, il faut vérifier que si on change de représentant de F on obtient un représentant de la même
fraction.
2. Cette dérivation est compatible avec la dérivation des fonctions rationnelles.
3. L’ensemble des pôles de F 0 est inclus dans l’ensemble des pôles de F.
X3 − 1 − X 6 + 4X 3 − 3X 2
Exemple : Si on prend F = 4
. Alors F 0 = .
X −1 ( X 4 − 1)2

1.7 Composition par un polynôme


Définition [Link]

Soit F une fraction rationnelle et R polynôme non constant. On note F ( R) la fraction dont un représentant est
P◦R P
où est un représentant de F.
Q◦R Q

Remarques :
1. Pour justifier cette définition il faut vérifier que si on prend un autre représentant de F alors on obtient un
autre représentant de la même fraction.

250
2. Dans la pratique on ne l’utilise que pour R un polynôme de degré 1.
3. Cela justifie la notation F ( X ) pour F.

Définition [Link]

Soit F une fraction rationnelle, elle est dite paire (reps. impaire) si F (− X ) = F ( X ) (resp. F (− X ) = F ( X )).

X4 − 1 1
Exemple : La fraction 3
est impaire alors que 2 est paire.
X −X X

2 Décomposition en éléments simples


2.1 Partie entière d’une fraction rationnelle
Proposition [Link]

Toute fraction rationnelle s’écrit de manière unique somme la forme

E+F

où E est un polynôme et F une fraction rationnelle de degré strictement négative.

Démonstration :
— Unicité : Si E1 + F1 = E2 + F2 où E1 et E2 sont des polynômes et F1 , F2 des fractions rationnelles de degré
strictement négatif.
On a alors E1 − E2 = F2 − F1 où E1 − E2 est un polynôme et F2 − F1 est une fraction rationnelle de degré
inférieur à Max(deg F1 , deg F2 ) < 0. On en déduit que deg( E1 − E2 ) < 0 donc E1 = E2 et F1 = F2 .
P
— Existence : Si on choisit un représentant F = . On peut faire la division euclidienne de P par Q. On a
Q
P = QS + R. On a alors
QS + R R
F= = S+ .
Q Q
R
On a S qui est un polynôme et deg R < deg Q donc deg < 0.
Q


Définition [Link]

Avec les notations précédentes, le polynôme E s’appelle la partie entière de F.

Proposition [Link]

Soit F une fraction rationnelle.


1. Si deg F < 0 alors la partie entière de F est nulle.
2. Si deg F > 0, la partie entière de F n’est pas nulle et son degré est le degré de F.

Exemples :
1. Si P est un polynôme vu comme une fraction rationnelle. Il est égale à sa partie entière.
1
2. Si P est un polynôme non constant, la partie entière de est nulle.
P

251
X4 − 1
3. Si F = . On voit que deg F = 1 donc la partie entière de F n’est pas nulle et elle est de degré 1. On
X3 − 1
voit que X 4 − 1 = X ( X 3 − 1) + ( X − 1) donc
X−1 1
F= X+ = X+ 2 .
X3 − 1 X +X+1

Proposition [Link]

1. La partie entière d’une somme de deux fractions rationnelles est la somme des parties entières.
2. La partie entière d’une fraction paire (resp impaire) est paire (resp. impaire)

Remarque : Cela n’est pas vrai pour le produit. Par exemple,


1 1 X+1
(1 + )( X + ) = ( X + 1) + .
X X X2

2.2 Partie polaire


Proposition [Link]

Soit F une fraction rationnelle et a un pole de F d’ordre n > 1. Il existe un unique n-uplet d’éléments
de K ( ak )16k6n tel que
ak
F = F0 + ∑
16k6n ( X − a)k
ak
où F0 est une fraction rationnelle n’ayant pas a pour pôle. L’expression ∑ ( X − a)k
s’appelle la
16 k 6 n
partie polaire en a de F.

Démonstration :
ak bk
— Unicité : Si F0 + ∑ k
= F1 + ∑ k
où F0 et F1 n’ont pas de poles en a. On suppose
16k6n ( X − a ) 16 k 6 n ( X − a )
par l’absurde que ( ak )16k6n 6= (bk )16k6n . On note p = Max{k ∈ [[ 1 ; n ]] | ak 6= bk on a donc
p
bk − a k
F0 − F1 = ∑ k
.
k =1 ( X − a )

Si on multiplie par ( X − a) p−1 on obtient,


p −1
bp − a p
( X − a) p−1 ( F0 − F1 ) + ∑ (ak − bk )(X − a) p−1−k = ( X − a)
.
k =1

Le terme de droite admet un pole d’ordre 1 en a alors que le terme de gauche n’a pas de pole en a. C’est
donc absurde. On en déduit que ( ak ) = (bk ) et donc F0 = F1 .
P
— Existence : On considère un représentant irréductible F = et on note Q = ( X − a)n R où R est premier
Q
avec ( X − a). D’après le théorème de Bézout, il existe U, V tels que 1 = U ( X − a)n + VR. On en déduit
que
PU ( X − a)n + PVR PU PV
F= = + .
( X − a)n R R ( X − a)n
n −1
Si utilise la formule de Taylor en a pour le polynome PV = ∑ ak (X − a)k + T où T est divisible par
k =0
( X − a)n . On en déduit que

PU T n −1
ak n a0k
F= + + ∑
( X − a ) n k =0 ( X − a ) n − k
= F0 + ∑ k
k =1 ( X − a )
R

en posant a0k = an−k .

252

Exemple : Nous verrons plus loin de nombreuses méthodes pour déterminer les parties polaires d’une fraction
X4 − 1 X3 + X2 + X + 1
rationnelle. Si F = 3 = . On sait que les pôles (simples) de F sont j et j = j2 . En
X −1 X2 + X + 1
a
particulier, F = F0 + . Pour déterminer a, il suffit de multiplier F par X − j et d’évaluer en j. On a en effet
X−j

X3 + X2 + X + 1
= F0 ( X − j) + a.
X − j2
Donc
j3 + j2 + j + 1 j2
a= = .
j − j2 1−j
Remarque : Avec les notations précédentes, F0 a les mêmes pôles (et de même ordre) que F si on enlève a.

2.3 Décomposition en éléments simples


Dans cette partie, on pose K = C.

Théorème [Link]

Soit F une fraction rationnelle dans C( X ). La fraction est la somme de sa partie entière et de toutes
ses parties polaires. C’est-à-dire que si on note x1 , . . . , xn les pôles de F et que l’on note r1 , . . . , rn les
ordres alors F s’écrit de manière unique sous la forme
n rk
a
F = E+ ∑ ∑ (X −kix i
k =1 i =1 k)

où E est un polynôme.

Terminologie : Cette écriture s’appelle la décomposition en éléments simples de F.


Démonstration :
— Unicité : Si on considère une écriture
n rk
a
F = E+ ∑ ∑ (X −kix i
.
k =1 i =1 k)

n rk rk
aki a
On voit que E est la partie entière car deg ∑ ∑ ( X − x )i < 0. De même, si on écrit Fj = E + ∑ ∑ (X −kix )i
k =1 i =1 k k 6 = j i =1 k
de sorte que
rj
a ji
F = Fj + ∑ .
i =1 ( X − x j )i
rj
a ji
Alors Fj n’admet pas de pôle en x j et de ce fait ∑ ( X − x )i est la partie polaire de F.
i =1 j
— Existence : Il suffit de procéder par récurrence sur le nombre de pôle et remarquant que, sur C, une
fraction rationnelle sans pôle est un polynôme (ce qui est faut si K = R).

n
Exemple : Soit P un polynôme. On note P = λ ∏ ( X − ak )rk sa factorisation sur C. On a alors
k =1
n
P 0 = λ ∑ r j ( X − a j ) r j −1 ∏ ( X − a k ) r k .
j =1 k6= j

Dès lors
P0 n rj
P
= ∑ X − aj .
j =1

Exercice :

253
1. Soit P un polynôme scindé sur R. Montrer que les racines de P0 sont des barycentres à coefficients positifs
des racines de P. On pourra montrer que les racines de P0 sont toutes entre deux racines de P en utilisant
le théorème de Rolle.
2. Soit P un polynôme sur C (donc scindé). Montrer que les racines de P0 sont des barycentres à coefficients
positifs des racines de P. Interprétation géométrique.

2.4 Méthodes de calcul


Dans la plupart des cas, pour déterminer la décomposition en éléments simples d’une fraction rationnelle,
on commence par déterminer la partie entière (via une division euclidienne du numérateur). Il reste alors à
déterminer les parties polaires.

Substitution
On peut toujours substituer autant de valeurs que le nombre de coefficients inconnus dans la décomposition
en éléments simples. Cela donne un système linéaire. Cette méthode est à n’utiliser que s’il n’y a qu’un ou deux
coefficients à déterminer.

Détermination d’un pole simple


P P
Soit F une fraction rationnelle. On suppose que a ∈ K est un pole simple. On note F = = . Si
Q ( X − a) R
λ λ
on note F = F0 + où est la partie polaire en a. On a alors
X−a X−a
P
= ( X − a) F = ( X − a) F0 + λ.
R
On a donc
P( a)
λ= .
R( a)
De plus, on peut remarquer que R( a) = Q0 ( a).
3X 2 − X + 2
Exemple : Si F = 2 . remarque d’abord que la partie principale est 3 car c’est le quotient de la
X − 3X + 2
division euclidienne de 3X 2 − X + 2 par X 2 − 3X + 2. De plus, X 2 − 3X + 2 a pour factorisation ( X − 2)( X − 1).
Les deux pôles sont donc 1 et 2 et ils sont simples.
3X 2 − X + 2
— Pole 1 : On a ( X − 1) F = . On évalue en 1, et on trouve λ1 = −4.
( X − 2)
3X 2 − X + 2
— Pole 2 : On a ( X − 2) F = . On évalue en 2, et on trouve λ2 = 12.
( X − 1)
En conclusion,
−4 12
F = 3+ + .
X−1 X−2
Remarque : Cette méthode fonctionne aussi pour déterminer la partie de « plus bas degré » de la partie polaire
n!P( a)
d’un pole d’ordre supérieure. On trouve alors λn = (n) . Ensuite, de proche en proche, on peut en déduire
Q ( a)
toute la décomposition en éléments simples. Cela fonctionne mais ce n’est pas forcément la méthode la plus
efficace.
1 1
Exercice : Calculer les décomposition en éléments simples de 3 et n .
X −1 X −1

Pole double (HP ?)


P
Soit F une fraction rationnelle. On suppose que a ∈ K est un pole double. On note F = = G ( X − a)2 où
Q
G est une fraction rationnelle sans pôle en a.
λ1 λ2
Si on note F = F0 + + . On a alors
X − a ( X − a )2

( X − a)2 F = G = ( X − a)2 F0 + ( X − a)λ1 + λ2 .

254
On a donc
λ2 = G ( a ).
De plus si on dérive on obtient :
G 0 = 2( X − a) F0 + ( X − a)2 F00 + λ1
et donc
λ1 = G 0 ( a ).
X 3 + 2X 2 − X + 6
Exemple : Soit F = . La encore, on trouve que la partie principale est 1. On déterminer les
( X − 1)2 ( X − 2)
parties polaires en 1 et en 2 avec les méthodes précédentes et on trouve :

−14 −8 20
F = 1+ + + .
X − 1 ( X − 1)2 X−2

Parité
Si F est une fraction rationnelle paire ou impaire et si a est un pole d’ordre n alors − a est aussi un pole
d’ordre n. Cela permet de simplifier certain calculs. Par exemple si

1 a b c d
F= = + + + .
( X 2 − 1)2 X − 1 ( X − 1)2 X + 1 ( X + 1)2

Comme F est paire, F (− X ) = F ( X ) d’où par unicité de la décomposition,

a = −c et b = d

En multipliant par ( X − 1)2 on trouve que b = 1/4 = d. Si on prend aussi X = 0 on a

1 = −a + b + c + d

D’où 2c = 1 − 1/2 = 1/2.

1 −1/4 1/4 1/4 1/4


= + + + .
(X2 − 1) 2 X − 1 ( X − 1) 2 X + 1 ( X + 1)2

Fraction réelle
Si F est une fraction rationnelle réelle et si a est un pôle d’ordre n alors a est aussi un pôle d’ordre n et de
plus sa partie polaire est obtenue en conjuguant les coefficients de la partie polaire de a. Il suffit de conjuguer la
relation
n
λk
F = F0 + ∑ k
k =1 ( X − a )

et d’utiliser l’unicité de cette décomposition.

Utilisation d’une limite à l’infini


Si F est une fraction rationnelle de degré négatif (ou si on a déjà retiré la partie principale). On peut
déterminer la partie de plus haut degré en multipliant par X et en faisant tendre x vers ∞.
3X 3 − 2X 2 + X + 1
Par exemple si F = . La partie principale est 3. On a donc
( X − 1)3

7X 2 − 8X + 4 a1 a2 a3
F = 3+ 3
= 3+ + 2
+ .
( X − 1) X − 1 ( X − 1) ( X − 1)3

X (7X 2 − 8X + 4) a X a2 X a3 X
Alors 3
= 1 + 2
+ . En faisant tendre x vers +∞ on récupère, 7 = a1 .
( X − 1) X − 1 ( X − 1) ( X − 1)3
De plus, en multipliant par ( X − 1)3 on a a3 = 3. Pour finir en prenant X = 0 on a −4 = − a1 + a2 − a3 et
donc a2 = 6. Finalement,

7X 2 − 8X + 4 7 6 3
F = 3+ 3
= 3+ + 2
+ .
( X − 1) X − 1 ( X − 1) ( X − 1)3

255
2.5 Décomposition en éléments simple dans R( X )
Pour certains calculs, il se peut que l’on ne veuille que travailler dans R( X ). On a, là encore un théorème de
décomposition en éléments simples. La difficultés est que le dénominateur n’est pas toujours scindé

Théorème [Link]

Soit F une fraction rationnelle dans R( X ). Si on note Q le dénominateur du représentant irréductible


unitaire et s’il se factorise sous la forme
n m
Q= ∏ ( X − a k )rk ∏ ( X 2 − α j X + β j ) s j
k =1 j =1

alors
n rk λkj m sk µij X + γij
F = E+ ∑ ∑ (X − a )j
+∑ ∑ (X2 − α X + β ) j .
k =1 i =1 k i =1 i =1 i i

où E est un polynôme.

Démonstration : Il « suffit » de faire la décomposition dans C( X ) puis de regroupe même si cela n’est pas si
simple que cela. 
Pour déterminer la décomposition le plus simple n’est pas toujours (et même rarement) de revenir sur C. On
essaye plutôt d’appliquer les méthodes directement. Voyons sur des des exemples
Exemples :
1. Soit
X+1 X+1 aX + b cX + d
F= = 2 2
= 2 + 2 .
X4 2
+X +1 ( X + X + 1)( X − X + 1) X +X+1 X −X+1

Si on multiplie par X 2 + X + 1 on obtient

X+1 (cX + d)( X 2 + X + 1)


= aX + b + .
X2 − X + 1 X2 − X + 1
j+1
On évalue en j et on trouve = aj + b. Or
j2 − j + 1

j+1 − j2 j
= = .
j2 −j+1 −2j 2

On a donc a = 1/2 et b = 0. On fait de même pour l’autre Si on multiplie par X 2 − X + 1 on obtient

X+1 ( aX + b)( X 2 − X + 1)
= cX + d + .
X2 + X + 1 X2 + X + 1
α+1
On évalue en α = eiπ/3 et on trouve = cα + d.
+α+1α2
Or α2 + α + 1 = 2α et α + 1 = −α2 + 2α. On en déduit que cα + d = (−1/2)α + 1. En conclusion

X+1 X+1 (1/2) X (−1/2) X + 1


F= = 2 2
= 2 + 2 .
X4 2
+X +1 ( X + X + 1)( X − X + 1) X +X+1 X −X+1

256
Développements
18
limités et analyse
asymptotique
1 Introduction 257
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
1.2 Rappel sur les notation de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2 Développements limités 258
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
2.3 Calculs de développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
2.4 Opérations sur les développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
3 Applications des développements limités 265
3.1 Développements limités et équivalents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
3.2 Détermination de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
3.3 Étude locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
3.4 Développements asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267

1 Introduction
1.1 Introduction
Le but du développement limité est de donner une approximation d’une fonction au voisinage d’un point.
Regardons la fonction exponentielle x 7→ e x au voisinage de x = 0.
— A l’ordre 0 : on a e x ' 1. On peut écrire
e x = 1 + ε( x ) et lim ε( x ) = 0.
x →0

— A l’ordre 1 : on peut approcher la fonction par sa tangente on a e x ' 1 + x. On écrit alors e x = 1 + x + h( x ).


On voit que  x 
x e −1
h( x ) = e − 1 − x = x −1 .
x

257
ex − 1
Or lim = 1 donc le terme entre parenthèses tend vers 0 d’où :
x →0 x
e x = 1 + x + x.ε( x ) et lim ε( x ) = 0.
x →0

Le problème est que cette approximation pourra ne pas être suffisante car on ne sait rien sur ε( x ) à part le fait
qu’il tende vers 0. Si on veut calculer par exemple :
ex − 1 − x
lim .
x →0 x2
Il faudra aller plus loin pour écrire, par exemple,

e x = 1 + x + αx2 + x2 .ε( x ) et lim ε( x ) = 0.


x →0

Remarque : On peut penser au développement limité comme à l’approximation décimale. En effet, on a pour π

valeurs précision
3 1
3, 1 10−1
3, 14 10−2
3, 142 10−3

De même pour exp( x ) au voisinage de 0 on aura

valeurs précision
1 o (1)
1+x o (x)

1+x+ x2 /2 o x2

1.2 Rappel sur les notation de Landau


Définition [Link]

Soit I un intervalle, f une fonction définie sur I et a ∈ I. Tout fonction de la forme ( x 7→ f ( x ).ε( x )) où ε est
une fonction tendant vers 0 quand x tend vers a sera noté o ( f ).

Remarque : Dans la pratique la fonction f sera toujours de la forme ( x − a)n pour n ∈ N.


Exemples :
1. la notation o (1) désigne une fonction qui tend vers 0.
2. on a x4 = o ( x2 ) car x4 = x2 .x2 .
3. on a o ( x4 ) + o ( x5 ) = o ( x4 ).
4. on a 7.o ( x3 ) = o ( x3 ).

2 Développements limités
2.1 Définition
Définition [Link]

Soit I in intervalle, a un point de I qui n’est pas une borne. Soit n ∈ N et f une fonction définie sur I. On dit
que f admet un développement limité à l’ordre n en a et on note f ∈ DLn,a s’il existe ( a0 , a1 , . . . , an ) ∈ Rn+1
tel que
∀ x ∈ I, f ( x ) = a0 + a1 .( x − a) + · · · + an ( x − a)n + o (( x − a)n ).
En particulier pour a = 0, f admet un développement limité à l’ordre n en 0 s’il existe ( a0 , a1 , . . . , an ) ∈ Rn+1
tel que
∀ x ∈ I, f ( x ) = a0 + a1 .x + · · · + an x n + o ( x n ).

258
Exemple : On a montré dans l’introduction que la fonction exponentielle admettait un développement limité à
l’ordre 1 en 0 :
e x = 1 + x + o ( x ).
Remarques :
1. On peut reformuler cette définition en écrivant :

( f ∈ DL, n,a ) ⇔ (∃ P ∈ Rn [ X ], ∀ x ∈ I, f ( x ) = P( x − a) + o (( x − a)n )).

2. On fera attention au fait que le développement limité ne donne que des informations locales.
3. On peut définir aussi la notion de développement asymptotique de la même manière en considérant des
fonctions ( f i )i∈N telles que
∀i ∈ N, f i+1 = o ( f i ) .
a

La suite ( f i ) s’appelle une échelle de comparaison. Nous en donnerons quelques exemples.

Définition [Link] (Forme normalisée)

Soit I in intervalle, a un point de I qui n’est pas une borne. Soit n ∈ N et f une fonction définie sur I admettant
un développement limité à l’ordre n en a. On appelle, si elle existe, forme normalisée du développement limité
l’écriture :  

f ( a + h ) = h p α0 + α1 h + · · · + α n − p h n − p + o h n − p où α0 6= 0.
h →0

Proposition [Link]

Avec les notations précédentes, on a f ( x ) ∼ α0 ( x − a) p .


a

2.2 Généralités
Proposition [Link] (Unicité)

Avec les notations précédentes, si f admet un développement limité en a à l’ordre n il est unique.

Démonstration

Théorème [Link] (Formule de Taylor-Young)

Soit I un intervalle, a un point de I qui n’est pas une borne. Soit n ∈ N et f une fonction n fois
dérivable sur I. Alors pour tout x dans I

f (n) ( a )
f ( x ) = f ( a) + f 0 ( a)( x − a) + · · · + ( x − a)n + o (( x − a)n ).
n!

Remarques :
1. Cette formule ne donne des informations qu’au voisinage de a.
2. Ce théorème sera démontré plus tard comme conséquence de la formule de Taylor avec reste intégral (on
supposera que f est de classe C n+1 ).

Démonstration

259
Corollaire [Link]

Soit I un intervalle et f une fonction définie sur I.


1. Soit n ∈ N. Si f est de classe C n alors elle admet un développement limité à l’ordre n en tout
point de I.
2. Une fonction de classe C ∞ admet des développements limités à tout ordre.

Étudions la réciproque :

Proposition [Link]

Soit I un intervalle, f une fonction définie sur I et a un point de I qui n’est pas une borne.
— Si f ∈ DL0,a alors f est continue en a.
— Si f ∈ DL1,a alors f est dérivable en a.
— Une fonction peut admettre des développements limités d’ordre supérieur sans être deux fois
dérivable.

Démonstration :
— OK
— OK
— Le problème est que l’on ne peut pas dériver un développement limité car une fonction peut être "très
petite" et avoir une dérivée "très grande". Par exemple
 
4 1
x 7→ x sin .
x6

Proposition [Link] (Troncature)

Soit I un intervalle, a un point de I, n un entier et f ∈ DLn,a . Pour tout p 6 n, on a f ∈ DL p,a et le


développement à l’ordre p est obtenu en tronquant le développement à l’ordre n.

Démonstration : Faire la démonstration avec n = 4 et p = 2. 

2.3 Calculs de développements limités


La formule de Taylor-Young permet de calculer les développements limités. Dans la pratique on se ramènera
aux développement des fonctions classiques en 0 par des opérations.

260
Théorème [Link] (A SAVOIR)

— La fonction x 7→ e x est de classe C ∞ elle admet des développement à tout ordre en 0 et, pour
tout n ∈ N :
x2 xn
∀ x ∈ R, e x = 1 + x + +···+ + o ( x n ).
2! n!
— Les fonctions x 7→ ch x et x 7→ sh x sont de classe C ∞ elles admettent des développement à
tout ordre en 0 et, pour tout n ∈ N :

x2 x2n
∀ x ∈ R, ch x = 1 + +···+ + o ( x2n+1 ).
2! 2n!

x3 x2n+1
∀ x ∈ R, sh x = x + +···+ + o ( x2n+2 ).
3! (2n + 1)!
— Les fonctions x 7→ cos x et x 7→ sin x sont de classe C ∞ elles admettent des développement à
tout ordre en 0 et, pour tout n ∈ N :

x2 x2n
∀ x ∈ R, cos x = 1 − + · · · + (−1)n + o ( x2n+1 ).
2! 2n!

x3 x2n+1
∀ x ∈ R, sin x = x − + · · · + (−1)n + o ( x2n+2 ).
3! (2n + 1)!
— La fonction x 7→ ln(1 + x ) est de classe C ∞ elle admet des développement à tout ordre en 0 et,
pour tout n ∈ N :

x2 xn
∀ x > −1, ln(1 + x ) = x − + · · · + (−1)n+1 + o ( x n ).
2 n

— Soit α ∈ R, la fonction x 7→ (1 + x )α est de classe C ∞ elle admet des développement à tout


ordre en 0 et, pour tout n ∈ N :

α ( α − 1) x 2 α ( α − 1) · · · ( α − n + 1) x n
∀ x > −1, (1 + x )α = 1 + αx + +···+ + o ( x n ).
2! n!

Remarques :
1. Les formules de cos et sin se retrouve à partir du développement de e x avec

sin x = Im(eix ) et cos x = Re(eix ).

2. Les DLs de cosinus et sinus n’ont que des termes paires ou impairs, c’est pour cela que l’on les donne à
l’ordre 2n ou 2n + 1. Mais si on fait n = 5 dans la formule du DL de cosinus, on trouver le DL à l’ordre 10
(et même 11). Si on veut le DL à l’ordre 5, on prend n = 2 et on trouve :

x2 x4
cos x = 1 − + + o ( x 4 ).
2 24
3. Il n’y a pas de factorielles dans le développement de ln(1 + x )
4. Cas particulier à savoir pour (1 + x )α
— α = −1 : on a

1 1
= (1 + x )−1 = 1 − x + x2 + · · · + (−1)n x n + o ( x n ) et = (1 − x ) −1 = 1 + x + x 2 + · · · + x n + o ( x n ).
1+x 1−x

— α = 1/2 :
√ 1 x2
1 + x = (1 + x )1/2 = 1 + x − + o ( x2 )
2 8
— α = −1/2 :
1 1 3x2
√ = (1 + x )−1/2 = 1 − x + + o ( x2 )
1+x 2 8

261
5. Attention que l’on ne donne ci-dessus que des développements limités en 0. Essayons par exemple de
calculer le développement limité de x 7→ e x en 2 à l’ordre 2. On pose x = 2 + h (ou h = x − 2). Dès lors on
a:
ex = e 2+ h
= e2 .eh
h2 h3
= e2 (1 + h + + ) + o ( h3 )
2 6
( x − 2)2 ( x − 2)3
= e2 (1 + ( x − 2) + + + o (( x − 2)3 ).
2 6

2.4 Opérations sur les développements limités


L’avantage des développements limités - par rapport aux équivalents - c’est que l’on peut faire toutes les
opérations que l’on veut. Dans la pratique, on calculera toujours les développements limités par des suites
d’opérations en partant des développements limités standards donnés dans la section précédente.
Dans tout ce chapitre on se fixe un intervalle I et un point a intérieur à I.

Somme
Proposition [Link]

Soit n un entier. Soit f et g deux éléments de DLn,a . Alors la fonction f + g est un élément de DLn,a .
De plus, si les développements limités de f et g sont donnés par les polynômes P et Q alors :

∀ x ∈ I, ( f + g)( x ) = ( P + Q)( x − a) + o (( x − a)n ).

Remarque : la proposition ci-dessus dit que le développement limité d’une somme est la somme des dévelop-
pements limités.
Exemple : Regardons au voisinage de 0 la fonction définie sur ] − 1, +∞[ par x 7→ sin( x ) − ln(1 + x ). On ne
peut pas utiliser des équivalents, en effet sin x ∼ x et ln(1 + x ) ∼ x mais on n’a pas sin x − ln(1 + x ) ∼ 0. Nous
allons faire des développements à l’ordre 1 (ce qui revient à des équivalents). On a

sin x = x + o ( x ) et ln(1 + x ) = x + o ( x ).

On en déduit que
sin x − ln(1 + x ) = o ( x ).
Maintenant, si on veut un équivalent de sin x − ln(1 + x ) on fait des développements à l’ordre 2 :

x2
sin x = x + o ( x2 ) et ln(1 + x ) = x − + o ( x 2 ).
2
On en déduit que
x2 x2
+ o ( x2 ) d’où sin x − ln(1 + x ) ∼ .
sin x − ln(1 + x ) =
2 2
Exercice : Déterminer le développement limité à l’ordre 3 de sin x en π/4.

Produit
Exemple : Essayons de déterminer un développement limité à l’ordre 3 en 0 de la fonction x 7→ e x . sin x. On a
pour tout x réel :
x x2 x3 x3
ex = 1 + x + + + o ( x3 ) et sin x = x − + o ( x 3 ).
+ 2 6 6
Comme ce qui précède sont des vraies égalités ont peut faire le produit et on a :
   
x2 x3 x3
e x . sin x = 1+x+ + + o ( x3 ) . sin x = x − + o ( x3 )
2 6 6
= Faire le calcul explicite
x3
= x − x2 + + o ( x3 )
3

262
Proposition [Link]

Soit n un entier. Soit f et g deux éléments de DLn,a . Alors la fonction f × g est un élément de DLn,a .
De plus, si les développements limités de f et g sont donnés par les polynômes P et Q alors :

∀ x ∈ I, ( f × g)( x ) = Tn ( P × Q)( x − a) + o (( x − a)n ),

où Tn ( P × Q) est le polynôme obtenu en tronquant au degré n le polynôme P × Q.

Remarque : la proposition signifie que pour obtenir le développement limité d’un produit de fonctions, on fait
le produit des développements limités des fonctions considérées et on tronque à l’ordre désiré.
Exercice : calculer le développement limité de x 7→ sin x. cos x à l’ordre 4 en 0.

ATTENTION

Si on se donne deux développements limités normalisés :


 

f 1 ( a + h) = h p1
α 0 + α 1 h + · · · + α n1 − p1 h n1 − p1 + o h n1 − p1
h →0

et  

f 2 ( a + h ) = h p2 α 0 + α 1 h + · · · + α n2 − p2 h n2 − p2 + o h n2 − p2
h →0

Si on fait le produit f 1 ( x ) f 2 ( x ) on obtient un développement limité à l’ordre Min(n1 + h2 , n2 + h1 ).

Composition
Commençons par un lemme.

Lemme [Link]

Soit α et β deux fonctions. On suppose que β( x ) ∼ C ( x − a) p avec p strictement positif et α( x ) =


a
o ( x q ). On a alors
0
α ◦ β( x ) = o (( x − a) pq ) .
a

Démonstration : Il suffit de montrer que


α( β( x ))
lim = 0.
x→a ( x − a) pq
Or  p
α( β( x )) α( β( x )) β( x )
pq = . .
( x − a) β( x )q ( x − a)q
Le premier terme tend vers 0 car β tend vers 0 en a du fait que p > 0. Le deuxième tend vers la constante C p . 
On peut maintenant donner un exemple :
Exemple : Calculer le développement limité de x 7→ esin x à l’ordre 4 en 0. On a sin x = x − x3 /6 + o ( x3 ). Donc,
3 /6+ o ( x3 )
esin x = e x− x .

Or sin 0 = 0, on peut donc utiliser un développement limité de x 7→ e x en 0. On a alors


 2  3
 3  3
x − x6 + o ( x3 )
3
x − x6 + o ( x3 )
x
esin x = 1 + x − + o ( x3 ) + + + o ( x3 )
6 2 6
x2 x3
= 1+x+ − + o ( x 3 ).
2 6

263
Proposition [Link]

Soit n un entier. Soit f un élément de DLn,a et g un élément de DLn,b où b = f ( a). Alors la fonction
g ◦ f est un élément de DLn,a . De plus, si les développements limités de f et g sont donnés par les
polynômes P et Q alors :

∀ x ∈ I, ( g ◦ f )( x ) = Tn ( Q ◦ P)( x − a) + o (( x − a)n ),

où Tn ( Q ◦ P) est le polynôme obtenu en tronquant au degré n le polynôme Q ◦ P.

Exercice : calculer le développement limité à l’ordre 4 de x 7→ ecos x .

ATTENTION

Il est essentiel de bien faire le DL de g en b et non pas en a.

Corollaire [Link]

Le développement limité d’une fonction paire (resp. impaire) en 0 n’a que des termes d’exposants
pairs (resp. impairs).

Corollaire [Link] (Quotient)

1
Soit n un entier. Soit f un élément de DLn,a tel que f ( a) 6= 0 alors ∈ DLn,a .
f

Démonstration : Plutôt que de faire la démonstration, on va traiter un exemple. Soit f : x 7→ 1 + e x . On sait


que f admet un DL à l’ordre 3 en 0 et

1 + e x = 1 + 1 + x + x2 /2 + x3 /6 + o ( x3 ).

D’où
1
f (x) = .
2 + x + x2 /2 + x3 /6 + o ( x3 )
La méthode consiste à factoriser, de sorte à obtenir une fonction du type 1/(1 + X ) avec X tendant vers 0. Ici on
pose
1 1
f (x) = .
2 1 + x/2 + x2 /4 + x3 /12 + o ( x3 )
On fait alors le DL de 1/(1 + X ) avec X = x/2 + x2 /4 + x3 /12 + o ( x3 ).
sin x
Exemple : Calculons le DL de tan à l’ordre 3 en 0. On sait que tan x = de ce fait
cos x
3 
x − x6 + o x3
tan x =
x2
1− + o ( x3 )
2
     
x3 3 x2
= x− +o x × 1+ + o x3
6 2
x3  
= x+ + o x3
3
Il faut connaitre ce DL jusqu’à l’ordre 3, nous verrons en exercice comment calculer les ordres suivant de
manière plus efficace.

264
Intégration

Proposition [Link]

Soit f un élément de DLn,a . La fonction f est continue elle admet une primitive que l’on note F. Alors
F ∈ DLn+1,a . De plus si

∀ x ∈ I, f ( x ) = a0 + a1 ( x − a) + · · · + an ( x − a)n + o (( x − a)n )

alors

( x − a )2 ( x − a ) n +1
∀ x ∈ I, F ( x ) = F ( a) + a0 ( x − a) + a1 + · · · + an + o (( x − a)n+1 ).
2 n+1

Exemples :
1. On sait que
1
∀ x ∈ R, = 1 − x 2 + x 4 + o ( x 5 ).
1 + x2
Donc,
x3 x5
∀ x ∈ R, arctan( x ) = x − + + o ( x 6 ).
3 5
De manière générale

x3 x5 x2n+1
∀ x ∈ R, arctan( x ) = x − + + · · · + (−1)n + o ( x2n+2 ).
3 5 (2n + 1)!
−1
2. On sait que la dérivée d’arccos est x 7→ √ or,
1 − x2
1 1 3
∀ x ∈] − 1, 1[, √ = 1 − x 2 + x 4 + o ( x 5 ).
1− x2 2 4
Donc,
π x3 3x5
∀ x ∈] − 1, 1[, arccos( x ) = +x− + + o ( x 6 ).
2 6 20
Exercice : Calculer les DL de arccos à l’ordre 3 en 1/2.
Remarque : il faut faire plus attention avec la dérivation des développements limités. En effet comme on l’a vu
précédemment, une fonction peut avoir un développement limité à l’ordre n sans que sa dérivée n’ait même de
limite. Cependant, si on suppose qu’une fonction f est de classe C n+1 au voisinage d’un point a pour n ∈ N? .
Alors f admet un développement limité à l’ordre n en a de plus la dérivée g = f 0 de f est de classe C n et admet
de ce fait un développement limité à l’ordre n − 1. Maintenant, les développements limités de f et g sont donnés
par la formule de Taylor-Young or, pour tout entier 1 6 k 6 n, g(k−1) = f (k) , on en déduit que si

f ( x ) = a0 + · · · + an ( x − a)n + o (( x − a)n )

alors
an
g ( x ) = a1 + · · · + ( x − a)n−1 + o (( x − a)n−1 ).
n

3 Applications des développements limités


3.1 Développements limités et équivalents
De fait on trouve un équivalent simple d’une fonction en prenant le premier terme non nul du développement
limité.
Par exemple, on sait que
x2 x4
cos x = 1 − + + o ( x 4 ).
2 24
x2
On en déduit que cos x ∼ 1 puis que cos x − 1 ∼ − .
2
Cela permet de retrouver des résultats aperçus lors de l’étude des équivalents sur les sommes d’équivalents.
Exemples :

265
x2
1. On cherche un équivalent à f ( x ) = sin x + cos x − 1. On disait que sin x ∼ x et que cos x − 1 ∼ − donc
2
que la fonction devait être équivalente à x et on le démontrait. Là on peut le faire simplement.
 
x2
f ( x ) = ( x + o ( x2 )) + − + o ( x2 ) = x + o ( x ) ∼ x.
2

2. Par contre si on regarde g( x ) = x sin x + cos x − 1, on pouvait essayer de faire de même. Les deux sont
équivalents à des termes en x2 qui ne se compensent pas. On obtient :

x2 x2
g( x ) = + o ( x2 ) ∼ .
2 2
x
3. Pour finir si on regarde h( x ) = sin x + cos x − 1, on peut essayer de faire de même. Mais là, les deux
2
sont équivalents à des termes en x2 qui se compensent. On doit vraiment faire un développement limité
afin d’obtenir le terme en x3 ou en x4 .
x2 x2
h( x ) = + o ( x3 ) − + o ( x 3 ) = o ( x 3 ).
2 2
Le terme en x3 est nul, on doit pousser plus loin de DL.

x2 x4 x2 x4 x4 x4
h( x ) = − + o ( x4 ) − + + o ( x4 ) = − + o ( x4 ) ∼ − .
2 12 2 24 24 24
Remarque : C’est vraiment dans ce dernier cas, que les DL sont essentiel. Si les termes principaux se com-
pensent, on est obligé d’aller chercher des termes « plus loin dans le DL ».

3.2 Détermination de limites


Les développements limités sont utiles pour déterminer des limites. Le problème est que l’on ne sait pas, a
priori, à quel ordre on doit faire le développement.
Exemples :
ln(1 + x2 )
1. Calculer lim . Ce premier exemple et très simple et peut même se traiter avec des équivalents.
x →0 1 − cos x
cos x + sin x
2. Calculer lim √ . Celui-là est un peu plus compliqué car, on utilise un développement limité ce
x →0 x
qui évite d’avoir un problème avec les sommes d’équivalents.
x sin x − ln(1 + x2 )
3. Calculer lim . On voit ici que le dénominateur est équivalent à x4 . Il faut donc faire un
x →0 x4
développement limité à l’ordre 4 en haut.
  
1 x
4. Calculer lim x 1+ −e .
x →∞ x

3.3 Étude locale


Les développements limités permettent de déterminer les tangentes et la position relative de la courbe par
rapport à la tangente.

Proposition [Link]

Soit a ∈ R et f ∈ DL2,a . On suppose que le développement limité à l’ordre 2 est :

f ( x ) = a0 + a1 ( x − a) + a2 ( x − a)2 + o (( x − a)2 ).

Alors f admet pour tangente au point d’abscisse a la droite d’équation y = a0 + a1 ( x − a). De plus, si
a2 > 0, la courbe est au-dessus de sa tangente au voisinage de a et si a2 < 0, la courbe est au-dessous
de sa tangente au voisinage de a.

Remarques :

266
1. La proposition précédente, ne donne pas d’informations dans le cas ou a2 = 0. Plus généralement si f
admet un développement limité de la forme :
f ( x ) = a0 + a1 ( x − a) + a p ( x − a) p + o (( x − a) p )
avec a p le plus petit terme non nul de degré strictement supérieur à 1.
Si p est impair, la courbe traverse sa tangente au point d’abscisse p. On sait de plus dans quel sens en
étudiant le signe de a p . Si p est pair, la courbe reste du même coté de la tangente et on a le même résultat
que si p = 2.
2. Cette méthode est souvent plus rapide qu’un calcul direct de dérivé, en particulier si la fonction f est
définie via un quotient.
Exemple : Soit f la fonction définie par x 7→ e x ln( x ). Trouver l’équation de la tangente au point x = 1 ainsi
que la position de la courbe par rapport à la tangente.
On obtient  
( x − 1)2
f ( x ) = e ( x − 1) + + o (( x − 1)2 ).
2
D’où la tangente au point d’abscisse 1 est y = e( x − 1). De plus la courbe est au-dessus de sa tangente.

3.4 Développements asymptotiques


Pour le moment on a utilisé les développements limités afin d’obtenir des informations au voisinage d’un
point a dans R. Cependant, comme pour les limites, on peut aussi essayer d’obtenir des informations au
voisinage de ±∞. Cela va nous permettre d’obtenir des limites ou d’étudier les branches infinies.
De manière plus générale, on peut définir la notion de développement asymptotique en a ∈ R en considérant
des fonctions ( f i )i∈N telles que
∀i ∈ N, f i+1 = o ( f i ) .
a
La suite ( f i ) s’appelle alors une échelle de comparaison.

Un développement asymptotique en 0

On cherche à faire un développement de sin x en 0. On ne peut√peut-être pas faire de développement limité

car on sait bien que cette fonction n’est pas dérivable en 0 (on a sin x ∼ x). On va quand même pouvoir
faire un développement asymptotique. On a en effet sin x = x − x3 /6 + o x3 . De ce fait
0
√ r
sin x = x − x3 /6 + o ( x3 )
0
√ q
= x 1 − x2 /6 + o ( x2 )
  
√ x2
= x 1− + o x2
12 0
√  √ 
√ x2 x
= x− + o x2 x .
12

Ici on utilise l’échelle des x n x.

Un développement asymptotique en ∞
Soit f une fonction définie au voisinage de ±∞. On cherche des réels ( a0 , . . . , an ) ∈ Rn+1 tel que, pour tout
x proche de +∞ (resp. −∞),
   n  n 
1 1 1
f ( x ) = a0 + a1 + · · · + an +o .
x x x
Remarque : cela revient à faire un développement limité de la fonction g : t 7→ f (1/t) au voisinage de 0. En
particulier, tous les théorèmes vus précédemment
√ restent
√vrais.
Exemple : On considère la fonction f : x 7→ x2 + x − x2 − x. On a au voisinage de +∞
p p √ √ 
x2 + x − x2 − x = x 1 + 1/x − 1 − 1/x
  
1 1 1
= x 1+ −1+ +o
2x 2x x
1
= + o (1).
2

267
On en déduit que
lim f ( x ) = 1/2.
x →+∞
Il faut faire attention dans ce genre de calcul, qu’il y a une multiplication par x à la fin et que cela fait
descendre de 1 l’ordre du développement
q fait. q 
√ √
Exercice : Déterminer lim x x+ x+1− x+ x−1 .
x →+∞

Recherche de branches infinies


Les développements asymptotiques à l’infini permettent aussi d’étudier les branches infinies. En particulier,
les asymptotes obliques. On peut aussi, en poussant le développement à un ordre de plus déterminer les
positions relatives.
On va chercher a0 , a1 tels que

f ( x ) = a0 x + a1 + ε( x ) avec lim ε( x ) = 0.
x →∞

En pratique on cherche a0 , a1 et a p tels que


 
ap 1
f ( x ) = a0 x + a1 + + o .
x p +∞ x p +1
On peut alors conclure à la position relative de la courbe de f et de l’asymptote en fonction du signe de a p
(et de la parité de p si on est en −∞).
f (x)
Cela revient donc à faire un développement en ∞ de x 7→ .
x
3
x +x
Exemple : Déterminons les branches infinies de f : x 7→ 2 en +∞.
x −x
x3 1 + 1/x2
On a f ( x ) = 2 . . Afin d’obtenir l’asymptote et la position relative, on veut calculer le développe-
x 1 − 1/x
ment asymptotique à l’infini à l’ordre 1. Il faut cependant faire attention que pour ce faire, comme nous allons,
1 + 1/x3
multiplier par x à la fin, il faut commencer par calculer le développement de à l’ordre 2 en +∞.
1 − 1/x2
On a

   
1 + 1/x2 1 1 1 1
= 1+ 2 1+ + 2 +o
1 − 1/x x x x x2
 
1 2 1
= 1+ + 2 +o .
x x x2
On en déduit que  
2 1
f (x) = x + 1 + + o .
x x
= x + 1 et la fonction est au-dessus de son asymptote.
L’asymptote est donc y√
Exercice : Étude x 7→ x2 + x + 1 en ±∞.

Étude d’une suite implicite


Soit n ∈ N∗ , on pose f n : x 7→ x5 + nx − 1. Cette fonction est strictement croissante sur R+ et f n (0) = −1 < 0,
f n (1) = n > 0. On en déduit qu’il existe une solution de l’équation f n ( x ) = 0 dans l’intervalle ]0, 1[. On la note
xn .
— On remarque alors que f n+1 ( xn ) = xn5 + (n + 1) xn − 1 = nxn + f n ( xn ) = nxn > 0. De ce fait,

f n+1 ( xn ) > 0 = f n+1 ( xn+1 ) ⇒ xn > xn+1 car f n−+11 est croissante

La suite ( xn ) est décroissante et minorée par 0 donc elle converge. Si on note ` sa limite. Montrons par
l’absurde que ` = 0. On suppose que ` > 0. Dans ce cas, nxn ∼ n` et donc tend vers +∞, on nxn = 1 − xn5
qui est bornée.
On en déduit que
( xn ) → 0
1 1
Remarque : On aurait aussi pu voir que f n (1/n) = + 1 − 1 = 5 > 0 et donc 0 < xn < 1/n.
n5 n

268
— On cherche maintenant la suite du développement asymptotique. On remarque que comme ( xn ) → 0
alors xn5 = o ( xn ) de ce fait, xn5 + nxn ∼ nxn . On a donc nxn ∼ 1 et donc

1
xn ∼ .
n
1
— On cherche maintenant la suite du développement asymptotique. On pose xn = + αn où donc αn =
n
o (1/n) c’est-à-dire que nαn → 0. En remplaçant dans l’équation
 5  
1 1 1
+ αn +n + αn =1 ⇐⇒ (1 + nαn )5 + nαn = 0
n n n5
1
⇐⇒ (1 + 5nαn + o (nαn )) + nαn = 0
n5
1
⇐⇒ nαn + o (nαn ) = − 5
n
1
On en déduit que αn ∼ −
n6
En conclusion  
1 1
− 6 + o 1/n6 xn =
n n
Remarque : En recommençant on peut trouver que

1 1 5  
xn = − 6 + 11 + o 1/n11
n n n

Formule de Stirling
Notre but est de démontrer la formule de Stirling qui donne un équivalent de factoriel n :

Théorème [Link] (Formule de Stirling)

On a √ √
n! ∼ nn e−n 2πn ou nn+1/2 e−n 2π

Démonstration : Commençons par essayer de « justifier » d’où vient cette formule. On considère
n
ln(n!) = ∑ ln k.
k =2

Étant donné la croissance du logarithme, on peut se dire que cela ne doit pas être trop loin de n ln n. On pose
donc vk = k ln k − (k − 1) ln(k − 1) et on a
n
n ln n = ∑ vk .
k =2
 
k−1
Maintenant, vk = ln k − (k − 1) ln . On en déduit que
k
n  
1
n ln n = ln(n!) − ∑ (k − 1) ln 1 − . (A)
k =2
k

Maintenant, en utilisant le développement asymptotique de de (k − 1) ln(1 − 1/k) pour k → ∞ on a


     
1 1 1 1 1
(k − 1) ln 1 − = k 1− − − 2 − 3 + o 1/k3
k k k 2k 3k
1 1  
= −1 + + + o 1/k2
2k 6k2
1
= −1 + + αk
2k

269
n n
1 1 1 1
où αk ∼
6k 2
. En conclusion, ln ( n! ) = n ln n − n + ∑ 2k
+ α k . Il ne reste plus qu’à voir que ∑ 2k
= ln n +
2
k =2 k =2
n
γ + o (1) (série harmonique) et que ∑ αk converge vers une constante réelle (cela sera prouvé en fin d’année)
k =2
pour en conclure que
ln(n!) − (n + 1/2) ln n + n → ` ∈ R.
n!en
En prenant l’exponentielle tend vers une constante non nulle K et donc
nn+1/2
n! ∼ Knn+1/2 e−n .

ATTENTION

On peut démontrer plus simplement ce fait (quand on connait le résultat). On considère en effet

n!en
un = √ .
nn n

C’est une suite strictement positive. Le but est alors de montrer que (un ) converge vers une limite
non nulle. On considère alors
  "  n+1/2 #
u n +1 n
ln = ln e
un n+1
 
1
= 1− n+ ln(1 + 1/n)
2
1  
= − 2
+ o 1/n2
12n
 
u n +1
On en déduit que la série de terme général ln est convergente. Or
un
N  
u n +1
∀ N ∈ N, ∑ ln
un
= ln(u N +1 ) − ln(u1 ).
n =1

On en déduit que ln(un ) tend vers une limite finie et donc (un ) aussi.

Pour conclure la démonstration il reste à calculer la valeur de K. On introduit pour cela l’intégrale de Wallis :
Z π/2
∀n ∈ N, In = sinn t dt.
0
— A l’aide d’une classique intégration par partie on obtient que
∀n > 2, nIn = (n − 1) In−2 .
π
— En remarquant que I0 = on en déduit que pour n = 2p,
2
2p − 1 2p − 3 1 (2p)! π
I2p = × × · · · × I0 = 2p × .
2p 2p − 2 2 2 ( p!)2 2

— La suite ( In ) est décroissante d’où


In 6 In−1 6 In−2
et donc
n−1 I I
= n−2 6 n−1 6 1.
n In In
Par encadrement, on obtient que ( In−1 /In ) tend vers 1 et donc que In ∼ In−1 .
π
— Pour finir, on montrer que la suite Zn = (n + 1) In In+1 est constante et de ce fait est égale à Z0 = . On a
2
Zn ∼ nIn2 d’où
r
π
In ∼ .
2n

270
Maintenant en utilisant la formule trouvée ci dessus et l’équivalent précédent on obtient que

K (2p)2p+1/2 e−2p π 2 π π
I2p ∼ 2p 2 2p+1 −2p ∼ √ ∼ p .
2 K ( p) e 2 K p2 K 2p

En comparant avec la formule précédente, on obtient :


r
π π
∼ p .
4p K 2p

On en obtient K = 2π. 

271
Espaces vectoriels
19
1 Espaces vectoriels 272
1.1 Défintion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
1.2 Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
2 Sous-espaces vectoriels 275
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
2.2 Sous-espace vectoriel engendré par une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
3 Familles de vecteurs 277
3.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
3.2 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
3.3 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
3.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
4 Somme de sous-espaces vectoriels 280
4.1 Défintions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
4.2 Somme directe et supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
4.3 Somme directe d’un nombre fini de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . 282
5 Sous-espaces affines 283
5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
5.2 Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
5.3 Intersection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285

Dans ce chapitre K désignera R ou C (et éventuellement Q). Dans la pratique la grande majorité des résultats
restent vrais dès que K est un corps.

1 Espaces vectoriels
1.1 Défintion
Si on considère l’ensemble des vecteurs de R2 et R3 . C’est un ensemble sur lequel on a deux opérations : la
somme et la multiplication par un réel. Nous allons construire la structure d’espace vectoriel pour généraliser
ce concept.

272
Définition [Link]

On appelle K−espace vectoriel (ou espace vectoriel sur K) tout ensemble E muni d’une loi de composition
interne (notée +) et d’une loi externe c’est-a-dire une application K × E → E notée λ.x (où λ ∈ K et x ∈ E)
vérifiant :
1. ( E, +) est un groupe commutatif ;
2. ∀ x ∈ E, ∀(λ, µ) ∈ K2 , α.( β.x ) = (αβ).x.
3. ∀(λ, µ) ∈ K2 , ∀ x ∈ E, (λ + µ).x = λ.x + µ.x
4. ∀ x ∈ E, 1.x = x
5. ∀( x, y) ∈ E2 , ∀λ ∈ K, λ.( x + y) = λ.x + λ.y.

Terminologie :
1. Les éléments de E s’appellent des vecteurs. Cependant, pour alléger on ne les désigne pas avec des flèches.
2. L’élément neutre de ( E, +) s’appelle le vecteur nul. On le désigne par 0 ou 0E si on veut le différencier du
0 de K.
3. Les éléments de K s’appellent des scalaires.
4. On note souvent λx pour λ.x s’il n’y a pas de confusion.
5. Le corps K s’appelle corps de la base de l’espace vectoriel. Il arrive de l’omettre dans la notation. On dira
alors « soit E un espace vectoriel ».
Exemples :
1. L’ensemble R2 avec les opérations classiques est un espace vectoriel sur R. Rappelons la définition des
lois sur R2 . Soit u = ( x, y), v = ( x 0 , y0 ) et λ ∈ R on définit :

u + v = ( x + x 0 , y + y0 ) et λ.u = (λ.x, λ.y).

Nous démontrons ci-dessous, dans un cas plus général, que c’est bien un espace vectoriel.
2. On munit l’ensemble Kn des opérations suivantes :

( x1 , . . . xn ) + (y1 , . . . , yn ) = ( x1 + y1 , . . . , xn + yn ) et λ.( x1 , . . . , xn ) = (λ.x1 , . . . , λ.xn ).

L’ensemble Kn est alors un espace vectoriel sur K.


1. La loi + est associative car elle l’est sur K. De même elle est commutative.
Le vecteur 0E = (0, . . . , 0) est un élément neutre pour l’addition.
Pour tout u = ( x1 , . . . , xn ), le vecteur −u = (− x1 , . . . , − xn ) est son symétrique.
Donc ( E, +) est bien un groupe commutatif.
2. ∀u = ( x1 , . . . , xn ) ∈ E, ∀(λ, µ) ∈ K2 , α.( β.u) = α.( βx1 , . . . , βxn ) = (αβx1 , . . . , αβxn ) = (αβ).u.
3. ∀(λ, µ) ∈ K2 , ∀u = ( x1 , . . . , xn ) ∈ E(λ + µ).x = ((λ + µ) x1 , . . . , (λ + µ) xn ) = (λx1 + µx1 , . . . , λxn +
µxn ) = λ.u + µ.u.
4. ∀u = ( x1 , . . . , xn ) ∈ E, 1.u = u
5. ∀(u, v) ∈ E2 , ∀λ ∈ K, λ.(u + v) = λ.( x1 + y1 , . . . , xn + yn ) = (λx1 + λy1 , . . . , λxn + λyn ) = λ.u +
λ.v.
En particulier, R est un R-espace vectoriel (pareil pour C).
3. L’ensemble réduit à un élément {0} est un espace vectoriel sur K. On conviendra que c’est K0 .
4. L’ensemble K[ X ] des polynômes est un espace vectoriel.
5. Soit X un ensemble et E un espace vectoriel, l’ensemble F = F ( X, E) des applications de X dans E est un
espace vectoriel avec les lois suivantes :

∀( f , g) ∈ F2 , f + g : x 7→ f ( x ) + g( x ) et ∀ f ∈ F, ∀λ ∈ K, λ. f : x 7→ λ. f ( x ).

Cela englobe en particulier


— les fonctions définies d’un intervalle I dans R ou dans C ;
— les suites (définies sur N) à valeurs dans R ou C.

273
6. Soit E et F deux espaces vectoriels. L’ensemble produit E × F est muni d’une structure d’espace vectoriel.
On pose
∀(( x, y), ( x 0 , y0 )) ∈ ( E × F )2 , ∀λ ∈ K, ( x, y) + ( x 0 , y0 ) = ( x + x 0 , y + y0 ) et λ.( x, y) = (λ.x, λ.y).
7. On généralise le cas précédent à un nombre fini d’espace vectoriel. Si E1 , . . . , En sont des espaces vectoriels
alors ∏ Ei = E1 × · · · × En est muni d’une structure d’espace vectoriel que l’on appelle structure d’espace
i
vectoriel produit.
8. Soit K un corps et Ł un sur-corps alors Ł est un K espace vectoriel. En particulier, R est un Q-espace
vectoriel et C est un R-espace vectoriel.

Proposition [Link]

Soit E un K-espace vectoriel. Pour tout λ ∈ K et tout x ∈ E.


1. 0.x = 0 et λ.0 = 0.
2. −(λ.x ) = (−λ.x ) = λ.(− x )
3. λ.x = 0 ⇐⇒ λ = 0 ou x = 0.

Démonstration

1.2 Combinaisons linéaires


Définition [Link] (Combinaisons linéaires)

Soit E un K espace vectoriel. Soit n ∈ N et (u1 , . . . , un ) n vecteurs de E. On appelle combinaison linéaire des
vecteurs u1 , . . . , un tout vecteur v pouvant s’écrire :
n
v = λ1 u1 + · · · + λ n u n = ∑ λk uk .
k =1

Remarque : Si n = 0, on récupère une somme sur un ensemble vide qui vaut 0 par convention. De ce fait
l’ensemble des combinaisons linéaires des vecteurs de l’ensemble vide est {0}.
Exemples :
1. Dans R2 on se donne u1 = (1, 4). Un combinaison linéaire de u1 est un vecteur u tel qu’il existe λ ∈ R tel
que u = λ.u1 = (λ, 4λ). Par exemple (4, 16) est une combinaison linéaire de u1 et (7, 7) n’en n’est pas une.
2. Dans R2 on se donne u1 = (1, 4) et u2 = (−2, 1). Un combinaison linéaire de u1 et u2 est un vecteur u tel
qu’il existe (λ, µ) ∈ R2 tel que u = λ.u1 + µ.u2 = (λ − 2µ, 4λ + 2µ). Montrons alors que tous vecteurs de
R2 est une combinaison linéaire de u1 et u2 .

2,5

-5 -2,5 0 2,5

-2,5

Dessin de (−5, −2) = −u1 + 2.u2

274
3. Dans R3 on se donne les vecteurs u1 = (1, 1, 0) et u2 = (−1, 1, −2). L’ensemble des combinaisons linéaires
de u1 et u2 est alors un plan vectoriel.
4. Dans K[ X ], les combinaisons linéaires des vecteurs 1, X et X 2 sont les polynômes de degré inférieur à 2.
Remarques :
1. On voit en particulier que particulier que le vecteur nul est une combinaison linéaire de toute famille de
vecteurs (et même de la famille vide).
2. La notion de combinaison linéaire ne dépend pas de l’ordre des vecteurs u1 , . . . , un . Cependant on gardera
le plus souvent un ordre pour préparer à la notion de base
On va étendre la notion de combinaison linéaire au cas d’une famille infinie de vecteurs. Il faut faire attention
que ’lin ne considérera alors que la somme d’un nombre fini de vecteur.

Définition [Link]

Soit E un K-espace vectoriel.


1. Soit A une partie de E (éventuellement infinie). On appelle combinaison linéaire des vecteurs de A toute
combinaison linéaire d’une partie finie de A.
2. Soit I un ensemble. On appelle famille presque nulle (ou à support fini) de K un famille (λi ) ∈ K I tel
que l’ensemble J = {i ∈ I | λi 6= 0} des indices i tels que λi ne soit pas nulle est fini.
3. Si on note A = (ui )i∈ I une partie de E, toute combinaison linéaire v des vecteurs de A se note

v= ∑ λi ui
i∈ I

où (λi )i∈ I est une famille presque nulle.

Exemple : Dans F (R, R), on pose A = { x 7→ x n | n ∈ N}. L’ensemble des combinaisons linéaires des éléments
de A est l’ensemble des fonctions polynomiales.
Remarque : Cette année nous travaillerons assez rarement avec des familles de vecteurs infinies.
Notation : Avec les notation précédente, on note VectA l’ensemble des combinaisons linéaires des vecteurs de
A (où A est un ensemble ou une famille).

2 Sous-espaces vectoriels
Dans tout ce paragraphe on se fixe E un K-espace vectoriel.

2.1 Définitions
Définition [Link]

On appelle sous-espace vectoriel de E tout sous-groupe F de ( E, +) stable par la multiplication. L’ensemble F


est alors un espace vectoriel.

Remarque : On abrège souvent "sous-espace vectoriel" en "sev".

Proposition [Link] (Caractérisation des sous-espaces vectoriels)

Soit F une partie de E. Les assertions suivantes sont équivalentes :


1. L’ensemble F est un sous-espace vectoriel de E.
2. 0 ∈ F et ∀(u, v) ∈ F2 , ∀(λ, µ) ∈ K2 , λ.u + µ.v ∈ F.

Démonstration

Remarques :

275
1. On peut alléger la deuxième condition en ne demandant que 0 ∈ F et ∀(u, v) ∈ F2 , ∀λ ∈ K, λ.u + v ∈ F.
Cependant, ce faisant on perd la symétrie de l’expression.
2. De même on peut remplacer 0 ∈ F par F 6= ∅ mais dans 99,9%, c’est le vecteur nul que nous chercherons
comme élément de F.
3. Comme pour les groupes/anneaux, quand on veut démontrer qu’un ensemble est un espace vectoriel on
essaye très souvent de démontrer que c’est un sev d’un espace vectoriel connu.
Exemples :
1. L’ensemble C 0 (R, R) des fonctions continues sur de R dans R est un sev de F (R, R).
2. L’ensemble Kn [ X ] est polynômes de degré inférieur à n.
3. Si on considère C comme un R espace vectoriel alors R = {z ∈ C | Im(z) = 0} est un sev de C.
4. Dans R2 , l’ensemble H = {( x, y) | x − 2y = 0} est un sev. Par contre ni {( x, y) | x = y2 } ou {( x, y) | x + y =
1} en est un.
5. Dans R3 , l’ensemble {( x, y, z) | x − 3y + 2z = 0} est un sev.
6. Dans tout espace vectoriel E, E en entier et {0} sont des sev.

Proposition [Link]

Soit F un sous-espace vectoriel de E. Soit u1 , . . . , un des vecteurs de F et λ1 , . . . , λn des scalaires alors


λ1 u1 + · · · + λn un appartient à F.

Démonstration : On voit que par définition λ1 u1 + λ2 u2 appartient à F. Ensuite on en déduit que (λ1 u1 +
λ2 u2 ) + λ3 u3 aussi. Et ainsi de suite. De fait, on peut procéder par récurrence sur n. 
Remarque : Cela signifie qu’un sev est stable par combinaisons linéaires.

2.2 Sous-espace vectoriel engendré par une partie


Proposition [Link]

Soit F1 et F2 deux sous-espaces vectoriels de E. L’ensemble F1 ∩ F2 est un sous-espace


\
vectoriel de
E. De même si ( Fi )i∈ I est une famille de sous-espaces vectoriels de E alors Fi est un sous-espace
i∈ I
vectoriel.

Démonstration

Exemple : Par exemple si on prend deux plans vectoriels non confondus dans R3 . Leur intersection sera une
droite vectorielle qui sera un sev.
Remarque : Cela n’est plus du tout vrai pour l’union. Par exemple si on considère les deux droites d’équation
x = y et y = 2x dans R2 . Nous verrons plus loin le « substitut » à l’union.

Proposition-Définition [Link]

Soit A une partie de E. Il existe un plus petit espace vectoriel contenant A. On l’appelle espace
vectoriel engendré par A et on le note Vect( A).

Remarques :
1. On trouve aussi (mais plus rarement dans ce cadre) la notation < A > .
2. Si A = ∅, Vect( A) = {0}.
Démonstration : Il suffit de voir que l’ensemble
\
I des sous-espaces vectoriels de E contenant A n’est pas vide
(car il contient E lui même). L’ensemble F est un sev et il contient A.
F∈ I


276
Proposition [Link]

Soit A une partie de E. Le sous-espace vectoriel Vect( A) est l’ensemble des combinaisons linéaires
de vecteurs de A.

Démonstration : Notons F l’ensemble des combinaisons linéaires des vecteurs de A et montrons par double
inclusion que F = Vect( A).
— F ⊂ Vect( A) Soit w un élément de F. Il existe u1 , . . . , un des vecteurs de A et λ1 , . . . , λn des scalaires
n
tels que w = ∑ λi ui . Maintenant, par définition, tous les ui appartiennent à A donc à Vect( A). D’après
i =1
la proposition, ci-dessus, la combinaison linéaire w appartient aussi à Vect( A). On a bien F ⊂ Vect( A).
— Vect( A) ⊂ F Il suffit de remarquer que F est un sev de E car il est non vide et il est stable par combinaison
linéaire. Comme, de plus il contient A, on a bien Vect( A) ⊂ F.

Exemples :
1. Dans R2 , soit u1 = (2, 1). L’espace vectoriel engendré par u1 est l’ensemble Vect(u1 ) = {(2x, x )| x ∈
R} = {( x, y) ∈ R2 | x = 2y}. Si on ajoute u2 = (2, 0). Alors Vect(u1 , u2 ) = R2 .
2. Dans K[ X ], on a Kn [ X ] = Vect(1, X, X 2 , . . . , X n ).
3. Dans RN . Si on note u la suite constante à 1 et v la suite définie par vn = n. On a Vect( A) = {suites arithmétiques}.
C’est donc un sev de RN .

3 Familles de vecteurs
On se fixe un espace vectoriel E.

3.1 Exemple introductif


Reprenons l’exemple déjà vu ci-dessus. Dans R2 on se donne u1 = (1, 4). Un combinaison linéaire de u1 est
un vecteur u tel qu’il existe λ ∈ R tel que u = λ.u1 = (λ, 4λ). Par exemple (4, 16) est une combinaison linéaire
de u1 et (7, 7) n’en n’est pas une. On en déduit que tous les vecteurs du plan ne peuvent pas s’écrire comme
combinaison linéaire du vecteur u1 . On a Vect(u1 ) est strictement inclus dans R2 .
Si on se donne alors u2 = (−2, 1). Un combinaison linéaire de u1 et u2 est un vecteur u tel qu’il existe
(λ, µ) ∈ R2 tel que u = λ.u1 + µ.u2 = (λ − 2µ, 4λ + 2µ). Comme on l’a vu, tous les vecteurs de R2 sont des
combinaisons linéaires de u1 et u2 . De plus, à un vecteur w donné il y a même une unique combinaison linéaire
« qui marche ».
Si on rajoute alors u3 = (−2, 7). Bien évidemment, tout vecteur w est encore combinaison linéaire des trois
vecteurs u1 , u2 et u3 . Il suffit d’ajouter un 0.u3 à celle trouvée au-dessus. Cependant, dans ce cas, il y a d’autres
possibilités. On n’a plus l’unicité.
En conclusion, on pourrait dire que dans le premier cas il n’y avait pas assez de vecteurs dans la famille et
que dans le dernier cas, il y en avait trop.

3.2 Familles génératrices


Définition [Link]

Soit (ui )i∈ I une famille de vecteurs de E. On dit que la famille est génératrice de E (ou qu’elle engendre E) si
E = Vect(ui ). C’est-à-dire que tout vecteur de E peut s’écrire comme une combinaison linéaire des vecteurs
de la famille.

ATTENTION

Cette année, on s’en servira principalement pour des familles finies.

277
Exemples :
1. Dans l’exemple précédent la famille (u1 ) n’engendre par R2 . Par contre (u1 , u2 ) et (u1 , u2 , u3 ) engendrent
R2 .
2. La famille (1, X, X 2 , X n ) n’engendre par K[ X ] mais elle engendre Kn [ X ].
B Le caractère générateur d’une famille dépend de l’espace vectoriel dans lequel on la considère comme on
le voit à l’exemple ci-dessus.

Proposition [Link]

Soit F une famille génératrice de E.


1. Toute famille obtenue en permutant les termes de F est encore génératrice de E.
2. Toute sur-famille de F (c’est-à-dire une famille G dont F est une sous-famille) est encore
génératrice de E.

Remarques :
1. En gros, plus il y a de vecteurs dans une famille plus elle a de chances d’être génératrice.
2. La notion de famille génératrice ne dépend pas de l’ordre. On pourra donc parler de parties génératices

3.3 Familles libres


Définition [Link]

Soit (u1 , . . . , un ) une famille finie de vecteurs de E. On dit que la famille est libre ou que les vecteurs u1 , . . . , un
sont linéairement indépendants si
n
∀(λi ) ∈ Kn , ∑ λi ui = 0 ⇒ λ1 = λ2 = · · · = λn = 0.
i =1

Terminologie : Dans le cas contraire on dit que la famille est liée ou que les vecteurs sont linéairement
dépendants. Dans ce cas il existe une relation du type λ1 u1 + · · · λn un = 0 avec les λi non tous nuls (ce qui n’est
pas la même chose que tous non nuls). Cette relation s’appelle relation de dépendance linéaire des vecteurs
u1 , . . . , u n .
On généralise cela au cas d’une famille éventuellement infinie

Définition [Link]

Soit (ui ) une famille de vecteurs. Elle est dite libre si toute sous-famille finie est libre ce qui revient à dire que
pour toute famille (λi ) presque nulle telle que ∑ λi ui = 0 on a ∀i ∈ I, λi = 0.
i

ATTENTION

Le fait d’être libre ne dépend de l’espace vectoriel dans lequel on regarde la famille.

Exemples :
1. On reprend notre exemple de R2 . Les familles (u1 ) et (u1 , u2 ) sont libres mais pas la famille (u1 , u2 , u3 )
par exemple −4u1 − 5u2 + 3u3 = 0. C’est une relation de dépendance linéaire.
2. La famille (1, X, X 2 , X n ) est libre. En effet, un polynôme est nul si et seulement si tous ses coefficients sont
nuls.
3. De même la famille ( X i )i∈N est libre dans K[ X ].
4. Dans le R-espace vectoriel C, les vecteurs 1 et j sont libres.

278
5. Un famille composée d’un seul vecteur non nul est libre.
6. Un famille contenant le vecteur nul est liée.
7. Soit u et v deux vecteurs. La famille (u, v) est liée, s’il existe des scalaires λ, µ tels que λu + µv = 0. On dit
λ
que les deux vecteurs sont colinéaires. En particulier si u n’est pas nul, alors µ non plus et on a v = − u.
µ

ATTENTION

Ce dernier point n’est plus vrai pour 3 vecteurs. Par exemple si u = (1, 0, 0), v = (0, 1, 0) et
w = (1, 1, 0) alors (u, v) ne sont pas colinéaires (comme (v, w) et (u, w)) mais la famille est liée car
w = u + v.

Proposition [Link]

Soit (ui ) une famille libre de vecteurs de E. Pour tout vecteur w de Vect(ui ) il existe une unique
combinaison linéaire de (ui ) égale à w.

Démonstration
Proposition [Link]

Soit F une famille libre de E.


1. Toute famille obtenue en permutant les termes de F est encore libre.
2. Toute sous-famille de F est encore libre de E.

Remarque : En gros, moins il y a de vecteurs dans une famille plus elle a de chances d’être libre.

3.4 Bases
Définition [Link]

Soit (ui ) une famille de vecteurs. On dit que la famille est une base si elle est libre et génératrice.

Remarques :
1. Comme dans le cas de la famille génératrice, cela dépend de l’espace vectoriel E.
2. Là encore, l’ordre des vecteurs n’est pas important.
Exemples :
1. Dans R2 , la famille (u1 , u2 ) est une base. De même pour la famille (1, 0), (0, 1).
2. Dans Kn , on note ei = (0, . . . , 1, 0, . . .). La famille (e1 , . . . , en ) est une base de Kn . On l’appelle la base
i
canonique.
3. La famille (1, X, . . . , X n ) est une base de Kn [ X ] (mais pas de K[ X ]). Elle s’appelle la base canonique. La
famille (1, X, . . .) est une base de K[ X ].
4. La famille ( X, X − 1, X − 2) est une base de K2 [ X ].

Théorème [Link]

Soit B = (u1 , . . . , un ) une base finie de E. Pour tout vecteur w de E il existe une unique (λ1 , . . . , λn ) ∈
Kn tel que
n
w= ∑ λi ui .
i =1

Les scalaires λi s’appellent les composantes ou les coordonnées de w dans la base B.

279
Démonstration

ATTENTION

Les coordonnées d’un vecteur dans une base DEPENDENT du vecteur, de la base (en particulier de
l’ordre des vecteurs dans la base)

 
λ1
 
Notation : On note  ...  les coordonnées d’un vecteur.
λn

Théorème [Link]

Soit B = (ui ) une base de E. Pour tout vecteur w de E il existe une unique famille presque nulle (λi )
tel que
w = ∑ λi ui .
i

Exemples :
 
−1/9
1. Dans On considère notre base B = (u1 , u2 ). Le vecteur w = (1, −1) a pour coordonnées
R2 . .
  5/9
1
Dans la base canonique ce même vecteur w a pour coordonnées . On prendra soin de ne pas
−1
confondre le vecteur (1, −1) avec ses coordonnées dans la base canonique même si ce sont les mêmes
chiffres.
2. Trouver une base de H = {( x, y, z) ∈ R3 | x + y − z = 0}.

5
3. Dans R2 [ X ] le polynôme X 2 − 3X + 5 a pour coordonnées  −3  dans la base canonique. Il a pour
  1
3
coordonnées  −2  dans la base (1, X − 1, X ( X − 1)).
1
Exercice : Calculer les coordonnées de i dans la base (1, j) du R-espace vectoriel C.

4 Somme de sous-espaces vectoriels


On se fixe un espace vectoriel E.

4.1 Défintions
On a vu que si on se donne deux sous-espaces vectoriels F et G de E, l’ensemble F ∪ G n’en n’est plus un.
On va définir un sous-espace vectoriel contenant F et G.

Proposition-Définition [Link]

Soit F et G deux sous-espaces vectoriels de E. L’ensemble des sous-espaces vectoriels contenant F et


G admet un plus petit élément que l’on note F + G et qui s’appelle la somme de F et G. On a

F + G = {u + v | u ∈ F, v ∈ G }.

Démonstration : Montrons que F + G = {u + v | u ∈ F, v ∈ G } est un sev de E.


— H 6= ∅ car 0 = 0 + 0.
— (a faire)

280
Donc F + G est un sev et il contient F et G.
De plus, soit H un sev contentant F et G on veut montrer que F + G ⊂ H. Soit w = u + v un élément de
F + G. On sait que u et v appartiennent à H car ils appartiennent respectivement à F et à G donc, H étant un
sev, u + v ∈ H. 
Exemples :
1. Dans R3 . On considère u1 = (−1, 2, −1) et u2 = (0, 1, −1) ainsi que F1 = Vect(u1 ) et F2 = Vect(u2 ).
Alors F1 + F2 est un plan défini par x + y + z = 0.
2. Dans R3 . On considère H1 = {( x, y, z) | x + y + z = 0} et H2 = {( x, y, z) | x = 0}. On a H1 + H2 = R3 .

Définition [Link]

De même si F1 , . . . , Fn sont n sous-espaces vectoriels de E On note


n
∑ Fi = F1 + F2 + · · · + Fn = {u1 + · · · + un | ∀i ∈ [[ 1 ; n ]] , ui ∈ Fi }.
i =1

C’est le plus petit sous-espace vectoriel contenant tous les Fi .

Proposition [Link]

Soit (u1 , . . . , u p ) et (v1 , . . . , vq ) deux familles de vecteurs,

Vect(u1 , . . . , u p ) + Vect(v1 , . . . , vq ) = Vect(u1 , . . . , u p , v1 , . . . , vq )

Démonstration : En execice 

4.2 Somme directe et supplémentaires


Définition [Link]

Soit F et G deux sous-espaces vectoriels de E. On dit que F et G sont en somme directe si pour tout w dans
F + G il existe un unique couple (u, v) ∈ F × G tels que w = u + v. On note alors F ⊕ G le sous-espace
vectoriel somme.

Exemples :
1. On reprend les exemples précédents, F1 ⊕ F2 = H.
2. Les sev H1 et H2 ne sont pas en somme directe.

Proposition [Link]

Soit F et G deux sous-espaces vectoriels. Ils sont en somme directe si et seulement si F ∩ G = {0}.

Démonstration :
— Montrons que si F ∩ G = {0} alors F et G sont en somme directe. Soit w ∈ F + G. On suppose que
w = u1 + v1 = u2 + v2 avec (u1 , u2 ) ∈ F2 et (v1 , v2 ) ∈ G2 . Dès lors u1 − u2 = v2 − v1 ∈ F ∩ G. On en
déduit que u1 = u2 et v1 = v2
— Réciproquement on suppose que F et G sont en somme directe et on veut montrer que F ∩ G = {0}. Soit
u ∈ F ∩ G. On a alors
u = u + 0G = 0F + u.
Par unicité de la décomposition, u = 0

281
Définition [Link]

Soit F et G deux sous-espaces vectoriels de E. On dit qu’ils sont supplémentaires (ou que G est un supplé-
mentaire de F ou réciproquement) si F ⊕ G = E. C’est-à-dire que pour tout w de E il existe un unique couple
(u, v) de F × G tel que w = u + v.

Remarque : Dans la pratique, pour montrer que deux sevs sont supplémentaires, on le fait en deux fois. On
montre que F + G = E et que F ∩ G = {0}.
Exemples :
1. Dans R2 , on pose F = {( x, 0)| x ∈ R} et G = {( x, x ) | x ∈ R}. Ils sont supplémentaires.
2. Dans K[ X ]. On pose F = K0 [ X ] et G = { P ∈ K[ X ] | P(0) = 0}. Alors F ⊕ G = K[ X ].
3. Dans F (R, R). On pose P l’ensemble des fonctions paires et I l’ensemble des fonctions impaires. Ils
sont supplémentaires.
En particulier, exp = ch + sh .
Exercice : Soit Q un polynôme non nul. On pose F = { P ∈ K[ X ] | deg P < deg Q} et G = { PQ | P ∈ K[ X ]}.
1. Montrer que F et G sont des sevs.
2. Montrer qu’ils sont supplémentaires.

4.3 Somme directe d’un nombre fini de sous-espaces vectoriels


Définition [Link]

Soit F1 , . . . , Fn des sous-espaces vectoriels de E. On dit que les Fi sont en somme directe si pour tout w
n n
Ln
dans ∑ Fi il existe un unique (u1 , . . . , un ) ∈ F1 × · · · × Fn tels que w = ∑ ui . On note alors i =1 Fi =
i =1 i =1
F1 ⊕ · · · ⊕ Fn le sous-espace vectoriel somme.

ATTENTION

Il n’est plus vrai que si Fi ∩ Fj = {0} pour i 6= j alors les Fi sont en somme directe. Par exemple dans
R2 , si on pose F1 = Vect(1, 1), F2 = Vect(1, 2) et F3 = Vect(1, 3)

Proposition [Link]

Soit F1 , . . . , Fn des sous-espaces vectoriels de E. Il sont en somme directe si et seulement s’il existe un
n
unique (u1 , . . . , un ) ∈ F1 × · · · × Fn tels que ∑ ui = 0. C’est-à-dire :
i =1

n
∀(u1 , . . . , un ) ∈ F1 × · · · × Fn , ∑ ui = 0 ⇒ u1 = · · · = un = 0.
i =1

Démonstration :
— ⇒ Évident.
— ⇐ Soit w ∈ ∑in=1 Fi , (u1 , . . . , un ) et (v1 , . . . , vn ) tels que
w = u1 + · · · + u n = v1 + · · · + v n .
On en déduit que
n
0= ∑ ( ui − vi )
i =1
et donc ∀i ∈ [[ 1 ; n ]] , ui = vi

Ln
Exemple : On a Kn [ X ] = i =0 Vect( X i ).

282
5 Sous-espaces affines
5.1 Définition
On a vu dans les exemples précédents que les sous-espaces vectoriels de R2 et R3 pouvaient être visualisés
comme les droites et plans passant par 0. On voudrait maintenant pouvoir travailler avec les autres droites /
plans.
Pour cela on va définir la structure affine d’un espace vectoriel. Nous n’allons pas trop entrer dans le détail
car nous ne l’utiliserons que dans des cas très simples.
Soit E un K-espace vectoriel, on le munit d’une structure affine en notant E l’ensemble des points et E
l’ensemble des vecteurs. Ces deux ensembles sont les mêmes objets mais vu différemment. Afin de bien
différencier les objets les éléments de E (les points) seront notés par les lettres majuscules A, B, C, M, N, . . . alors
−→
que les éléments de E (les vecteurs) seront notés par des lettres minuscules avec des flèches − →u , i ,...
On a alors une opération :
+: E ×E → E
( A, −

u ) 7→ M = A + − →u
Dans le terme de droite la somme est juste la somme classique de l’espace vectoriel.
A+−

u



u
O
Notation : Dans toute quand on considérera la structure affine d’un espace vectoriel on notera avec une lettre
scripte l’ensemble des points et une lettre droite l’ensemble des vecteur.
Exemple : Pour E = R2 . Si A = (3, 1) et − →
u = (1, −3) alors A + −→u = (4, −2).
ATTENTION

Il est important de comprendre (et d’utiliser des notations cohérentes) la différence entre les points
et les vecteurs même si, à la fin, ce sont les mêmes objets

Définition [Link]

Soit E un espace vectoriel et −



u ∈ E. On appelle translation de vecteur −

u l’application :

t−
u :
→ E → E
A 7→ M = A+−

u

Proposition [Link]

Avec les notations précédentes.


1. Soit (−
→u ,−
→v ) ∈ E2 on a t−
u ◦ t−
→ →v = t−
→v ◦ t−
u = t−
→ →u +−→
v


2. Pour tout tout u ∈ E, t− → est une bijection et t − 1
=t
u −

u u.
−−

Remarque : La propriété ci-dessus peut s’exprimer en disant que l’ensemble T des translations est un sous-
groupe des bijections de E .

Proposition [Link]

−→
Soit ( A, B) ∈ E 2 . Il existe un unique vecteur −

u tel que A + −

u = B. On le note AB ou B − A.

283
Démonstration : Il suffit de voir que A + −

u = B ⇐⇒ −

u = B − A (en se rappelant que les points sont aussi
des éléments de E). 

ATTENTION

On peut faire des calculs du genre :


−→
A + B + C − 2A = B + C − A = B + AC ∈ E

De fait
— Une somme de points dont la somme des coefficients est 0 est un vecteur.
— Une somme de points dont la somme des coefficients est 1 est un point.
— Tout autre somme n’a pas de sens. Par exemples A + B.

5.2 Sous-espaces affines


On a maintenant tout ce qu’il faut pour définir nos sous-espaces affines.
Notation : Soit E un espace vectoriel. Soit Ω ∈ E et F un sous-espace vectoriel de E on note

Ω + F = {Ω + −

u |−

u ∈ F}

Exemples :
1. Pour E = R2 . Si on note Ω = (2, 1) et F = Vect−

u où −

u = (1, 1) alors

Ω + F = {(2 + t, 1 + t) | t ∈ R}

C’est une droite donnée sous forme paramétrique. On a aussi

Ω + F = {( x, y) ∈ R2 | x − y = 1}.

2. Quand on considère l’équation différentielle linéaire :

y0 + y = x (E)

On considère l’équation homogène associée

y0 + y = 0 (H)

On sait que S H est le sous-espace vectoriel de C 1 (R, R) engendré par x 7→ e− x : S H = { x 7→ λe− x | λ ∈


R}. De manière évidente on voit que f 0 : x 7→ x − 1 est une solution évidente et donc

SE = f 0 + S H .

Définition [Link]

Une partie F de E est un sous-espace affine s’il existe un point Ω et un sous-espace vectoriel F de E tels que

F = Ω + F.

ATTENTION

Pour une même partie F la donnée du point Ω n’est pas unique (sauf si F = {0}). En effet si −

u ∈ F,
on a
Ω + F = (Ω + − →u ) + F.
Par contre, F est unique en effet F = { B − A | ( A, B) ∈ F 2 } (démonstration en exercice)

284
Définition [Link]

Avec les notations précédentes, F s’appelle la direction du sous-espace affine F . On dit que F est le sous-espace
affine passant par Ω et de direction F.

Exemple : Soit F = {( x, y, z) ∈ R3 | x + y − 4z = 2}. Montrons que c’est un sous-espace affine. Considérons


un point de F . Par exemple Ω = (2, 0, 0). Soit a = ( x, y, z) un élément de R3 . On a alors

a∈F ⇐⇒ x + y − 4z = 2
⇐⇒ ( x − 2) + y − 4z = 0
⇐⇒ a − Ω ∈ F où F = {( X, Y, Z ) | X + Y − 4Z = 0}.
On en déduit que F = Ω + F.

5.3 Intersection
Commençons par traiter quelques exemples
Exemples :
1. Dans R3 on considère les deux droites :

D1 : (1, 0, 0) + Vect(1, 1, 1) et D2 : (3, 1, 1) + Vect0, 1, 0

On voit alors que D1 ∩ D2 = ∅ car on ne peut pas trouver (s, t) ∈ R2 tels que

(1 + s, s, s) = (3, 1 + t, 1)

2. Toujours dans R3 on considère les deux plans :

P1 = {( x, y, z) ∈ R3 | x − y + z = 4} et P2 = {( x, y, z) ∈ R3 | x + 3y = −1}.

En résolvant le système : 
x−y+z = 4
(S) =
x + 3y = −1
on trouve que
P1 ∩ P2 = {(11/4, −5/4, 0) + z(1/4, 1/4, 1) | z ∈ R}
C’est donc l’espace affine Ω + F où Ω = (11/4, −5/4, 0) et F = Vect(1/4, 1/4, 1) = Vect(1, 1, 4). On
peut remarquer que si l’on résout le système homogène associé à (S) alors on trouve que F est l’intersection
des directions P1 = {( x, y, z) ∈ R3 | x − y + z = 0} et P2 = {( x, y, z) ∈ R3 | x + 3y = 0}.

Proposition [Link] (Intersection)

Soit F et G deux sous-espaces affines. Deux cas peuvent se produire :


— F ∩ G peut être vide
— Si F ∩ G n’est pas vide c’est un sous-espace affine de direction F ∩ G.

Démonstration : S’il est vide il n’y a rien à dire.


Supposons que F ∩ G ne soit pas vide. On considère Ω ∈ F ∩ G . Maintenant pour tout x de E,
x ∈ F ∩G ⇐⇒ x ∈ F et x ∈ G
⇐⇒ x − Ω ∈ F et x − ω ∈ G
⇐⇒ x−Ω ∈ F∩G
On a donc bien
F ∩ G = Ω + ( F ∩ G ).


285
Espaces vectoriels
20
de dimension finie
1 Espaces vectoriels de dimension finie 286
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
1.2 Existence d’une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
1.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
1.4 Dimension et famille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
2 Sous-espaces vectoriels 290
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
2.2 Somme et supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
2.3 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
2.4 Première approche des calculs matriciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
2.5 Détermination du rang d’une famille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
2.6 Extraction d’une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
3 Retour aux sous-espaces affines 295
3.1 Dimension d’un sous-espace affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
3.2 Quelques exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295

On voudrait dire que R2 est de dimension 2, R3 est de dimension 3 et ainsi de suite. On peut remarquer que
c’est le nombre de vecteurs de la base canonique et de toutes les bases que l’on a trouvé.

1 Espaces vectoriels de dimension finie


1.1 Définitions
Définition [Link]

Soit E un espace vectoriel on dit que E est de dimension finie s’il existe une famille génératrice de cardinal fini.

Remarques :

286
1. On va voir que ce qui va nous intéresser sera plutôt une base avec un nombre fini de vecteurs mais il est
plus simple de demander une famille génératrice car cela nous évitera de vérifier qu’elle est libre.
2. Dans le cas contraire, on dit que E est de dimension infinie.
Exemples :
1. Soit n un entier, l’espace vectoriel Kn est de dimension finie car la base canonique est une famille
génératrice finie.
2. Soit n un entier, l’espace vectoriel Kn [ X ] est un espace vectoriel de dimension finie pour la même raison.
3. L’espace vectoriel K[ X ] n’est pas de dimension finie. Supposons en par l’absurde qu’il existe une famille
génératrice finie : ( P1 , . . . , Pn ). Tout polynôme P s’écrit alors comme combinaison linéaire des ( Pi ) :
P = ∑ λi Pi . On en déduit alors que deg( P) 6 Max(deg( Pi )). C’est absurde. Donc K[ X ] n’est pas de
i i
dimension finie.

1.2 Existence d’une base


Nous allons montrer que tout espace vectoriel de dimension finie admet une base.

Lemme [Link]

Soit E un espace vectoriel, G une famille génératrice finie et F un sous famille de G libre. On peut
compléter la famille F avec des vecteurs de G pour obtenir une base B. On a donc

F ⊂ B ⊂ G.

Démonstration : Le principe est de rajouter des vecteurs pour rendre la famille génératrice mais pas trop pour
qu’elle reste libre.
On note (u1 , . . . , un ) la famille G telle que, quitte à échanger l’ordre des vecteurs, F = (u1 , . . . , ur ). On va
procéder de manière algorithmique. On note p = n − r :
— Si F est une famille génératrice alors, comme elle est libre, c’est une base : c’est gagné !
— Si F n’est pas une famille génératrice. Alors il existe un vecteur de G \ F qui n’est pas une combinaison
linéaire des vecteurs de F . En effet, si tous les vecteurs de G s’écrivaient comme combinaison linéaire des
vecteurs de F , la famille F serait génératrice. Quitte à inverser l’ordre des vecteurs (ur+1 , . . . , un ) dans
G , on peut supposer que ur+1 n’est pas une combinaison linéaire des vecteurs de F . On ajoute alors ur+1
r +1
à F . La famille obtenue reste libre. En effet soit (λi ) tels que ∑ λi ui = 0. On sépare les cas. On ne peut
i =1
pas avoir λr+1 différent de 0 car ur+1 n’est pas une combinaison linéaire des vecteurs de F et si λr+1 est
nul alors λ1 = · · · = λr 0 car (u1 , . . . , ur ) est libre.
On peut alors recommencer avec la nouvelle famille F et p = p − 1.
L’algorithme s’arrête au plus tard quand p = 0.

Remarque : On peut aussi, de manière moins constructive, considérer les familles libres comprises entre F et
G et prendre une famille de cardinal maximal.

Théorème [Link] (Théorème de la base extraite)

Soit E un espace vectoriel de dimension finie. Il admet une base. De plus, on peut extraire une base
de toute famille génératrice finie.

Exemple : Dans R3 . On considère les vecteurs u1 = (1, 2, 3), u2 = (2, −2, 1), u3 = (4, 2, 7) et u4 = (1, 1, 1). La
famille est liée car par exemple 2u1 + u2 − u3 = 0. On peut enlever u3 et voir que (u1 , u2 , u4 ) est une base de R3 .
Démonstration : On applique le lemme en prenant pour F la sous-famille vide qui est libre ou (si E 6= {0})
une famille à un élément qui n’est pas le vecteur nul. 
On a aussi le théorème suivant

287
Théorème [Link] (Théorème de la base incomplète)

Soit E un espace vectoriel de dimension finie et F une famille libre. On peut la compléter en une
base. C’est-à-dire qu’il existe une famille G qui soit une base et telle que F ⊂ G .

Exemple : Toujours dans R3 . Soit u1 = (1, 2, 3) et u2 = (2, −2, 1). La famille est libre mais elle n’engendre pas
R3 . On peut la compléter avec par exemple u3 = (1, 0, 0). La famille obtenue est une base.
Démonstration : Il suffit de considérer une base de E que l’on note B. On a alors F ⊂ (F ∪ B ) et on applique
le lemme précédent. 
Remarque : On a utilisé ci-dessus le fait que la famille F était finie (pour que F ∪ B soit finie). On verra plus
loin que c’est systématique.

1.3 Dimension
Notre but est de montrer que toutes les bases ont le même nombre de vecteurs. Par exemple dans R2 on a
bien vu que les famille avec strictement moins de deux vecteurs n’engendraient pas R2 et que les familles avec
strictement plus de deux vecteurs n’étaient pas libres. On veut généraliser ce fait.

Proposition [Link]

Soit E un espace vectoriel et n un entier naturel. Soit F une famille de n vecteurs. Toute famille G de
n + 1 vecteurs de Vect(F ) est liée.

Démonstration : On procède par récurrence sur n. On pose Hn = « Pour toute famille F de n vecteurs. Toute
famille G de n + 1 vecteurs de Vect(F ) est liée ».
— I : Pour n = 0, la famille F est vide et donc Vect(F ) = {0}. La famille G ne contient qu’un vecteur qui
est nécessairement le vecteur nul et donc la famille G est liée. Si cet argument ne vous convainc pas, on
peut aussi regarder pour n = 1. On a alors F = (u) et Vect(F ) = Vect(u). La famille G est composée
de deux vecteurs colinéaires. Elle est liée.
— H : Soit n ∈ N? . On suppose Hn . On veut démontrer Hn+1 . On note (u1 , . . . , un+1 ) la famille F et
(v1 , . . . , vn+2 ) la famille G . On sait que tous les vecteurs (vi ) s’écrivent comme combinaison linéaire des
(ui ). Notons pour tout i ∈ [[ 1 ; n + 2 ]], αi le coefficient de un+1 dans une décomposition de (vi ).
— Si tous les αi sont nuls alors les vecteurs de G appartiennent à Vect(F \ {un+1 }). On en déduit
qu’une sous famille à n + 1 élément de G est liée et donc G est liée.
— S’il existe un αi qui n’est pas nul, qui à échanger l’ordre des vecteurs on peut supposer que c’est αn+2 .
On construit alors la famille
αi
wi = v i − vn+2 pour i ∈ [[ 1 ; n + 1 ]] .
α n +2

Par construction ces vecteurs appartiennent à Vect(u1 , . . . , un ) car on a « tué » la composante en


un+1 . On en déduit que c’est une famille liée par récurrence. Un relation de dépendance linéaire non
triviale sur les (wi ) permet d’obtenir une relation de dépendance linéaire non triviale sur les vi .


Corollaire [Link]

Soit E un espace vectoriel de dimension finie. Toutes les bases ont le même nombre d’éléments.

Démonstration : Supposons par l’absurde qu’il existe deux bases B et B 0 qui n’ont pas le même nombre
d’éléments. Par symétrie, on peut supposer que Card(B ) = n et Card(B 0 ) = n0 > n. Dès lors on peut extraire
une sous-famille libre de B 0 contenant n + 1 éléments. Cela est absurde d’après la proposition précédente. 

288
Définition [Link]

Soit E un espace vectoriel de dimension finie. On appelle dimension de E et on note dim E le nombre d’éléments
dans les bases de E.

Remarque : Pour déterminer la dimension d’un espace vectoriel on essayer d’en trouver une base.
Exemples :
1. La dimension de l’espace vectoriel {0} est 0 car la famille vide est une base.
2. On a pour tout entier n, dim Kn = n. Il suffit de considérer la base canonique.
3. De même, l’espace vectoriel Kn [ X ] est de dimension (n + 1).
4. Soit H = {( x, y, z) ∈ R3 | x + y − z = 0}. On a vu que la famille ((1, 0, 1), (0, 1, 1)) est une base donc
dim H = 2.
5. On a vu que C en tant que C espace vectoriel est de dimension 1. Par contre il est dimension 2 en tant que
R espace vectoriel (une base est 1 et i).
6. Soit E une equation différentielle linéaire homogène d’ordre 1. On a vu que l’ensemble des solutions est
un espace vectoriel de dimension 1.
7. Soit E une equation différentielle linéaire homogène d’ordre 2 à coefficients constants. On a vu que
l’ensemble des solutions est un espace vectoriel de dimension 2.

Proposition [Link]

1. Soit E et F deux espaces vectoriels de dimension finie. Si (u1 , . . . , un ) est une base de E et
(v1 , . . . , v p ) est une base de F alors la famille ((u1 , 0), . . . , (un , 0), (0, v1 ), . . . , (0, v p ) est une
base de E × F. En particulier l’espace vectoriel E × F est de dimension finie et dim( E × F ) =
dim E + dim F.
n
2. Soit E1 , E2 , . . . , En des espaces vectoriels de dimension finie. Alors ∏ Ei est de dimension finie
i =1
et !
n n
dim ∏ Ei = ∑ dim(Ei ).
i =1 i =1

Démonstration

1.4 Dimension et famille


Dans tout ce paragraphe on fixe E un espace vectoriel de dimension n.

Proposition [Link]

Soit F une famille de vecteurs de E


1. Si F est libre elle a au plus n vecteurs.
1’. Si elle a au moins n + 1 vecteurs, elle est liée.
2. Si F est génératrice elle a au moins n vecteurs.
2’. Si elle a au plus n − 1 vecteurs, elle n’est pas génératrice de E.

Remarque : On voit que les assertions 1’ et 2’ sont les contraposées des assertions 1 et 2.
Exemple : Si on considère quatre polynômes de degré au plus 2. Ils forment une famille liée car c’est une
famille de R2 [ X ] qui est de dimension 3.
Démonstration :
1. L’assertion 1’ est juste la proposition vue précédemment. En effet, on considère une base B contenant n
vecteurs et si F est une famille de n + 1 vecteurs (ou plus) elle est liée.

289
2. L’assertion 2. découle aussi de cette proposition. En effet, supposons par l’absurde que F est une famille
génératrice de N < n vecteurs. Alors une base B de E est un famille de n > N + 1 de Vect(F ). Elle est
donc liée ce qui est absurde car c’est une base de E.


Théorème [Link] (Théorème de la base incomplète)

Soit E un espace vectoriel de dimension finie. Soit F une famille libre. On peut la compléter en une
base de E.

Démonstration : Il suffit d’utiliser le lemme ci-dessus en remarquant que F est une sous-famille libre de
F ∩ B où B est une base de E. 
Remarque : C’est l’analogue du fait que l’on peut extraire une base d’une famille génératrice.

Théorème [Link]

Soit F une famille de n vecteurs. Les assertions suivantes sont équivalentes.


i.) La famille est une base.
ii.) La famille est génératrice.
iii.) La famille est libre.

Remarque : Ce théorème est très utile. En particulier, pour prouver qu’une famille est une base d’un espace
vectoriel dont on connait la dimension. Il suffit de vérifier qu’elle a le bon nombre de vecteurs (autant que
dim E) et qu’elle est libre.
Démonstration : De manière évidente i.) implique ii.) et iii.).
— Montrons que ii.) implique i.) : On sait que l’on peut extraire une base d’une famille génératrice. Or la
famille contenant déjà n vecteurs, la base extraite est égale à la famille entière.
— Montrons que iii.) implique i.) : On vient de voir que l’on peut compléter une famille libre en une base. On
conclut comme précédemment.

Exemples :
1. Soit n ∈ N. On sait que Kn [ X ] est de dimension n + 1 (car on sait que la base canonique a n + 1 vecteurs).
Soit α. Considérons maintenant, la famille {( X − α)i }06i6n . La formule de Taylor nous dit que cette famille
est génératrice. Comme elle comporte le bon nombre de vecteurs (n + 1) c’est une base (que l’on appelle
base de Taylor). Les coordonnées d’un polynôme P dans cette base est donnée par P(k) /k!.
2. Dans Kn on considère la famille des n vecteurs ui = (1, 1, . . . , 1, 0 . . . , 0). Vérifions que cette famille est
i
libre. Soit (λi ) des scalaires tels que w = ∑ λi ui est nul. La dernière coordonnées de w est λn . On en
i
déduit que λn = 0 et ainsi de suite (si on veut le faire « bien »on suppose par l’absurde que la famille n’est
pas nul et on considère n0 le plus grand indice tel que λn0 6= 0.) Cette famille étant libre et avec n vecteurs,
c’est une base de Kn .
3. Soit A ⊂ CN l’ensemble des suites vérifiant une relation de récurrence linéaire
aun+2 + bun+1 + cun = 0 où a 6= 0.
On a vu que c’est un espace vectoriel. Une base est donnée par les suites (u, v) définies par u0 = 1, u1 = 0
et v0 = 0, v1 = 1. On en déduit que A est de dimension 2. Si on suppose que aX 2 + bX + c = 0 a deux
racines distinctes (∆ 6= 0) que l’on note α et β. On sait que (αn ) et ( βn ) sont deux suites de A. Elles sont
libres car (1, α) et (1, β) est libre. On en déduit directement que c’est une base. Vous pouvez comparer à la
démonstration du cours au début de l’année.
Exercice : Montrer qu’une famille échelonnée en degré de Kn [ X ] est une base.

2 Sous-espaces vectoriels
On se fixe un espace vectoriel de dimension finie et on note n = dim E.

290
2.1 Généralités
Proposition [Link]

Soit F un sous-espace vectoriel de E. L’espace vectoriel F est de dimension finie et dim F 6 dim E.

Démonstration : On considère l’ensemble des familles libres de vecteurs de F. On sait que cet ensemble contient
la famille vide. Il n’est donc pas vide. On sait de plus qu’une famille de F (et donc de E) avec plus de n + 1
vecteurs ne peut pas être libre. Il existe donc une famille libre de vecteurs de F de cardinal maximal. Notons
(u1 , . . . , u p ) une telle famille. On va montrer que c’est une base de F. Déjà elle est libre. Maintenant pour tout v
de F, la famille (u1 , . . . , u p , v) n’est pas libre car de cardinal p + 1. Or une relation de dépendance linéaire s’écrit

λ1 u1 + · · · + λ p u p + α.v = 0

Comme α 6= 0 puisque la famille initiale est libre, on a

λ1 λp
v=− u1 − · · · − up.
α α
Comme ceci est possible avec tout vecteur v de F, on en déduit que la famille (u1 , . . . , u p ) est génératrice de F.
C’est donc une base et dim F = p 6 n = dim E.

Exemples :
1. Soit P = {( x, y, z, t) ∈ R4 | x + y + z + t = 0 et x − y + z − t = 0}. On peut supposer que cet espace
vectoriel est de dimension 4-2 =2. Il faut donc trouver, pour le prouver, une base contenant deux vecteurs.
On remarque que si les valeurs de x et de y sont fixées alors il n’y a plus de choix pour z et t qui vérifient
le système 
z + t = −x − y
z − t = −x + y
1 1
L’unique solution de ce système est z = (− x − y − x + y) = x et t = (− x − y + x − y) = −y. On pose
2 2
donc
u1 = (1, 0, 1, 0) et u2 = (0, 1, 0, −1).
Cette famille est bien libre et génératrice donc c’est une base de H.
2. De manière générale dans R3 il y a des sous-espaces vectoriels de dimension 0 : {0} ; des sous-espaces
vectoriels de dimensions 1 (des droites vectorielles) ; des sous-espaces vectoriels de dimension 2 (des plans
vectoriels) et R3 en entier.
Terminologie : On appelle droite vectorielle tout sous-espace vectoriel de dimension 1, plan vectoriel tout
sous-espace de dimension 2 et hyperplan vectoriel tout sous-espace vectoriel de dimension n − 1 dans un espace
vectoriel de dimension n. On dit qu’il est codimension 1.

Proposition [Link]

Soit F un sous-espace vectoriel de E. On a

dim F = dim E ⇒ F = E.

Remarques :
1. La réciproque est aussi vraie mais triviale.
2. C’est très utile pour montrer l’égalité de deux espaces vectoriels de dimension finie. On montre que l’un
est inclus dans l’autre et qu’ils ont la même dimension.
Exemple : On se place dans R3 . On considère les vecteurs u1 = (1, 0, 0), u2 = (0, 1, 0), v1 = (1, 1, 0) et
v2 = (1, −1, 0). On veut montrer que F = Vect(u1 , u2 ) est égal à G = Vect(v1 , v2 ). Remarquons pour
commencer que les familles (u1 , u2 ) et (v1 , v2 ) sont des bases respectives de F et G. Donc dim F = dim G = 2.
Maintenant, v1 = u1 + u2 et v2 = u1 − u2 . On a donc G ⊂ F donc F = G.

291
2.2 Somme et supplémentaires
Commençons par remarquer que tout sous-espace vectoriel admet un supplémentaire.

Proposition [Link]

Soit F un sous-espace vectoriel de E. Il admet un (et même une infinité) supplémentaire.

Démonstration : On considère une base (u1 , . . . , u p ) de F comme une famille libre de E. Elle peut être complété
en une base (u1 , . . . u p , v1 , . . . , vr ) de E. On pose F 0 = Vect(v1 , . . . , vr ). Il ne reste plus qu’à vérifier que
F ⊕ F 0 = E. 
Exemples :
1. On considère F = Vect(1, 1) dans R2 . Un supplémentaire est donné par F 0 = Vect(1, −1).
2. Soit n ∈ N. On pose E = K2n [ X ]. On considère P = Vect( X 2i )06i6n . C’est l’ensemble des polynôme
paires. On peut aisément voir que I = Vect( X 2i+1 )06i6n−1 est un supplémentaire.

Proposition [Link]

Soit F et G deux sous-espaces vectoriels de E Soit (u1 , . . . , un ) une base de F et (v1 , . . . , v p ) une base
de G.
1. La famille (u1 , . . . , un , v1 , . . . , v p ) est une famille génératrice de F + G.
2. La famille (u1 , . . . , un , v1 , . . . , v p ) est une base de F + G si et seulement si F et G sont en somme
directe.

Démonstration :
1. Evident
2. — ⇒ On suppose que (u1 , . . . , un , v1 , . . . , v p ) est une base de F + G et on veut montrer que F et G sont
en somme directe. Supposons par l’absurde que F et G ne sont pas en somme directe. Il existe alors
un vecteur w ayant deux décompositions :
w = f + g = f 0 + g0
où ( f , g) 6= ( f 0 , g00 ). Par symétrie on peut suppose que f 6= f 0 . En décomposant f , g, f 0 et g0
dans les bases (u1 , . . . , un ) et (v1 , . . . , v p ) on en déduit deux décompositions de w dans la base
(u1 , . . . , un , v1 , . . . , v p ) ce qui est absurde. On a donc bien que F et G sont en somme directe.
— ⇐ On suppose maintenant que F et G sont en somme directe et on veut montrer que (u1 , . . . , un , v1 , . . . , v p )
est libre. Soit (λ1 , . . . , λn , µ1 , . . . , µ p ) ∈ Kn+ p tels que
( λ1 u1 + · · · + λ n u n ) + ( µ1 v1 + · · · + µ p v p ) = 0
Comme la somme est directe on a que
(λ1 u1 + · · · + λn un ) = (µ1 v1 + · · · + µ p v p ) = 0.
Maintenant, en utilisant que (u1 , . . . , un ) et (v1 , . . . , v p ) sont des bases on obtient que
λ1 = · · · = λn = µ1 = · · · = µ p = 0.
La famille est donc libre.
Remarque : On voit de manière directe que cette proposition se généralise au cas de plus de deux sous-espaces
vectoriels.

Définition [Link]

p
M
Soit F1 , · · · , Fp des sous-espaces vectoriels de E tels que E = Fi . On appelle base adaptée à la décomposition
i =1
précédente toute base obtenue en juxtaposant des bases de chaque Fi .

292
Corollaire [Link] (Formule de Grassmann)

Soit F et G deux sous-espaces vectoriels.


1. Si F et G sont en somme directe alors dim( F ⊕ G ) = dim F + dim G. En particulier si F et G
sont supplémentaires, dim F + dim G = n.
2. Dans le cas général dim( F + G ) = dim F + dim G − dim( F ∩ G ) 6 dim F + dim G. En particu-
lier, on a que dim( F + G ) = dim F + dim G ⇒ (F et G sont en somme directe).
3. Tous les supplémentaires d’un espace vectoriel F ont la même dimension : n − dim F.

Démonstration :
1. Evident
2. Notons H = F ∩ G. On considère une base (u1 , . . . , u p ) de H. On peut la compléter en une base de
G : (u1 , . . . , u p , w1 , . . . , wr ). Ici, dim( H ) = dim( F ∩ G ) = p et dim G = p + r. Considérons aussi F 0 =
Vect(w1 , . . . , wr ) ⊂ G. On remarque que G = F 0 ⊕ H.
On va montrer que F ⊕ F 0 = F + G.
— Soit z un vecteur de F ⊕ F 0 . Il s’écrit z = z1 + z2 avec z1 ∈ F et z2 ∈ F 0 ⊂ G. Donc z ∈ F + G
et on a F ⊕ F 0 ⊂ F + G. Réciproquement soit z0 un vecteur de F + G il s’écrit z = z1 + z2 avec
z1 ∈ F et z2 ∈ G. Maintenant, z2 peut s’écrire z2 = z3 + z4 avec z3 ∈ F ∩ G et z4 ∈ F 0 . On a donc
z = z1 + ( z3 + z4 ) = ( z1 + z3 ) + z4 ∈ F + F 0 .
— Montrons que F ∩ F 0 = {0}. Soit z ∈ F ∩ F 0 . L’élément z est dans F 0 donc dans G. Or il est dans F
donc dans F ∩ G = H. Il appartient donc à H ∩ F 0 = {0} d’ou z = 0.
On conclut en disant que dim( F + G ) = p + q + r = ( p + q) + ( p + r ) − p = dim F + dim G − dim( F ∩ G ).

Exemple : Intersection de deux plans dans l’espace.
On peut généraliser cela à plus de deux sous-espaces vectoriels.

Proposition [Link]

Soit F1 , . . . , Fp des sous-espaces vectoriels :


!
p p
dim ∑ Fi 6 ∑ dim Fi .
i =1 i =1

De plus il y a égalité si et seulement si la somme est directe.

Démonstration : La première partie se démontre directement par récurrence sur p. Étudions la deuxième
partie.
— ⇒ On suppose que l’on a égalité des dimensions. On sait de plus qu’en « collant » les bases de chaque
p
sous-espace vectoriels on obtient une famille génératrice qui a ∑i=1 dim Fi vecteurs qui est donc la
dimension de l’espace somme. On en déduit que c’est une base. De ce fait, la somme est directe.
— ⇐ Si la somme est directe, on sait que l’on peut obtenir une base en « collant » les bases de chaque
sous-espace vectoriels. On a donc bien
!
p p
dim ∑ Fi = ∑ dim Fi .
i =1 i =1


Exemple : Dans Kn [ X ] on considère F0 = { P | P(0) = 0}, F1 = { P | P(1) = 0}. On veut montrer que
F0 ⊕ F1 ⊕ Kn−2 [ X ] = Kn [ X ]. On remarque déjà que dim F0 + dim F1 + dim Kn−2 [ X ] = 1 + 1 + n − 2 = n + 1 =
n
dim Kn [ X ]. De plus, F0 + F1 + Kn−2 [ X ] = Kn [ X ]. En effet, si P = ∑ ak X k alors
k =0
n −2 n −1  
k
n
P = a n X + a n −1 ( X − 1 )
| {z } | {z
n −1
}
+ ∑ ak X k
− a n −1 ∑ n−1
Xk .
k =0 k =0
∈ F0 ∈ F1 | {z }
∈ K n −2 [ X ]

293
On a donc bien
dim ( F0 + F1 + Kn−2 [ X ]) = dim F0 + dim F1 + dim Kn−2 [ X ].

2.3 Rang d’une famille de vecteurs


Définition [Link]

Soit F = (u1 , . . . , u p ) une famille de vecteurs. On appelle rang de F et on note rg (F ) la dimension de


l’espace vectoriel Vect(F ) engendré par F .

Proposition [Link]

Soit E un espace de dimension n et F = (u1 , . . . , u p ) une famille de vecteurs.


1. rg (F ) 6 dim E et rg (F ) 6 p.
2. On a rg (F ) = p si et seulement si la famille est libre.
3. Soit G une sous-famille de F , rg (G ) 6 rg (F ).
4. Le rang de F est le cardinal maximal d’une sous-famille libre de F .

Exemple : On considère la famille de R[ X ] suivante : P1 = 1 + X + X 2 , P2 = 1 − X − X 2 , P3 = 2X + 2X 2 . On


cherche le rang de la famille ( P0 , P1 , P2 ). On essaye de voir si la famille est libre. Soit λ1 , λ2 et λ3 trois scalaires.

λ1 + λ2 = 0
λ1 P1 + λ2 P2 + λ3 P3 = 0 ⇐⇒ .
λ1 − λ2 + 2λ3 = 0

On en déduit (pour λ2 = 1 par exemple) que − P1 + P2 + P3 = 0.


La famille n’est pas libre donc son rang est strictement inférieur à 3. Comme de plus la sous-famille ( P1 , P2 )
est libre elle est de rang 2 donc
rg ( P1 , P2 , P3 ) = 2.

2.4 Première approche des calculs matriciels


Si on dispose d’une base B = (u1 , . . . , un ) de E (par exemple si on travaille avec E = Kn ou E = Kn [ X ]) on
peut assez simplement savoir si une famille est libre et de même déterminer son rang.

Indépendance linéaire
On se donne une famille (v1 , . . . , v p ) que l’on peut décomposer dans la base B. De ce fait, pour (λ1 , . . . , λ p )
des scalaires l’équation
λ1 v1 + · · · + λ p v p = 0
peut s’écrire (en projetant sur les coordonnées définies par la base B)

∀i ∈ [[ 1 ; n ]] λ1 xi1 + · · · + λ p xip = 0

où le vecteur v j a pour coordonnées ( x1j , . . . , xnj ) dans la base B. Ce qui donne en utilisant l’écriture matricielle
des systèmes  
x11 · · · x1p
 .. ..  .
 . . 
xn1 · · · xnp
(le second membre n’est pas nécessaire car le système est homogène). Il ne reste plus qu’à échelonner ce système
— Si on obtient des inconnues auxiliaires (s’il reste des colonnes sans pivots) alors le système admet des
solutions non triviales (ce qui signifie que la famille n’est pas libre)
— A l’inverse la famille est libre.

294
2.5 Détermination du rang d’une famille
On utilise les mêmes notations et on procède de la même manière. Le nombre de pivots non nuls que l’on
obtient correspond au nombre de vecteurs maximal d’une sous-famille libre. C’est donc le rang de la famille
Exercice : Déterminer le rang de la famille

u1 = (1, 2, 3, 4), u2 = (−1, 3, 0, 2), u3 = (4, 1, 6, 6), u4 = (1, 0, 1, −1), u5 = (4, 4, 7, 7)

2.6 Extraction d’une base


On fait pareil et on « supprime »les colonnes sans pivots.
Exercice : compléter en une base de R4 la famille u1 = (1, 1, −1, 1), u2 = (4, 0, −2, 2).

3 Retour aux sous-espaces affines


3.1 Dimension d’un sous-espace affine
Définition [Link]

Soit E un espace vectoriel de dimension finie. On appelle dimension d’un sous-espace affine de E la dimension
de sa direction.

Notation :
1. Un sous-espace affine de dimension 1 s’appelle une droite (affine)
2. Un sous-espace affine de dimension 2 s’appelle un plan (affine)
3. Un sous-espace affine de dimension n − 1 s’appelle un hyperplan (affine)

3.2 Quelques exemples


Exemples :
1. Les sous espaces affines de R2 sont :
— Les points de dimension 0.
— Les droites de dimension 1
— le plan R2 en entier.
2. Les sous espaces affines de R3 sont :
— Les points de dimension 0.
— Les droites de dimension 1
— Les plans de dimension 2.
— L’espace R3 en entier.

Définition [Link]

Soit E un espace vectoriel de dimension finie. On appelle repère affine la donnée d’un point Ω qui est le centre
−−→
du repère et d’une base B de E. De ce fait pour tout point M de E, on peut décomposer le vecteur ΩM dans la
base B. Ce sont les coordonnées du point M dans le repère (Ω, B ).

295
1
Dénombrements
Ensembles finis et cardinal
21 296
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
1.2 Propriété du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
1.3 Opérations et cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
2 Dénombrements classiques 301
2.1 Applications de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
2.2 Applications injectives de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
2.3 Parties à p éléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303

1 Ensembles finis et cardinal


1.1 Définitions
Nous allons essayer de donner des expressions mathématiques pour les notions très intuitives d’ensemble
fini et du nombre d’éléments d’un tel ensemble. Pour cela nous aurons besoin de « prototypes » d’ensembles à
0, 1, 2, · · · , n éléments.
Notation : Nous noterons F0 = ∅, F1 = {1} et pour tout n > 2, Fn = [[ 1 ; n ]]. De ce fait l’ensemble Fn est un
ensemble ayant n éléments.

Définition [Link]

Soit E et F deux ensembles. On dit que E et F sont equipotents s’il existe une bijection ϕ : E → F. On note
E ' F.

Proposition [Link]

La relation d’équipotence vérifie les axiomes des relations d’équivalence.

Démonstration :
i) Tout ensemble est équipotent à lui-même, il suffit de prendre l’application indentité.
ii) Si E est équipotent à F alors F est équipotent à E. Il suffit en effet de prendre ϕ−1 qui est encore une
bijection.
iii) De même, la composée de deux bijections étant une bijection on en déduit que si E, F et G sont trois
ensembles et que E ' F et F ' G alors E ' G.

296
Cependant, on ne dira pas que c’est une relation d’équivalence car nous ne disposons pas d’ensemble de tous
les ensembles.

Une bijection associe à un élément de l’ensemble de départ un et un seul élément de l’ensemble d’arrivée et
réciproquement. On imagine donc que deux ensembles équipotents doivent avoir le même nombre d’éléments.

Proposition [Link]

Soit m et n deux entiers.


( Fn ' Fp ) ⇔ (n = p).

Avant de démontrer cette proposition, nous allons avoir besoin d’un lemme.

Lemme [Link] (Lemme des tiroirs - version simple)

Si on place quatre paires de chaussettes dans trois tiroirs, un tiroir contient au moins deux paires.

Lemme [Link] (Lemme des tiroirs - version sophistiqué)

Soit n et p deux entiers et ϕ une application de Fn dans Fp . Si n > p alors ϕ n’est pas injective.

ATTENTION

Le lemme des tiroirs peut aussi s’utiliser par contraposée. Soit n et p deux entiers et ϕ une application
de Fn dans Fp . Si ϕ est injective alors n 6 p.

Démonstration du lemme : Cela se fait par récurrence sur p. Précisément, si p ∈ N on pose

H p = ∀n ∈ N, (n > p) ⇒ toute application de Fn dans Fp n’est pas injective.

— Initialisation : Pour p = 0. Pour tout n > 0 il n’y a pas d’applications de Fn dans F0 car F0 est vide et pas
Fn .
— Hérédité : Soit p ∈ N. On suppose H p . On veut montrer H p+1 . Pour cela on se donne n > p + 1 et
ϕ : Fn → Fp et on veut montrer que ϕ n’est pas injective. On considère p + 1 ∈ Fp .
— Si p + 1 a plusieurs antécédent c’est gagné.
— Si p + 1 n’a pas d’antécédents alors ϕ est une fonction de Fn dans Fp et on applique H p .
— Si p + 1 a un unique antécédent α dans Fn . On a n > 1. On construit ϕ̃ de Fn−1 dans Fp en enlevant α
dans Fn et p + 1 dans Fp+1 . Précisément on pose

ϕ(u) si u < α
ϕ̃(u) =
ϕ ( u + 1) si u > α

D’après Hn , ϕ̃ n’est pas injective donc ϕ non plus.




Corollaire [Link]

Soit n et p deux entiers et ϕ une application de Fn dans Fp .


1. Si n < p alors ϕ n’est pas surjective.
2. Si ϕ est surjective alors n > p

297
Démonstration : Remarquons que les deux assertions sont la contraposée l’une de l’autre. Montrons la
deuxième. S’il existe une surjection ϕ de Fn dans Fp alors on peut construire ψ : Fp → Fn telle que pour
tout x de Fp , ϕ(ψ( x )) = x. En effet pour tout x de Fp on choisit pour ψ( x ) un antécédent de x par ϕ. On voit
alors que ψ est injective car pour ( x, x 0 ) ∈ Fp2 :

ψ( x ) = ψ( x 0 ) ⇒ ϕ(ψ( x )) = ϕ(ψ( x 0 )) ⇒ x = x 0 .

Le lemme des tiroirs permet alors de conclure que p 6 n.



Démonstration de la proposition :
— ⇐ C’est évident, l’identité est une bijection de Fn dans Fn .
— ⇒ On suppose qu’il existe une bijection ϕ : Fn → Fp . En particulier elle est injective. Le lemme des tiroirs
nous dit alors que n 6 p. Comme elle est aussi surjective alors n > p et donc n = p.


Définition [Link]

Soit E un ensemble. On dit que E est un ensemble fini s’il existe un entier n tel que E soit équipotent à Fn . De
plus, dans ce cas cet entier n est unique. On l’appelle le cardinal de E et on le note Card( E). On trouve aussi
les notations | E| et #E.

Remarques :
1. L’unicité découle du fait que s’il existait n et p des entiers distincts tels que E ' Fn et E ' Fp , alors Fn ' Fp
ce qui est impossible.
2. Le cardinal correspond au nombre d’éléments d’un ensemble.
3. En particulier une bijection ϕ entre Fn et E permet de numéroter les éléments de E en posant xi = ϕ(i ).
On a alors E = { x1 , . . . , xn }
Exemple : Soit E = {−2, π, 6, 100000}. On a Card( E) = 4. Par exemple l’application ϕ : [[ 1 ; 4 ]] → E définie
par ϕ(1) = π, ϕ(2) = −2, ϕ(3) = 100000 et ϕ(4) = 6 est une bijection.

1.2 Propriété du cardinal


Proposition [Link]

Soit E et F deux ensembles finis.


1. Il existe une injection de E dans F si et seulement si Card( E) 6 Card( F ).
2. Il existe une surjection de E dans F si et seulement si Card( E) > Card( F ).
3. Il existe une bijection de E dans F si et seulement si Card( E) = Card( F ).

Démonstration :
1. Procédons par double implication
— ⇒ :
On veut montrer que si n = Card( E) 6 Card( F ) = p alors il existe une injection de E dans F. On
sait par définition qu’il existe une bijection ϕ E de E dans Fn et une bijection ϕ F de F dans Fp . On
construit d’abord une injection i de Fn dans Fp . On peut prendre par exemple l’application qui associe
i à i. Il ne reste plus qu’à composer. L’application ϕ− 1
F ◦ i ◦ ϕ E est bien une injection (comme composée
d’injections) de E dans F.
E /F

ϕE ϕF
 
Fn / Fp

— ⇐ : On suppose qu’il existe une injection de E dans F. On garde les même notations. On voit que
ϕ E ◦ i ◦ ϕ− 1
F est une injection de Fn dans Fp . Donc n 6 p d’après le lemme des tiroirs.

298
2. Comme ci-dessus mais en utilisant la propriété sur les surjections.
3. Il suffit d’utiliser que la composition de deux bijections est une bijection.


Corollaire [Link]

Soit f une application de E dans F où E et F sont deux ensembles finis de même cardinal. Les
assertions suivantes sont équivalentes :
i.) L’application f est injective.
ii.) L’application f est surjective.
iii.) L’application f est bijective.

Remarques :
1. Cela fait penser au cas des familles de n vecteurs dans un espace vectoriel de dimension n.
2. Ce résultat est faux si E et F ne sont pas finis ou pas de même cardinal. Par exemple n 7→ n + 1.
Démonstration :
— Montrons que i.) implique ii.) Par contraposée, on est ramené à montrer que si f n’est pas surjective
alors elle n’est pas injective. Soit α un élément de F qui n’a pas d’antécédent (il existe car f n’est pas
surjective). L’application f peut donc être vue comme une application de E dans F \ {α}. Maintenant,
comme | E| > | F \ {α}| on en déduit que f n’est pas injective d’après le proposition précédente.
— Montrons que ii.) implique iii.) Le raisonnement est un peu similaire au précédent. On suppose que f est
surjective. Supposons par l’absurde que f n’est pas bijective (donc pas injective). Soit α un élément ayant
au moins deux antécédents. On note x1 et x2 deux de ces antécédents. Alors f˜ la restriction de f à E \ { x1 }
est encore surjective ce qui est absurde car Card( E \ { x1 }) < Card( E).


Corollaire [Link]

Soit E un ensemble fini et A une partie de E (A ∈ P ( E)). Alors A est un ensemble fini et Card( A) 6
Card( E). De plus, dans ce cas on a A = E ⇔ Card( A) = Card( E).

Ne pas faire

Démonstration : Il suffit de remarquer qu’il y a une injection i de A dans E. Si ϕ est une bijection de E vers Fn
où n = Card( E). On note X ⊂ E l’image de ϕ ◦ i. Alors A est en bijection avec X. Maintenant X est un ensemble
fini de cardinal inférieur à n. Il suffit de renuméroter ses éléments par ordre croissant. Dans la deuxième partie,
le sens ⇒ est évident et le sens ⇐ découle de ce qui précède.


1.3 Opérations et cardinal


Proposition [Link]

Soit E un ensemble fini et ( A, B) ∈ P ( E)2 .


1. Si A ∩ B = ∅, Card( A ∪ B) = Card( A) + Card( B).
2. Card( A) = Card( E) − Card( A).
3. Si B ⊂ A alors Card( A \ B) = Card( A) − Card( B).
4. Card( A ∪ B) = Card( A) + Card( B) − Card( A ∩ B).

Exemple : Si A = {1, 2, 3, 4, 5, 6} et B = {1, 3, 5, 7, 9}. Alors Card( A) = 6, Card( B) = 5, Card( A ∩ B) = 3 et


Card( A ∪ B) = 8.
Démonstration :

299
1. On suppose qu’il existe ϕ A : A → Fn et ϕ B : B → Fp des bijections. On construit alors

ψ: A∪B →  Fn+ p
ψA (x) si x ∈ A
x 7→
n + ψB ( x ) sinon

C’est une bijection (quelle est sa bijection réciproque ?)


2. Il suffit de voir que A ∩ A = ∅ et que A ∪ A = E.
3. Comme ci-dessus
4. On pose X = A \ ( A ∩ B). On a alors A ∪ B = X ∪ B et X ∩ B = ∅.


Corollaire [Link]

n
Soit E un ensemble fini et ( Ai )i∈[[ 1 ; n ]] une partition. Card( E) = ∑ Card( Ai ).
i =1

Dessin avec des patates pour faire deviner les formules pour Card( A ∪ B ∪ C ) et Card( A ∪ B ∪ C ∪ D ).

Proposition [Link] (Formule du crible de Poincaré - HP)

Soit E un ensemble et ( Ai )i∈[[ 1 ; n ]] des parties de E.


!
n
[ n
Card Ai = ∑ (−1)k+1 ∑ Card( Ai1 ∩ · · · ∩ Aik ).
i =1 k =1 16i1 <···<ik 6n

Proposition [Link]

Soit E et F des ensembles finis,

Card( E × F ) = Card( E) × Card( F ).

Démonstration : On peut noter E = { x1 , . . . , xn } où n = Card( E) et F = {y1 , . . . , y p } où p = Card( F ). Dès


lors
E × F = {( xi , y j ) | i ∈ [[ 1 ; n ]] , j ∈ [[ 1 ; p ]]}.
Il est donc en bijection avec Fn × Fp lui même en bijection avec Fnp .


Corollaire [Link]

Soit E un ensemble fini. Pour tout entier naturel p non nul, Card( E p ) = Card( E) p .

Démonstration : Cela se démontre par récurrence sur p.



Remarque : On rappelle que Ep
est l’ensemble E × · · · × E des p-uplets (ou p-listes) d’éléments de E. Ce
résultat se conçoit bien. En effet pour se donner une p-listes d’éléments de E il faut se donner ( x1 , . . . , x p ) ou,
pour chaque xi il y a Card( E) possibilités.

300
2 Dénombrements classiques
2.1 Applications de E dans F
Proposition [Link]

Soit E et F des ensembles finis de cardinal respectif p et n. L’ensemble F ( E, F ) = F E des applications


de E dans F est un ensemble fini et son cardinal est n p .

Démonstration : Il suffit de remarquer que si l’on note E = { x1 , . . . , x p } (via une bijection de E dans Fp ) alors

FE → Fp
f 7→ ( f ( x1 ), . . . , f ( x p ))

est une bijection de F E dans F p . On a donc Card( F E ) = Card( F p ) = Card( F ) p . 


Exercice : Tracer avec des patates toutes les applications de F3 dans F2 . Faire correspondre à chacune un
élément de {0, 1}3 .
Exemples :
1. On fait 10 tirages à pile ou face et on note dans l’ordre les résultats obtenus. L’ensemble des résultats
possibles est donc { P, F }10 . Son cardinal est 210 = 1024.
2. On dispose de 10 boules numérotés de 1 à 10 et on veut les repartir dans 4 boites distinctes (disons A, B,
C et D). On cherche le nombre de répartitions possibles. Il suffit de voir qu’une répartition est juste une
application de l’ensemble de boules (de cardinal 10) dans l’ensemble des boites (de cardinal 4). Il y a donc
410 répartitions possibles.

ATTENTION

Par contre cela ne correspond pas à une application dans l’autre sens. On associe pas à une boite une
boule car il y a des boites avec plusieurs boules et à l’inverses des boites sans boules

3. On dispose d’une urne avec 10 boules numérotées. On tire dedans 5 boules avec ordre et remise. Un
tirage peut alors être vu comme une application de [[ 1 ; 5 ]] dans l’ensemble B des boules. Il y a donc 105
tirages possibles. Ce sont des tirages avec ordre et avec repetitions.

Définition [Link] (Application caractéristique)

Soit E un ensemble. On associe à toute partie A de E une application χ A de E dans {0, 1} définie par

1A = χA : E →  {0, 1}
1 si x ∈ A
x 7→
0 sinon.

L’application χ A s’appelle l’application caractéristique de A.

Proposition [Link]

Soit E un ensemble. Les applications

Φ: P ( E) → {0, 1} E Ψ : {0, 1} E → P ( E)
et
A 7→ χA f 7→ f −1 ({1})

sont des bijections réciproques l’une de l’autre.


En particulier si E est un ensemble fini, P ( E) aussi et Card(P ( E)) = Card({0, 1} E = 2Card(E) .

301
Démonstration : Il suffit de vérifier que ∀ A ∈ P ( E), (Ψ ◦ Φ)( A) = χ− 1
A ({1}) = A. On a bien Ψ ◦ Φ = IdP ( E) .
De même Φ ◦ Ψ = Id{0,1}E . 
Exercice : Soit E = {0, 1, 2}. Vérifier que P ( E) a bien 8 éléments et exhiber les bijections ci-dessus entre P ( E),
{0, 1} E et {0, 1}3 .

2.2 Applications injectives de E dans F


Proposition [Link]

Soit E et F deux ensembles finis. On note p = Card( E) et n = Card( F ). L’ensemble des applications
injectives de E dans F est une partie de F E . En particulier il est fini. De plus, il est en bijection avec
l’ensembles des p-listes d’éléments de E deux à deux disjoints . Son cardinal est

 n!
p = n(n − 1) · · · (n − p + 1) si p 6 n
An = (n − p)!

0 sinon.

Démonstration : Cela se démontre par récurrence sur p. 


Remarques :
1. On appelle arrangement une p-liste s d’éléments deux à deux disjoints.
2. Cette formule est assez intuitive car il suffit de chosir le premier élément de la p-liste. Il y a n possibilités
(tous les éléments de E) puis le deuxième où il n’y a plus que n − 1 possibilités car on ne peut pas reprendre
le même et ainsi de suite.
Exemples :
1. On considère un tiercé avec 17 chevaux au départ. Un tiercé dans l’ordre est la donnée de 3 chevaux avec
ordre et sans repetitions. Cela peut-être modélisé par une application injective de [[ 1 ; 3 ]] dans l’ensemble
C des chevaux. Il y a donc A317 = 17 × 16 × 15 = 4080 tiercés possibles.
2. On dispose d’une urne avec 10 boules numérotées. On tire dedans 5 boules avec ordre et sans remise. Un
tirage peut alors être vu comme une application injective de [[ 1 ; 5 ]] dans l’ensemble B des boules. Il y a
donc A510 tirages possibles. Ce sont des tirages avec ordre et sans repetitions.

Définition [Link]

Soit E un ensemble fini. On appelle permutation de E une application bijective de E dans lui même. On note
SE l’ensemble des permutations de E.

Remarque : Cela correspond à la notion intuitive de permutation. En effet, si on note E = { x1 , . . . , xn } (via une
bijection de E dans Fn ) on associe à tout permutation f de E le n-uplet ( f ( x1 ), . . . , f ( xn )) qui est une écriture
des éléments x1 , . . . , xn dans un autre ordre.

Proposition [Link]

Soit E un ensemble fini de cardinal n, Card(SE ) = n!.

Démonstration : ll suffit de remarquer que comme E à le même cardinal que E alors une application bijective
de E dans E est la même chose qu’une application injective. D’où Card(SE ) = Ann = n! 

302
2.3 Parties à p éléments
Définition [Link]

Soit E un ensemble fini de cardinal n et p un entier naturel on note P p ( E) l’ensemble des parties de E de
cardinal p. On a
P p ( E) = { X ∈ P ( E) | Card( X ) = p}.
 
n
L’ensemble P p ( E) est fini et on note son cardinal.
p

 
p n
Notation : on trouve encore couramment la notation Cn pour .
p

Proposition [Link]

Avec les notations précédentes



   n! n(n − 1)(n − 2) · · · (n − p + 1)
n = si n > p
= p!(n − p)! p! .
p 
0 sinon

Démonstration : On pourrait dire qu’une même combinaison donne lieu à p! arrangements (les p! permutations
correspondent à toutes les manières d’ordonner les p éléments) et que de ce fait
  p
n A
= n.
p p!

Par exemple écrivons les pour p = 3 et n = 4. Cependant nous allons faire une démonstration rigoureuse. Pour
cela nous allons avoir besoin d’un lemme
Lemme [Link] (Formule de Pascal)

Pour tous entiers n et p on a      


n+1 n n
= + .
p+1 p+1 p

 
n
Démonstration du lemme : Rappelons au préalable que pour le moment ne désigne que le cardinal de
p
P p ( E). On ne connaît pas encore la formule.
Notons d’abord que si p > n alors tous les termes sont nuls. On suppose donc que p 6 n. On considère un
ensemble E à n + 1 éléments. Prenons par exemple E = [[ 1 ; n + 1 ]]. On cherche à dénombrer les partie de E de
cardinal p + 1. On sépare alors ses parties en deux.
 
n
— soit n + 1 est dedans, et il reste alors à choisir les p autres éléments parmi [[ 1 ; n ]] . Il y a donc telles
p
parties.
 
n
— soit n + 1 n’est pas dedans, et il reste alors à choisir les p + 1 éléments parmi [[ 1 ; n ]] . Il y a donc
p+1
telles parties.
     
n+1 n n
Cela forme une partition. On a donc = + . 
p+1 p+1 p
 
n
Démonstration de la proposition : On va donc montrer par récurrence que ∀n ∈ N, « ∀ p ∈ [[ 0 ; n ]] , =
p
n!
. ».
p!(n − p)!
— Initialisation : pour n = 0 on a (00) = 1. Pour n = 1 on a (10) = (11) = 1.

303
 
n n!
— Hérédité : Soit n un entier fixé. On suppose que ∀ p ∈ [[ 0 ; n ]] , = . Soit p ∈ [[ 0 ; n + 1 ]]. Si
  p p! ( n − p)!
n+1 ( n + 1) !
p = 0, =1= .
0 ( n + 1) !
Si p > 0, on utilise la formule de Pascal :
     
n+1 n n
= +
p p p−1
n! n!
= +
p!(n − p)! ( p − 1)!(n − p + 1)!
n!(n − p + 1) n!p
= +
p!(n − p + 1)! p!(n − p + 1)!
n!(n + 1)
=
p!(n − p + 1)!
( n + 1) !
=
p!(n − p + 1)!
 
n n!
Donc, par récurrence, ∀n ∈ N, ∀ p ∈ [[ 0 ; n ]] , = . 
p p!(n − p)!
Remarques :
1. La formule de Pascal permet de construire le triangle de Pascal qui permet de calculer simplement les
coefficients binomiaux.

!! p
!! 0 1 2 3 4 5 6
n !
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1

2. Pour calculer un coefficient binomial, on le simplifie. On a


 
n n! n × ( n − 1) × · · · × ( n − p + 1)
= = .
p p!(n − p)! p!
En particulier    
n n ( n − 1) n n(n − 1)(n − 2)
= et = .
2 2 3 6

Proposition [Link]

Soit n et p deux entiers :


   
p n−p
1. On a = .
n n
   
p n p−1
2. Si n et p sont supérieurs à 1, = .
n p n−1

Démonstration : Cela peut se faire par le calcul ou de manière combinatoire. 


Exemples :
1. Tirage du loto. On a une urne avec 49 boules numérotées de 1 à 49 et on en prélève simultanément 6 (sans
ordre sans remise). L’ensemble des possibilité est { A ⊂ [[ 1 ; 49 ]] | Card( A) = 6}. Il y en a
 
49 49! 49 × 48 × 47 × 46 × 45 × 44
= = = 13983816.
6 6!(43)! 6!

304
2. On dispose d’une urne avec 10 boules numérotées. On tire dedans 5 boules sans ordre et sans remise. Un
tirage peut alors être vu comme une partie à 5 éléments de l’ensemble B des boules. Il y a donc (10
5 ) tirages
possibles. Ce sont des tirages sans ordre et sans repetitions.
3. Soit E un ensemble à n éléments. On note Pk = { A ⊂ E | Card( A) = k}. On a alors
n
[
P ( E) = Pk ( E ).
k =0

C’est une partition. On en déduit que


 n
n
2 = ∑
n
.
k =0
k

4. Si on considère ( a + b)n = ( a + b) × ( a + b) × · · · × ( a + b). Pour déterminer un terme ak bn−k du déve-


loppement il suffit de choisir dans lesquels des n facteurs on prend les k termes a (les n − k autres seront
des b). Il y en aura donc (nk). On en déduit que
 n
n k n−k
( a + b) = ∑
n
a b .
k =0
k

5. Soit (n, p) ∈ N2 . On note SC( p, n) l’ensemble des applications strictement croissantes de [[ 1 ; p ]] dans
[[ 1 ; n ]] . Se donner une application croissante revient à se donner les p éléments de [[ 1 ; n ]] qui sont les les
images. On en déduit que  
n
Card(SC( p, n)) = .
p
On note de même C(p,n) les applications croissantes de [[ 1 ; p ]] dans [[ 1 ; n ]] . On peut remarquer que

Φ: C(p,n) → C(p,n+p-1)
f 7 → ( Φ ( f ) : x 7 → f ( x ) + x − 1)

On peut voir que Φ est une bijection. On en déduit que


 
n+ p−1
Card(C ( p, n)) = Card(C ( p, n + p − 1)) = .
n

305
Applications
22
linéaires
1 Applications linéaires 306
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
1.2 Applications linéaires et sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
1.3 Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
2 L’ensemble des applications linéaires 309
2.1 Structure de L ( E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
2.2 Structure de L ( E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
2.3 Ensemble GL( E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
3 Elements remarquables de L ( E) 313
3.1 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
3.2 Projecteurs et symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
4 Applications linéaires données dans une base 316
4.1 Caractérisation d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
4.2 Caractérisation des isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
4.3 Dimension de L ( E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
4.4 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
4.5 Formes linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322

Dans ce chapitre K désigne encore un corps le plus souvent égal à R ou C (voire Q).

1 Applications linéaires
1.1 Définitions
On va définir une application linéaire entre deux K-espace vectoriel comme une application qui « préserve
la structure ».

306
Définition [Link]

Soit E et F deux K-espaces vectoriels. On appelle application linéaire toute application f de E dans F telle que

∀(u, v) ∈ E2 , ∀(λ, µ) ∈ K2 , f (λu + µv) = λ f (u) + µ f (v).

Remarque : Le corps des scalaires K doit être le même pour les deux espaces vcetoriels.
Terminologie :
1. On note L ( E, F ) l’ensemble des applications linéaires de E dans F.
2. Une application linéaire de E dans E est un endomorphisme de E et on note L ( E) pour L ( E, E).
3. Une application linéaire bijective de E dans F s’appelle un isomorphisme.
4. Une application linéaire bijective de E dans lui même s’appelle un automorphisme de E. On note GL( E)
l’ensemble des automorphismes.
5. Une application linéaire de E dans K s’appelle une forme linéaire. L’ensemble des formes linéaires sur E
se note E? et s’appelle l’espace dual de E.
Remarque : On voit que si f est une application linéaire, f (0E ) = f (0.0E + 0.0E ) = 0 f (0E ) + 0 f (0E ) = 0F .
Exemples :
1. Cherchons les applications linéaires de K dans lui même. Si on note α = f (1) alors pour tout x dans K,
f ( x ) = f ( x.1) = x. f (1) = αx. On voit donc que les applications linéaires de K dans K sont les applications
linéaires....
2. Soit E et F des espaces vectoriels. L’application nulle de E dans F est linéaire.
3. Soit E un espace vectoriel. L’application identité de E dans lui même qui associe u à u est linéaire. On
l’appelle application identité. Elle se note IdE .
4. Soit E un espace vectoriel. Soit λ ∈ K. On appelle homothétie de rapport λ l’application linéaire λIdE :
u 7→ λ.u.
5. Soit f : R2 → R3 définie par f ( x, y) = ( x + 2y, x − y, 3x ). C’est une application linéaire.
6. La dérivation ∆ : K[ X ] → K[ X ] définie par ∆( P) = P0 est un endomorphisme de K[ X ]. On peut aussi
définir ∆n de Kn [ X ] dans lui même ou de Kn [ X ] dans Kn−1 [ X ].
7. Si on appelle C ∞ l’ensemble des fonctions indéfiniment dérivables. On peut définir ∆ sur C ∞ .
Z b
8. Soit E = C 0 (R, R). Pour tout ( a, b) ∈ R2 , l’application ϕ : f 7→ f est une application linéaire de E dans
a
R.
9. L’application pi de Kn dans K qui associe à ( x1 , . . . , xn ) l’élément xi est une forme linéaire. On l’appelle la
i-ème projection.
10. Soit ( x1 , . . . , xn ) ∈ Kn deux à deux distincts. L’application

K[ X ] → Kn
P 7→ ( P( x1 ), . . . , P( xn ))

est linéaire.

Théorème [Link]

Soit E et F des espaces vectoriels


1. Si f ∈ L ( E, F ) et si (u1 , . . . , un ) sont des vecteurs de E et λ1 , . . . , λn des scalaires alors,
!
n n
f ∑ λk uk = ∑ λ k f ( u k ).
k =1 k =1

2. Si ( f , g) ∈ (L ( E, F ))2 . Soit F une famille génératrice de E. Si pour tout vecteur u de F ,


f (u) = g(u) alors f = g.

Démonstration :

307
1. Par récurrence sur n.
2. Soit w dans E. Il existe (u1 , . . . , un ) des vecteurs de F et λ1 , . . . , λn des scalaires tels que
n
w= ∑ λk uk .
k =1

Dès lors
n n
f (w) = ∑ λ k f ( u k ) = ∑ λ k g ( u k ) = g ( w ).
k =1 k =1

1.2 Applications linéaires et sous-espaces vectoriels


Proposition [Link]

Soit E et F deux espaces vectoriels et f ∈ L ( E, F ).


1. Si G est un sous-espace vectoriel de E alors f ( G ) est un sous-espace vectoriel de F.
2. Si H est un sous-espace vectoriel de F alors f −1 ( H ) est un sous-espace vectoriel de E.

Démonstration

Définition [Link]

Soit E et F deux espaces vectoriels et f ∈ L ( E, F ).


1. On appelle noyau de f et on note Ker f le sous-espace vectoriel f −1 (0F ) de E. On a donc

Ker f = {u ∈ E | f (u) = 0F }.

2. On appelle image de f et on note Im f le sous-espace vectoriel f ( E). On a donc

Im f = {v ∈ F | ∃u ∈ E, v = f (u)} = { f (u) | u ∈ E}.

Exemples :
2 3
 l’application f : ( x + 2y, x − y, 3x ) de R dans R . On peut déterminer Ker f en résolvant
1. Si on considère
 x + 2y = 0
le système x − y = 0 On trouve que Ker f = {0}. Pour Im f . On voit que, par définition, Im f =

3x = 0
Vect(1, 1, 3), (2, −1, 0).
2. Pour ∆ : K[ X ] → K[ X ], on a Ker ∆ = K0 [ X ] et Im ∆ = K[ X ]. Par contre, Im ∆n = Kn−1 [ X ].

Proposition [Link]

Soit E et F deux espaces vectoriels et f ∈ L ( E, F ). On suppose que (ui )i∈ I est une famille génératrice
de E. On a alors
Im f = Vect( f (ui )i∈ I .

Proposition [Link]

Soit E et F deux espaces vectoriels et f ∈ L ( E, F ).


1. L’application f est injective si et seulement si Ker f = {0}.
2. L’application f est surjective si et seulement si Im f = F.

308
Proposition [Link]

Soit E et F deux espaces vectoriels et f ∈ L ( E, F ). On se donne v ∈ F et on veut résoudre l’équation


f (u) = v d’inconnue u.
— Si v ∈
/ Im f , l’équation n’a pas de solution.
— Si v ∈ Im f . Soit u0 une solution, l’ensemble des solutions est le sous-espace affine : u0 + Ker f =
{u0 + u | u ∈ Ker f }.

Démonstration
Exemples :
1. Si on considère E = C 2 (R, C) et D : f 7→ ay00 + by0 + cy. On trouve alors que D est linéaire et la proposition
précédente redonne la structure des solutions des équations différentielles linéaires du second ordre.
2. Si on considère ( x1 , . . . , xn ) ∈ Kn deux à deux distincts et Φ l’application
Φ: K[ X ] → Kn
P 7→ ( P( x1 ), . . . , P( xn ))
On voit alors que si on se donne Y = (y1 , . . . , yn ) ∈ Kn , on sait que le polynôme interpolateur de Lagrange
L ∈ Kn−1 [ X ] vérifie l’équation Φ( P) = Y. De ce fait, l’ensemble des solutions est L + Ker Φ. De plus,
n
Ker Φ est l’ensemble des polynômes s’annulant en tous les xi . C’est -à-dure les mulitples de ∏( X − xi ).
i =1

1.3 Composition
Proposition [Link]

Soit E, F et G trois espaces vectoriels et f ∈ L ( E, F ), g ∈ L ( F, G ) deux applications linéaires.


L’application g ◦ f est une application linéaire de E dans G.

Démonstration
Proposition [Link]

Soit E et F deux espaces vectoriels et f un isomorphisme de E dans F. L’application f −1 de F dans E


est aussi linéaire.

Démonstration : Soit v1 et v2 dans F et λ1 , λ2 dans K. On veut montrer que f −1 (λ1 v1 + λ2 v2 ) = λ1 f −1 (v1 ) +


λ2 f −1 (v2 ) = λ1 u1 + λ2 u2 où l’on note u1 = f −1 (v1 ) et u2 = f −1 (v2 ). Cela revient à montrer que λ1 u1 + λ2 u2
est un antécédent de λ1 v1 + λ2 v2 par f . Or c’est vrai car
f ( λ1 u1 + λ2 u2 ) = λ1 f ( u1 ) + λ2 f ( u2 ) = λ1 v1 + λ2 v2 .

Exemple : Calculer la bijection reciproque de f : ( x, y) 7→ (2x + y, 3x − 7y).

Corollaire [Link]

La relation « être isomorphe » vérifie les axiomes d’une relation d’équivalence.

Démonstration

2 L’ensemble des applications linéaires


Nous allons nous intéresser à la structure des ensembles L ( E, F ) et L ( E).

309
2.1 Structure de L ( E, F )
Dans ce paragraphe on se fixe E et F deux sous-espaces vectoriels

Proposition [Link]

1. Soit f et g deux éléments de L ( E, F ). L’application f + g de E dans F est linéaire.


2. Soit f un élément de L ( E, F ) et λ ∈ K. L’application λ. f est linéaire.

Démonstration

Corollaire [Link]

L’ensemble L ( E, F ) est un sous-espace vectoriel de F ( E, F ). En particulier, pour F = K, l’espace


dual E? de E est un espace vectoriel.

Exercice : Soit u ∈ E. Montrer que


θu : L ( E, F ) → F
f 7→ f (u)
est une application linéaire. C’est donc un élément de L (L ( E, F ), F ).

Proposition [Link]

Soit E, F et G des espaces vectoriels.


1. Pour tout ϕ ∈ L ( F, G ) l’application de L ( E, F ) dans L ( E, G ) définie par f 7→ ϕ ◦ f est
linéaire.
2. Pour tout ϕ ∈ L ( E, F ) l’application de L ( F, G ) dans L ( E, G ) définie par f 7→ f ◦ ϕ est
linéaire.

Démonstration

Remarque : L’application :
◦ : L ( E, F ) × L ( F, G ) → L ( E, G )
( f , g) 7→ g◦ f
est linéaire à droite (en f ) et à gauche (en g). On dit qu’elle est bilinéaire.

2.2 Structure de L ( E)
Le cas de L ( E) est un cas particulier de L ( E, F ). C’est donc aussi un espace vectoriel. Cependant L ( E) a
une autre opération interne : la composition.

Proposition [Link]

Soit E un espace vectoriel. L’ensemble (L ( E), +, ◦) est un anneau.

Démonstration :
— On sait que L ( E) est un espace vectoriel c’est donc, en particulier un groupe abélien pour +.
— La loi ◦ est une loi de composition interne de L ( E) et elle est associative.
— L’application IdE est un élément neutre pour ◦.
— Soit ( f , g, h) ∈ L ( E)3 ,
( f + g) ◦ h = f ◦ h + g ◦ h (par définition)
et
f ◦ ( g + h) = f ◦ g + f ◦ h (par linéarité).

310


ATTENTION

A priori, L ( E) n’est pas un anneau commutatif. Par exemple si f : ( x, y) 7→ (2x + 3y, x − y) et


g : ( x, y) 7→ ( x + y, y). En fait L ( E) n’est commutatif que si E est de dimension 1.

Définition [Link] (Puissances)

Comme dans tout anneau on peut définir les puissances. Pour tout f dans L ( E) et k ∈ N, on pose f k =
f ◦ f ◦ · · · ◦ f . C’est-à-dire :  0
f = IdE
f p = f ◦ f p−1 si p > 0

Exemple : Soit ∆ : R[ X ] → R[ X ]. On a pour tout polynôme P, ∆ p ( P) = P( p) la dérivée p-ième.

Proposition [Link] (Binôme de Newton)

Soit ( f , g) ∈ L ( E)2 et n ∈ N. Si f et g commutent c’est-à-dire f ◦ g = g ◦ f alors


n  
k
( f + g)n = ∑ n f k ◦ gn−k .
k =0

Définition [Link]

Soit K un corps. On appelle K-algèbre, un ensemble E muni de deux lois de compositions internes (notées +
et ×) et d’une loi de composition externe (noté .) telles que
— On a ( E, +, .) est un K-espace vectoriel.
— On a ( E, +, ×) est un anneau.
— Les deux multiplications sont compatibles : ∀(λ, µ) ∈ K2 , ∀( x, y) ∈ E2 , (λ.x ) × (µ.y) = (λµ).( x ×
y ).

Remarque : Nous demandons ici plus que la définition classique d’algèbre qui ne nécessite par que la multi-
plication soit associative ni qu’il existe un élément neutre pour la multiplication. Cependant c’est ce cadre qui
nous sera utile ici.
Remarque : On voit que K[ X ] est une K-algèbre.

Proposition [Link]

Soit E un K-espace vectoriel. L’ensemble L ( E) est muni d’une structure de K-algèbre.

Démonstration : Il suffit juste de vérifier la compatibilité des multiplications. Soit λ, µ des scalaires et f , g des
endomorphismes de E.

(λ f ) ◦ (µg) = (λµ)( f ◦ g) par linéarité.




311
Définition [Link]

n
Soit P un polynôme de K[ X ] et f ∈ L ( E). On note P = ∑ ak X k . On note alors
k =0

n
P( f ) = ∑ ak f k .
k =0

Remarque : Cette définition peut se faire dans n’importe quelle algèbre.


Exemples :
1. Soit ∆ la dérivation sur E = C ∞ (R, C). Soit P = aX 2 + bX + c un polynôme de degré 2 dans C. Alors,
P(∆) est l’application linéaire sur E qui associe à toute fonction f la fonction a f 00 + b f 0 + c f . En particulier,
Ker ( P(∆)) est l’ensemble des solutions de l’équation différentielle :

ay00 + by0 + cy = 0.

2. Soit f ∈ L ( E) et P = a un polynôme constant. L’endomorphisme P( f ) est l’homothétie [Link] .

Proposition [Link]

Soit ( P, Q) ∈ K[ X ]2 , f ∈ L ( E) et λ ∈ K. On a

( P + Q)( f ) = P( f ) + Q( f ), ( P × Q)( f ) = P( f ) ◦ Q( f ) et (λ.P)( f ) = λ.( P( f )).

On dit alors que l’application


K[ X ] → L ( E)
P 7→ P( f )
est un morphisme d’algèbre car il est compatible aux structures d’algèbre de K[ X ] et de L ( E).

n
Démonstration : Faisons le cas de ( P × Q)( f ) = P( f ) ◦ Q( f ). Si on note P = ∑ ak X k . On a donc
k =0

n
( P × Q) = ∑ a k ( X k Q ).
k =0

D’où
n
( P × Q)( f ) = ∑ ak ( f k ◦ Q( f )) = P( f ) ◦ Q( f ).
k =0


2.3 Ensemble GL( E)


Proposition [Link]

Soit f un endomorphisme de E.
f est inversible (dans l’anneau L ( E)) ⇐⇒ f est bijective.

Démonstration : Par définition. En effet


— ⇐ Si f est inversible dans L ( E), il existe g dans L ( E) tel que f ◦ g = g ◦ f = IdE C’est-à-dire que f est
bijective et g = f −1 .
— ⇒ Si f est bijective. On a vu que sa réciproque g = f −1 était aussi un endomorphisme (et même un
automorphisme). De plus ils vérifient que f ◦ g = g ◦ f = IdE .

312


Proposition [Link]

L’ensemble (GL( E), ◦) est un groupe. Son élément neutre est IdE .

Proposition [Link]

Soit f et g deux éléments de GL( E). On a ( f ◦ g)−1 = g−1 ◦ f −1 .

3 Elements remarquables de L ( E)
Dans tout ce chapitre on se fixe un espace vectoriel E.

3.1 Sous-espaces stables


Définition [Link]

Soit f ∈ L ( E) et F un sous-espace vectoriel de E. On dit que F est stable par f si f ( F ) ⊂ F c’est-à-dire :

∀u ∈ F, f (u) ∈ F.

Exemple : Soit ∆ : K[ X ] → K[ X ] l’endomorphisme de dérivation. Soit F = Kn [ X ]. Il est stable par ∆. Par contre,
G = { P ∈ K[ X ] | P(0) = 0} n’est pas stable par ∆.

Définition [Link]

Soit f ∈ L ( E) et F un sous-espace vectoriel de E stable par f . On appelle endomorphisme induit par f sur F
et on note f | F l’endomorphisme de F défini par u 7→ f (u).

Exemple : Dans l’exemple précédent, on a vu que l’on pouvait définir ∆ sur Kn [ X ].


Exercice : Montrer que si f ◦ g = g ◦ f alors Ker f est stable par g.

3.2 Projecteurs et symétries


Proposition-Définition [Link]

Soit F et G deux sous-espaces vectoriels de E tels que F ⊕ G = E. On appelle projection sur F


parallèlement à G l’unique endomorphisme p de E qui associe à un vecteur u l’unique vecteur v de
F tel que u = v + w avec w ∈ G.

Démonstration : Notons p l’application de E dans E définie comme ci-dessus. Montrons que c’est un endomor-
phisme de E. Soit λ1 , λ2 deux scalaires et u1 , u2 deux vecteurs de E. On sait que u1 et u2 s’écrivent uniquement
sous la forme
u1 = v1 + w1 et u2 = v2 + w2
où v1 , v2 sont dans F et w1 , w2 dans G. Par définition, v1 = p(u1 ) et v2 = p(u2 ). On a alors

λ 1 u 1 + λ 2 u 2 = ( λ 1 v 1 + λ 2 v 2 ) + ( λ 1 w1 + λ 2 w2 ) .

Par unicité de la décomposition, on en déduit que

p ( λ1 u1 + λ2 u2 ) = λ1 v1 + λ2 v2 = λ1 p ( u1 ) + λ2 p ( u2 ).

313

Exemples :
1. Soit E = R3 . On pose F = {( x, y, z) ∈ R3 | x + y − z = 0} et G = Vect(1, 2, 1). On trouve alors

1 1
p( x, y, z) = ( x, y, z) + (− x − y + z)(1, 2, 1) = ( x − y + z, −2x + 2z, − x − y + 3z).
2 2

2. Soit E = C 0 (R, K). Si on considère P et I l’ensemble des fonctions paires et impaires. On sait que
P ⊕ I = E. De plus, pour tout fonction f , la projection sur P parallèlement à I est p( f ) : x 7→
f ( x ) + f (− x )
.
2
3. Soit E = Kn . On note Hi = {( x1 , . . . , xn ) | xi = 0} et ∆i = Vectei . La projection sur ∆i parallèlement à Hi
est u 7→ pi (u)ei où pi est la i-ème projection.

Proposition [Link]

Soit p la projection sur F parallèlement à G.


1. On a Ker p = G.
2. On a Im p = F
3. Pour tout vecteur u de E, p(u) = u ⇐⇒ u ∈ F. En particulier, F = Ker ( p − IdE ).

Démonstration

Remarque : On a donc que F et G sont stables par p et p F = IdF et pG = 0L (G) .

Définition [Link]

On appelle projecteur de E toute projection sur un espace vectoriel F de E parallèlement à un supplémentaire


de F.

Proposition [Link]

Soit p ∈ L ( E). L’endomorphisme p est un projecteur si et seulement si p2 = p ◦ p = p.

Remarques :
1. On trouve cette caractérisation comme définition d’un projecteur.
2. On dit que p est un idempotent de L ( E).
3. On en déduit par une récurrence immédiate que pour tout entier k non nul, pk = p.
Démonstration :
— ⇒ Soit p une projection sur un sous-espace vectoriel F. Pour tout vecteur u de E, p(u) ∈ F. On en déduit
que p2 (u) = p( p(u)) = p(u) car on a vu qu’un projection sur F laissait invariant les éléments de F.
— ⇐ Soit p un endomorphisme vérifiant p2 = p. C’est plus délicat car il faut « trouver » les sous-espaces
vectoriels F et G. On pose F = Imp et G = Ker p. Montrons que F et G sont supplémentaires.
— Soit u ∈ F ∩ G. On sait que u ∈ Im p. Il existe donc v tel que u = p(v). D’où p(u) = p( p(v)) =
p(v) = u. Or u ∈ Ker p donc p(u) = 0 et u = 0.
— Soit u ∈ E. On remarque que u = p(u) + (u − p(u)). Or p(u) ∈ F et u − p(u) ∈ G car p(u − p(u)) =
p(u) − p2 (u) = 0.
Maintenant, Tout vecteur u de E s’écrit v + w avec v ∈ F et w ∈ G. On a alors

p(u) = p(v + w) = p(v) + p(w) = v.

314
Proposition-Définition [Link]

Soit F et G deux sous-espaces vectoriels de E tels que F ⊕ G = E. On appelle symétrie par rapport F
parallèlement à G l’unique endomorphisme s de E qui associe à un vecteur u le vecteur u − w où
u = v + w avec v ∈ F et w ∈ G. En particulier s = 2p − IdE où p est la projection sur F parallèlement
à G.

Démonstration : Soit u un vecteur de E. On note u = v + w avec v ∈ F et w ∈ G. On a alors p(u) = v et


(2p − IdE )(u) = 2v − (u + w) = u − w. On a donc bien s = 2p − IdE . C’est donc une application linéaire. 
1
Remarque : On a aussi comme relation p = (s + IdE ).
2
Exemples :
1. Soit E = R3 . On pose F = {( x, y, z) ∈ R3 | x + y − z = 0} et G = Vect(1, 2, 1). On trouve alors

s( x, y, z) = ( x, y, z) + (− x − y + z)(1, 2, 1) = (−y + z, − x − y + 3z, − x − y + 2z).

2. Soit E = C 0 (R, K). Si on considère P et I l’ensemble des fonctions paires et impaires. On sait que
P ⊕ I = E. De plus, pour tout fonction f , la symétrie par rapport à P parallèlement à I est s( f ) : x 7→
f (− x ).

Proposition [Link]

Soit s la symétrie parallèlement à F parallèlement à G.


1. On a Ker s = {0} et Im s = E. En particulier s est un automorphisme.
2. On a Ker (s − IdE ) = F.
3. On a Ker (s + IdE ) = G
4. Pour tout vecteur u de E, s(u) = u ⇐⇒ u ∈ F. De même, s(u) = −u ⇐⇒ u ∈ G.

Démonstration

Remarque : On voit alors que F et G sont stables par s et que s| F = IdF et s|G = −IdG .

Définition [Link]

On appelle symétrie de E toute symétrie par rapport à un espace vectoriel F de E parallèlement à un supplé-
mentaire de F.

Proposition [Link]

Soit s ∈ L ( E). L’endomorphisme s est une symétrie si et seulement si s2 = s ◦ s = IdE . En particulier,


s−1 = s.

Remarques :
1. On trouve cette caractérisation comme définition d’une symétrie.
2. On dit que s est un élément involutif de L ( E).
Démonstration :
— ⇒ Soit s une symétrie par rapport à sous-espace vectoriel F. Pour tout vecteur u de E, on pose u = v + w
avec v ∈ F et w ∈ G. On a alors :

s(s(u)) = s(s(v + w)) = s(v − w) = v + w = u.

315
1
— ⇐ Il suffit de poser p = (s + IdE ). On a alors
2
1 2 1
p2 = (s + 2s + IdE ) = (s + IdE ) = p.
4 2
On en déduit que p est un projecteur sur F (avec F = Ker ( p − IdE ) = Ker (s − IdE )) parallèlement à G
(avec G = Ker p = Ker (s + IdE )).Comme maintenant on a s = 2p − IdE on en déduit bien que s est la
symétrie par rapport à F et parallèlement à G.


4 Applications linéaires données dans une base


On se fixe E un espace vectoriel. Nous allons commencer par quelques résultats généraux puis étudier le cas
particulier des espaces vectoriels de dimension finie.

4.1 Caractérisation d’une application linéaire


On a déjà vu que deux applications linéaires qui coïncidaient sur une famille génératrice étaient égales.
On va donc pouvoir restreindre la définition d’une application linéaire f aux images par f des vecteurs d’une
famille génératrice. Cependant, si cette famille n’est pas libre, on ne peut pas définir n’importe comment les
images. En effet supposons que les vecteurs de la famille génératrice satisfont une relation de dépendance
linéaire (∑ λi ui = 0) alors, par linéarité leurs images aussi (∑ λi f (ui ) = 0). On va donc avoir recours à des
bases.
Proposition [Link]

Soit (ui )i∈ I une base de E. Soit (vi )i∈ I une famille d’un espace vectoriel F. Il existe une unique
application linéaire f de E dans F telle que

∀i ∈ I, f (ui ) = vi .

Remarque : On ne fait aucunes hypothèses sur la famille (vi ).


Démonstration :
— L’unicité à déjà été traitée.
— Via un raisonnement analyse-synthèse, on voit que nécessairement, si u = ∑ λi ui où (λi )i∈ I est une
i∈ I
famille presque nulle alors f (u) = ∑ λi f ( ui ) = ∑ λi vi .
i∈ I i∈ I
On pose donc f de E dans F définie de la sorte. Il est alors évident que pour tout i, f (ui ) = vi . Il reste à
vérifier qu’elle est linéaire. Soit (u, u0 ) deux vecteurs de E et α, β deux scalaires. Si on note

u= ∑ λi ui et u0 = ∑ λi0 ui
i∈ I i∈ I

alors
αu + βu0 = ∑(αλi + βλi0 )ui .
i∈ I

On en déduit
!
0
f (αu + βu ) = f ∑(αλi + βλi0 )ui
i∈ I
= ∑(αλi + βλi0 )vi
i∈ I
! !
n
= α ∑ λi vi +β ∑ λi0 vi
i∈ I i =1
= α f ( u ) + β f ( u 0 ).

Exemples :

316
1. On peut définir une application linéaire de R3 dans R2 en demandant que f (1, 0, 0) = (2, 8), f (0, 1, 0) =
(−4, 0) et f (0, 0, 1) = (−1, 1). Dans ce cas,

f : ( x, y, z) 7→ x (2, 8) + y(−4, 0) + z(−1, 1) = (2x − 4y − z, 8x + z).

2. Il existe une unique application linéaire de R2 dans R2 telle que f (1, 1) = (−4, 1) et f (1, −1) = (2, 0).

Corollaire [Link]

Soit n et p deux entiers. Un application linéaire f de Kn dans K p est de la forme :

f : ( x1 , . . . , xn ) 7→ ( a11 x1 + · · · + a1n xn , . . . , a p1 x1 + · · · + anp xn )


f (e1 ) = f (1, 0, . . . , 0) = ( a11 , . . . , a p1 ), . . . , f (en ) = f (0, 0, . . . , 0, 1) = ( a1n , . . . , anp ).

Remarque : On reverra cela dans le chapitre sur les matrices.

Proposition [Link]
Lp
On se donne E1 , . . . E p des sous-espaces vectoriels de E tels que E = i∈1 Ei ainsi que pour tout
i ∈ [[ 1 ; p ]] une application ui ∈ L ( Ei , F ). Il existe une unique application linéaire u de E dans F
telle que
∀i ∈ [[ 1 ; p ]] , u|Ei = ui .

Remarque : C’est une généralisation du cas précédent. Ce dernier étant obtenu en prenant Ei = Vectui . La
démonstration est analogue.

4.2 Caractérisation des isomorphismes


ATTENTION

Afin de ne pas avoir de problèmes sur les existences de bases ou de supplémentaires, on se place
désormais dans le cadre des espaces vectoriels de dimension finie.

Proposition [Link]

Soit f ∈ L ( E, F ) on a équivalence entre les assertions suivantes.


i.) l’image d’une base est une famille libre.
ii.) l’image de toute base est une famille libre.
iii.) l’application f est injective.

Démonstration :
— ii.) ⇒ i.) est evident.
— i.) ⇒ iii.). Soit (ui ) une base de f telle que ( f (ui )) est une famille libre. On veut montrer que f est injective.
On calcule donc Ker f . Soit w = ∑ λi ui . On suppose que f (w) = 0 ce qui donne ∑ λi f (ui ) = 0. Or la
i
famille est libre d’où ∀i ∈ [[ 1 ; n ]] , λi = 0. On a bien w = 0.
— iii.) ⇒ ii.) On suppose que f est injective et que (ui ) est une base de E. On!veut montrer que ( f (ui ))

est libre. Soit λi tels que ∑ λi f (ui ) = 0. On a donc, par linéarité, f ∑ λi ui = 0. L’application étant
i i
injective, ∑ λi ui = 0. On conclut en utilisant que la famille (ui ) est libre car c’est une base de E.
i

317

On a les propriétés analogues

Proposition [Link]

Soit f ∈ L ( E, F ) on a équivalence entre les assertions suivantes.


i.) l’image d’une base est une famille génératrice.
ii.) l’image de toute base est une famille génératrice.
iii.) l’application f est surjective.

Démonstration : En exercice 

Proposition [Link]

Soit f ∈ L ( E, F ) on a équivalence entre les assertions suivantes.


i.) l’image d’une base est une base.
ii.) l’image de toute base est une base.
iii.) l’application f est un isomorphisme.

Corollaire [Link]

Soit E et F deux espaces vectoriels de dimension finie. Ils sont isomorphes si et seulement s’ils ont la
même dimension. En particulier, tout K espace vectoriel de dimension n est isomorphe à Kn .

Exemple : L’espace vectoriel Kn [ X ] est isomorphe à Kn+1 . Un isomorphisme est donné par

ϕ : X k 7 → e k +1 .

4.3 Dimension de L ( E, F )
On a vu que L ( E, F ) était un espace vectoriel. On va montrer que si E et F sont de dimension finie alors
L ( E, F ) aussi. On va commencer par le cas ou F = K c’est-à-dire, le cas de l’espace dual E? de E.

Définition [Link]

Soit E un espace vectoriel de dimension finie et (ui )16i6n une base de E. On définit des formes linéaires f i par

∀(i, j) ∈ [[ 1 ; n ]]2 , f i (e j ) = δij .

On les appelle les formes coordonnées relativement à la base (ui )16i6n .

Notation : On note aussi ui∗ la forme linéaire f i

Proposition [Link]

n
Avec les notations précédentes, pour tout vecteur w = ∑ λi ui , on a
i =1

∀i ∈ [[ 1 ; n ]] , ui∗ (w) = λi

318
Remarque : La forme linéaire ui∗ donne donc la coordonnées selon le vecteur ui de la décomposition d’un
vecteur dans la base.
Exemples :
1. Soit E = Kn . On considère la base canonique (e1 , . . . , en ). On a

ei? : ( x1 , . . . , xn ) 7→ xi .

C’est la i-ème projection.


1
2. Soit E = Kn [ X ]. On considère la base canonique (1, X, . . . , X n ). On a alors f i : P 7→ P(i )(0).
i!

Proposition [Link]

Avec les notations précédentes les (ui∗ )16i6n forment une base de E? . En particulier, dim E? = dim E.

Démonstration

Définition [Link]

Avec les notations précédentes, la base (ui∗ ) s’appelle la base duale de la base (ui ).

Proposition [Link]

Soit E un espace vectoriel de dimension n et F un espace vectoriel de dimension p.


1. Si (ui ) et (v j ) sont des bases de E et F. On définit les applications linéaires f ij par

∀k ∈ [[ 1 ; n ]] f ij (uk ) = δik v j .

La famille ( f ij est une base de L ( E, F ).


2. La dimension de E × F est dim( E) × dim( F ).

Démonstration

4.4 Théorème du rang


Définition [Link]

Soit f une application linéaire de E dans F. On appelle rang de f et on note rg ( f ) la dimension de Im f .

Remarque : On voit donc que si (u1 , . . . , un ) est une base de E (ou une famille génératrice),

rg ( f ) = dim(Vect( f (u1 ), . . . , f (un ))) = rg ( f (u1 ), . . . , f (un )).

Proposition [Link]

Soit f une application linéaire de E dans F.


1. On a rg ( f ) 6 dim F. Il y a égalité si et seulement si f est surjective.
2. On a rg ( f ) 6 dim E. Il y a égalité si et seulement si f est injective.

Démonstration :
1. On sait que Im f est un sev de F. D’où rg ( f ) = dim Im f 6 dim F. De plus,

319
f surjective ⇐⇒ Im f = F ⇐⇒ rg ( f ) = dim Im f | = dim F.

2. On sait que si (u1 , . . . , un ) est une base de E alors Im f = Vect( f (u1 ), . . . , f (un )). On en déduit que Im f a
une famille génératrice avec n vecteurs donc sa dimension, qui est le rang de f , est inférieure à n = dim E.
De plus

f injective ⇐⇒ ( f (u1 ), . . . , f (un )) est libre ⇐⇒ rg ( f ) = dim Im f = n = dim E.

Théorème [Link] (Théorème du rang)

Soit f une application linéaire de E dans F. Soit S un supplémentaire de Ker f , l’application f induit
un isomorphisme de S sur Im f . En particulier,

rg ( f ) = dim E − dim Ker f .

Remarques :
1. Il faut savoir écrire et reconnaitre la formule sous toutes ses formes. Par exemple, dim Ker f + dim Im f =
dim E.
2. La première partie du théorème se généralise au cas où les espaces vectoriels ne sont pas de dimension
finie.

ATTENTION

Même dans le cas d’un endomorphisme, on n’a pas toujours que Ker f ⊕ Im f = E car, à priori,
Ker f ∩ Im f n’est pas réduit à {0}.

Démonstration : Soit S un supplémentaire de Ker f et f˜ l’application induite par f sur S à valeurs dans Im f .
— Soit u ∈ Ker f˜. On a donc u ∈ S et de plus f˜(u) = f (u) = 0. Donc u ∈ Ker f . D’où u = {0} car
S ∩ Ker f = {0}. L’application f˜ est injective.
— Soit v ∈ Im f . Il existe, par définition u dans E tel que f (u) = v. On décompose u = u1 + u2 avec u1 ∈ Ker f
et u2 ∈ S. On a alors f (u2 ) = v et donc v ∈ Im f˜. Donc f˜ est surjective.
On a bien f˜ qui est bijective. De ce fait, rg f = dim Im f = dim S = dim E − dim Ker f . 
Exemples :
1. Soit ∆ : Kn [ X ] → Kn [ X ] la dérivation. On sait que Ker ∆ = K0 [ X ] et S = { P ∈ Kn [ X ] | P(1) = 0} est un
supplémentaire. De plus Im f = Kn−1 [ X ] d’où

e : S → Kn [ X ]
∆ 1

X k +1 − 1
est un isomorphisme. Sa réciproque et l’unique primitive qui s’annule en 1 définie par X k 7→ .
( k + 1) !
2. On a vu quand on a résolu l’équation différentielle linéaire

ay00 + by0 + cy = emt

quelle forme on pouvait prendre prendre pour la solution particulière. On peut justifier ce résultat ici. On
suppose que m est racine simple de aX 2 + bX + c. On pose

En = {t 7→ P(t)emt | P ∈ Cn [ X ]}.

Ce sont des sevs de F (R, C).


On considère alors
δn : En → En
f 7→ a f 00 + b f 0 + c f .
C’est clairement une application linéaire de En dans lui même. On pose f k : t 7→ tk emt de telle sorte que
En = Vect( f k )06k6n .

320
On a f k0 = k f k−1 + m f k et f k00 = k(k − 1) f k−2 + 2mk f k−1 + m2 f k . On en déduit que

δ( f k ) = ( am2 + bm + c) f k + k(2am + b) f k−1 + k(k − 1) a f k−2 = k(2am + b) f k−1 + k(k − 1) a f k−2

On sait que Ker δ = E0 ce que l’on retrouve car δ( f 0 ) = 0. Donc rg δn = (n + 1) − 1 = n.


On voit alors que δn ( En ) ⊂ En−1 donc Im δn = En−1 par les dimensions.
On voit donc que l’on peut trouver ici une solution dans E1 .

Corollaire [Link]

Soit f une application linéaire de E dans F avec dim E = dim F. Les assertions suivantes sont
équivalentes.
i.) L’application f est injective.
ii.) L’application f est surjective.
iii.) L’application f est bijective.

Remarques :
1. Cela s’applique en particulier au cas des endomorphismes.
2. Dans la pratique pour montrer qu’une application linéaire est bijective on montre souvent qu’elle est
injective quand on sait que dim E = dim F.

Corollaire [Link]

Soit f un endormorphisme de E. S’il existe g tel que f ◦ g = IdE (ou g ◦ f = IdE ) alors f est un
automorphisme.

Démonstration : Il suffit de voir que

(∃ g ∈ L ( E), f ◦ g = IdE ) ⇒ f est surjective

et que
(∃ g ∈ L ( E), g ◦ f = IdE ) ⇒ f est injective


Proposition [Link]

Soit f et g des applications linéaires de L ( E, F ) et L ( F, G ).


1. Si f est un isomorphisme, rg g ◦ f = rg g.
2. Si g est un isomorphisme, rg g ◦ f = rg f .

Remarque : Cela signifie que l’on ne modifie pas le rang d’une application linéaire en composant à droite ou à
gauche par un isomorphisme.
Démonstration : Étudions Im ( g ◦ f ).

Im ( g ◦ f ) = { g( f (u)) | u ∈ E} = g(Im f ).

1. Si f est un isomorphisme (seul surjectif sert) Im f = F et donc Im ( g ◦ f ) = g( F ) = Im g.


2. Si g est un isomorphisme (seul injectif sert). La restriction de g à Im f et à valeurs dans g(Im f ) est un
isomorphisme (car injectif et surjectif) donc

rg f = dim Im f = dim g(Im f ) = rg ( g ◦ f ).

321
4.5 Formes linéaires et hyperplans
On se donne E un espace vectoriel.

Définition [Link]

Un hyperplan de E est le noyau d’une forme linéaire non nulle.

Proposition [Link]

Si E est de dimension finie avec dim E = n. Les hyperplans sont les espaces vectoriels de dimension
n − 1.

Démonstration :
— Si H est un hyperplan et f une forme linéaire telle que H = ker f , le théorème du rang nous dit que
dim H = n − 1 car rg ( f ) = 1.
— Soit H un sous-espace vectoriel de dimension n − 1. On considère une base (u1 , . . . , un−1 ) de H. On peut
la compléter en une base (u1 , . . . , un−1 , un ) de E. Il suffit de prendre f = u∗n la forme coordonnée.


Proposition [Link]

Soit H un hyperplan et D une droite qui n’est pas contenue dans H. On a H ⊕ D = E.

Démonstration : Soit a un vecteur non nul de D. On a D = Vect( a). Comme D n’est pas contenue dans H
alors H ∩ D = {0}. On en déduit que H et D sont en somme directe. Soit f maintenant une forme linéaire qui
définie H. On a f ( a) 6= 0 et, quitte à diviser par f ( a) on peut supposer que f ( a) = 1. Dès lors, pour tout vecteur
x de E
x = f (x)a + x − f (x)a
où f ( x ) a ∈ D et x − f ( x ) a ∈ H. 

Proposition [Link]

Soit f et g deux formes linéaires.

Ker f = Ker g ⇐⇒ ∃λ ∈ K, f = λg.

Démonstration :
— ⇐ Evident.
— ⇒ Soit D = Vect(u) un supplémentaire de H. On a f (u) et g(u) qui sont non nuls donc il existe λ tel
que f (u) = λg(u). Maintenant tout vecteur w s’écrit w1 + αu où w1 ∈ H. Il suffit alors de faire le calcul.

Remarque : Cela revient à dire que deux équation d’un même hyperplan sont les mêmes à une constante
multiplicative près.

ATTENTION

On se place maintenant dans le cadre où E est de dimension finie égale à n.

322
Corollaire [Link]

Soit B = (u1 , . . . , un ) une base de E et H un hyperplan de E. Il existe des scalaires (λ1 , . . . , λn )


tels que pour tout vecteur u de coordonnées ( x1 , . . . , xn ) dans B, le vecteur u appartient à H si et
seulement si ∑ λi xi = 0.
i

Démonstration : Il suffit de prendre une forme linéaire f admettant H pour hyperplan et de poser λi = f (ui ).

Exemple : Soit E = Kn [ X ] et H = { P ∈ E | P(0) = P(2)}. On voit que H est un hyperplan de E car c’est le
noyau de la forme linéaire f : P 7→ P(2) − P(0). Dans la base canonique, on a f ( X k ) = 2k . D’où

H = {∑ ak X k | ∑ 2k a k = 0 } .
k k

Proposition [Link]

1. Soit H1 , . . . , Hm des hyperplans, dim( H1 ∩ · · · ∩ Hm ) > n − m.


2. Pour tout m ∈ [[ 0 ; n ]] et tout sous-espace vectoriel F de dimension n − m il existe des hyper-
plans H1 , . . . , Hm tels que
m
\
F= Hi .
i =1

Remarque : cela signifie qu’un sous-espace vectoriel de dimension n − m (c’est-à-dire de codimension m)


peut-être défini par m équations.
Démonstration :
1. Il suffit d’utiliser la formule de Grassmann. En effet si F est un espace vectoriel et H un hyperplan on a
dim( F + H ) = dim F + dim H − dim( F ∩ H ). On en déduit que
dim F + dim H − dim( F ∩ H ) 6 n ⇐⇒ dim F + (n − 1) − dim( F ∩ H ) 6 n
⇐⇒ dim F − 1 6 dim( F ∩ H )
Il suffit donc de réitérer cela :

dim H1 > n − 1 ⇒ dim( H1 ∩ H2 ) > n − 2 ⇒ · · · ⇒ dim( H1 ∩ · · · ∩ Hm ) > n − m.

2. On pose p = n − m et on considère une base (u1 , . . . , u p ) une base de F. On sait que cette base se complète
en une base de E et on note (u1 , . . . , u p , u p+1 , . . . , un ) la base obtenue. Si on considère les m formes linéaires
u∗p+1 , . . . , u∗n on peut alors définir F dans E par

F = {w ∈ E | ∀i ∈ [[ p + 1 ; n ]] ui∗ (w) = 0}

De sorte que si on note Hi = Ker ui∗ on a


n
\
F= Hi .
i = p +1

Remarque : On peut aussi faire une récurrence sur m.

323
Intégration et
23
formules de Taylor
1 Continuité uniforme 325
1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
1.2 Fonction lipshitzienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
1.3 Théorème de Heine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
2 Fonctions en escalier et fonctions continues par morceaux 326
2.1 Subdivisions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
2.2 Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
2.3 Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
3 Construction de l’intégrale 329
3.1 Intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
3.2 Propriétés de l’intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
3.3 Intégrales des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
4 Propriétés de l’intégrale des fonctions continues par morceaux 332
4.1 Linéarité et relation de Chasles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
4.2 Positivité et corrollaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
4.3 Cas des fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
4.4 Invariance par translation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
5 Sommes de Riemann et méthodes des trapèzes 336
5.1 Somme de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
5.2 Méthode des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
6 Primitives 338
6.1 Généralisation de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
6.2 Cas des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
6.3 Cas des fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
7 Calculs 340
7.1 Primitives de fonctions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
7.2 Primitives se ramenant à une primitive de fraction rationnelle . . . . . . . . . . . . . . . . . . . 342
8 Formules de Taylor 344
8.1 Formule de Taylor avec reste intégral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
8.2 Inégalité de Taylor-Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345

324
8.3 Formule de Taylor-Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
9 Extension au fonctions à valeurs complexes 347
9.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
9.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347

Nous allons définir l’intégrale des fonctions. L’intuition principale est de dire que si f est une fonction
Rb
continue positive sur [ a, b] alors a f sera l’aire du domaine défini par {( x, y) ∈ R2 | x ∈ [ a, b], 0 6 y 6 f ( x )}.
Nous allons commencer par étudier le cas en escaliers qui sont constantes par morceaux et dont l’intégrale sera
donc « une somme d’aire de rectangles ».

1 Continuité uniforme
1.1 Definition
Définition [Link]

Soit I un intervalle et f une fonction définie sur I. On dit que f est uniformément continue si

∀ε > 0, ∃η > 0, ∀( x, y) ∈ I 2 , | x − y| 6 η ⇒ | f ( x ) − f (y)| 6 ε.

Proposition [Link]

Une fonction uniformément continue est continue.

Démonstration : Soit x dans I. On veut montrer que f est continue en x. C’est vrai car pour tout ε > 0 on peut
prendre le η de la définition de l’uniforme continuité.

Remarque : On voit que l’uniforme continuité est « plus forte ». En effet, dans ce cas le η ne dépend que de ε et
plus de x.
Exemples :
1. Soit f : x 7→ x2 définie sur I = [0, 1]. Elle est uniformément continue. En effet ∀( x, y) ∈ I 2 , | x2 − y2 | =
| x − y|| x + y| 6 2| x − y|. Donc pour tout ε > 0 il suffit de choisir η = ε/2.
2. Soit g : x 7→ x2 définie sur R. Elle n’est plus uniformément continue. Montrons le. Il faut montrer que

∃ε > 0, ∀η > 0, ∃( x, y) ∈ I 2 , | x − y| 6 η et | f ( x ) − f (y)| > ε.

On peut prendre ε = 1. Ensuite pour tout η on cherche x et y tels que | x − y| 6 η et | x − y|| x + y| > 1. Il
suffit de prendre x > 1/η et y = x + η.

1.2 Fonction lipshitzienne


Définition [Link]

Soit f une fonction définie sur un intervalle I. On dit que f est lipschitzienne s’il existe un réel strictement
positif k tel que
∀( x, y) ∈ I 2 , | f ( x ) − f (y)| 6 k| x − y|.
On dit alors que f est k-lipschitzienne.

Exemples :
1. On a vu que la fonction x 7→ x2 sur [0, 1] était lipschitzienne. Par contre ce n’est plus vrai sur R.

325
2. La fonction sin est 1-lipschitzienne. En effet pour tout x, y dans R2
     
x−y x+y x−y
| sin( x ) − sin(y)| = 2 sin cos 6 2 sin 6 | x − y |.
2 2 2

Proposition [Link]

Une application lipschitzienne est uniformément continue (et donc continue)

Remarque
√ : Il existe des fonctions uniformément continue mais qui ne sont pas lipschitzienne. Par exemple
x 7→ x. Elle n’est pas lispchtzienne car
√ √
x− y 1
= √ √
x−y x+ y
Donc si x et y sont très proches de 0, ce rapport est aussi grand que l’on veut. √ √ √
Cependant elle est uniformément continue en effet si on remarque que pour tout x > y, x − y 6 y − x.
√ √ √
Cela se prouve en étudiant sur [y, +∞[ la fonction x 7→ y − x + y − x. On a donc Dès lors pour tout ε > 0
on peut prendre η = ε2 .
En conclusion

{Lipschitzienne} ⊂ {Uniformément continue} ⊂ {Continue}


et toutes les inclusions sont strictes.

1.3 Théorème de Heine


Proposition [Link]

Soit f une fonction continue sur un segment. Elle est uniformément continue.

Démonstration : On procède par l’absurde. Soit f une fonction continue sur un segment I. On suppose qu’elle
n’est pas uniformément continue :

∃ε > 0, ∀η > 0, ∃( x, y) ∈ I 2 , | x − y| 6 η et | f ( x ) − f (y)| > ε.


On choisit donc un ε qui convient. Pour cet ε, pour tout entier n non nul, en posant η = 1/n, on trouve xn et yn
dans I tels que
1
| xn − yn | 6 et | f ( xn ) − f (yn )| > ε.
n
Maintenant la suite ( xn ) est une suite bornée (car composée d’éléments de I). On peut extraire une sous-suite
convergente ( x ϕ(n) ). Dès lors comme pour tout entier n

1 1
x ϕ(n) − 6 y ϕ(n) 6 x ϕ(n) + .
n n
La suite (y ϕ(n) ) converge vers la même limite c. Par continuité de f , les suites ( f ( x ϕ(n) )) et ( f (y ϕ(n) )) convergent
toutes les deux vars f (c) ce qui contredit que pour tout entier n, | f ( xn ) − f (yn )| > ε. 

2 Fonctions en escalier et fonctions continues par morceaux


2.1 Subdivisions
Définition [Link]

On appelle subdivision σ de [ a, b] la donnée d’une famille de réels σ = (ti )06i6n où :

a = t0 < t1 < · · · < tn−1 < tn = b.

326
Exemple : Pour tout intervalle [ a, b] non réduit à un point et n ∈ N? . Il existe une subdivision régulière obtenue
en « coupant »l’intervalle [ a, b] en n sous-intervalles de même longueur. Elle est obtenue en posant

b−a
∀i ∈ [[ 0 ; n ]] , ti = a + i × .
n

Définition [Link]

Soit σ = (ti )16i6n une subdivision de [ a, b]. On appelle pas de σ le plus grand écart entre deux éléments
consécutifs de σ, c’est-à-dire Max (ti+1 − ti ).
i ∈[[ 0 ; n−1 ]]

Définition [Link]

Soit σ et σ0 deux subdivisions de [ a, b]. La subdivision σ est dite plus fine que σ0 si tous les éléments de σ0
sont des éléments de σ. On note alors σ ≺ σ0 .

Remarque : C’est en fait la relation d’ordre d’inclusion sur les parties finies de [ a, b].

Lemme [Link]

Soit σ et σ0 deux subdivisions de [ a, b]. Il existe une subdivision σ00 qui soit plus fine que les deux
subdivisions.

2.2 Fonctions en escalier


Définition [Link]

Une fonction ϕ définie sur [ a, b] est dite en escalier, s’il existe une subdivision σ = (ti )06i6n telle que ϕ soit
constante sur tous les intervalles ]ti , ti+1 [ pour 0 6 i 6 n − 1. Toute subdivision vérifiant la propriété est dite
adaptée à ϕ. On notera E ([ a, b]) l’ensemble des fonctions en escaliers sur [ a, b].

Remarque : On n’impose rien sur les valeurs de ϕ aux points de la subdivision.


Exemples :
1. Sur [0, 1] la fonction définie par


 1 si x = 0

3 si 0 < x 6 1/3
ϕ : x 7→

 −1 si 1/3 < x < 2/3

1 si 2/3 6 x

C’est une fonction en escalier et la subdivision (0, 1/3, 2/3, 1) est adaptée à ϕ.
2. Soit [ a, b] un segment, la fonction partie entière est une fonction en escalier sur [ a, b].

Lemme [Link]

1. Soit ϕ une fonction en escalier sur [ a, b] et σ une subdivision adaptée à ϕ. Toute subdivision
plus fine que σ est adaptée à ϕ.
2. Soit ϕ et ϕ0 deux fonctions en escalier. Il existe une subdivision qui soit adaptée aux deux
fonctions.

327
Théorème [Link]

L’ensemble E ([ a, b]) est un sous-espace vectoriel de F ([ a, b], R).

Démonstration :
— La fonction nulle est en escalier.
— Soit ϕ et ϕ0 deux fonctions en escalier. On considère une subdivision adaptée au deux pour prouver que
λϕ + µϕ0 est en escalier.


2.3 Fonctions continues par morceaux


Pour définir l’intégrale, on peut se restreindre au cas de fonctions continues mais, il n’est pas beaucoup plus
difficile de travailler avec une classe de fonctions un peu plus grande : l’ensemble des fonctions continues par
morceaux.

Définition [Link]

Soit f une fonction définie sur [ a, b]. On dit que f est continue par morceaux s’il existe une subdivision
σ = (ti )06i6n telle que la restriction de f a ]ti , ti+1 [ soit continue et admette des limites finies en ti et ti+1 .
Toute subdivision vérifiant la propriété est dite adaptée à f . On notera C M ([ a, b]) l’ensemble des fonctions en
escaliers sur [ a, b].

Remarque : Là encore, les valeurs aux points de la subdivision sont arbitraires.


Exemples :
1. Faire un exemple
2. La fonction définie sur [−1, 1] par 
1/x si x 6= 0
x 7→
0 si x = 0.
Elle n’est pas continue par morceaux car elle n’a pas de limite finie en 0+ et 0− .
3. La fonction χQ n’est pas continue par morceaux.
4. les fonctions en escalier sont continues par morceaux
5. Les fonctions continues sont continues par morceaux.

Lemme [Link]

1. Soit f une fonction continue par morceau sur [ a, b] et σ une subdivision adaptée à f . Toute
subdivision plus fin que σ est adaptée à f .
2. Soit f et g deux fonctions en escalier. Il existe une subdivision qui soit adaptée aux deux
fonctions.

Démonstration : Comme ci-dessus. 

Théorème [Link]

L’ensemble C M ([ a, b]) est un sous-espace vectoriel de F ([ a, b], R). Il est stable par produit.

Proposition [Link]

Toute fonction continue par morceau est bornée.

328
Démonstration : Soit f une fonction continue par morceaux et σ = (ti )16i6n une subdivision adaptée à f .
Alors la restriction f i de f à ]ti , ti+1 [ est prolongeante en une fonction continue f˜i sur [ xi , xi+1 ]. Comme c’est un
segment, la fonction | f˜i | est bornée par Mi . On a donc
sup | f (t)| 6 sup | f˜(t)| = Mi .
t∈]ti ,ti+1 [ t∈[ti ,ti+1 ]

On en déduit que | f (t)| est majorée sur [ a, b] par Max( M0 , . . . , Mn−1 , | f (t0 )|, . . . , | f ( xn )|). 
On peut « approcher »une fonction continue par morceaux par une fonction en escalier.

Théorème [Link]

Soit f une fonction continue par morceaux sur [ a, b]. Pour tout réel strictement positif ε, il existe des
fonctions en escaliers ϕ et ψ telles que

ϕ 6 f 6 ψ et 0 6 ψ − ϕ 6 ε.

En particulier | f − ϕ| 6 ε et | f − ψ| 6 ε.

Commençons par un lemme.

Lemme [Link]

Soit f une fonction continue sur un segment et ε un réel strictement positif, il existe des fonctions en
escaliers ϕ et ψ telles que
ϕ 6 f 6 ψ et 0 6 ψ − ϕ 6 ε.

Démonstration du lemme : La fonction f est continue sur un segment. Elle est donc uniformément continue
d’après le théorème de Heine. De ce fait, il existe η tel que
∀( x, y) ∈ [ a, b], | x − y| 6 η ⇒ | f ( x ) − f (y)| 6 ε.
On considère donc une subdivision σ = (ti ) dont le pas est inférieur à η. On peut prendre la subdivision
|b − a|
régulière en prenant n tel que 6 η. Dès lors, pour tout i dans [[ 0 ; n ]], on pose
n
∀t ∈]ti , ti+1 [, ϕ(t) = Min f ( x ) = f (αi ) et ψ(t) = Max f ( x ) = f ( β i ).
x ∈[ xi ,xi+1 ] x ∈[ xi ,xi+1 ]

On a alors, pour tout t dans ]ti , ti+1 [, ϕ(t) 6 f (t)ψ(t) et ψ(t) − ϕ(t) = f ( β i ) − f (αi ) 6 ε car | β i − αi | 6
|ti+1 − ti | 6 η. Il ne reste plus qu’à poser, ∀i ∈ [[ 0 ; n ]] , ϕ(ti ) = ψ(ti ) = f (ti ). 
Démonstration du théorème : On considère σ = (ti )06i6n une subdivision adaptée à f . On va construire
ϕ et ψ en se basant sur cette subdivision. En suite, comme précédemment, pour tout i < n, on prolonge par
continuité la restriction de f à ]ti , ti+1 [ et on f˜i le prolongement. On peut appliquer le lemme à f˜i . On obtient
donc des fonctions en escaliers ϕi et ψi telles que
ϕi 6 f˜i 6 ψi et 0 6 ψi − ϕi 6 ε.
On construit alors ϕ et ψ en « mettant bout à bout »les subdivisions et les fonctions en escaliers ϕi et ψi . On pose
aussi
∀i ∈ [[ 0 ; n ]] , ϕ(ti ) = ψ(ti ) = f (ti ).


3 Construction de l’intégrale
3.1 Intégrale des fonctions en escalier
Si ϕ est une fonction en escalier et si σ = (ti ) est une subdivision adaptée. On veut définir l’intégrale
Rb n
a ϕ ( t ) dt comme I ( ϕ, σ ) = ∑i =1 ci ( ti − ti −1 ) où ci est la valeur de ϕ sur ] ti −1 , ti [. Cela correspond à l’interpré-
tation classique en terme d’aire. Cependant il faut d’abord prouver que cette quantité ne dépend pas de la
subdivision choisie.

329
Proposition [Link]

Soit ϕ une fonction en escalier définie sur [ a, b]. Soit σ et σ0 deux subdivisons adaptées à ϕ. La
quantité considérée ci-dessus est la même pour les deux subdivision.

Démonstration : On peut considérer τ une subdivision plus fine de σ et σ0 . Par transitivité, il suffit donc de
montrer que I ( ϕ, σ ) = I ( ϕ, τ ) = I ( ϕ, σ0 ). La subdivision τ est obtenue à partir de σ en ajoutant p éléments
à la subdivision. Montrons donc qu’en rajoutant un élément on ne change pas la valeur de I. On note donc
σ = (ti )06i6n et τ = (t0 < · · · < ti0 −1 < y < ti0 < · · · < tn ). On a alors
n n
I ( ϕ, σ ) = ∑ c i ( t i − t i −1 ) = ∑ c i ( t i − t i −1 ) + c i0 ( t i0 − t i0 −1 ).
i =1 i =1
i 6 = i0

De même
n
I ( ϕ, τ ) = ∑ c i ( t i − t i −1 ) + c ( y − t i0 −1 ) + c 0 ( t i0 − y ).
i =1
i 6 = i0

Maintenant comme σ est adaptée à ϕ, c = c0 = ci0 . On a donc bien I ( ϕ, σ ) = I ( ϕ, τ ) = I ( ϕ, σ0 ). 

Définition [Link]
Z b Z
Soit ϕ une fonction en escalier sur [ a, b]. On appelle intégrale de ϕ sur [ a, b] et on note ϕ(t) dt ou ϕ
a [ a,b]
le réel Z b n

a
ϕ(t) dt = ∑ c i ( t i − t i −1 )
i =1

où σ = (ti ) est une subdivision adaptée à ϕ et ci est la valeur de ϕ sur l’intervalle ]ti−1 , ti [.

Exemples :
Z π
1. On a E(t) dt = 0 + 1 + 2 + 3 ∗ (π − 2) = 3(π − 1).
0
Z
2. Si ϕ est constante égale à C alors ϕ = C ( b − a ).
[ a,b]
Remarque : La valeur de l’intégrale ne dépend pas de la valeur de la fonction aux points de la subdivision. De
ce fait, si on modifie une fonction en escalier en un nombre fini de point, on ne modifie pas son intégrale.

3.2 Propriétés de l’intégrale des fonctions en escalier


Nous allons montrer que l’intégrale des fonctions en escalier vérifie les propriétés attendues de l’intégrale
(linéarité, positivité, relation de Chasles).

Proposition [Link] (Linéarité)

L’intégrale est une forme linéaire sur E ([ a, b]).

Démonstration

Proposition [Link] (Positivité)

Une fonction en escalier positive


Z a une intégrale
Z positive. De plus, si ϕ et ψ sont deux fonctions en
escaliers vérifiant ϕ 6 ψ alors ϕ6 ψ.
[ a,b] [ a,b]

330
Démonstration

Remarque : Notons que la positivité s’étend au cas des fonctions positive sauf en un nombre fini de points.

Proposition [Link] (Relation de Chasles)

Soit ϕ une fonction en escalier sur [ a, b] et c un réel compris strictement entre a et b. Les restrictions
ϕ1 et ϕ2 de ϕ à [ a, c] et [c, b] sont des fonctions en escalier et :
Z Z Z
ϕ+ ϕ= ϕ.
[ a,c] [c,b] [ a,b]

Démonstration

3.3 Intégrales des fonctions continues par morceaux


On a vu que les fonctions continues par morceaux peuvent être approchées par des fonctions en escalier par
valeurs inférieures et par valeurs supérieures. Nous allons en déduire l’intégrale d’une fonction continue par
morceaux à partir de celle des fonctions en escalier.
Notation : Soit f une fonction continue par morceaux sur [ a, b]. On note E + ( f ) = {ψ ∈ E ([ a, b] | f 6 ψ} et
E + ( f ) = { ϕ ∈ E ([ a, b] | ϕ 6 f }.

Théorème [Link]

Avec les notations précédentes :


Z 
1. l’ensemble A( f ) = ϕ | ϕ ∈ E − ( f ) admet une borne supérieure et B( f ) =
Z  [ a,b]
+
ψ | ψ ∈ E ( f ) admet une borne inférieure.
[ a,b]
2. On a sup A( f ) = inf B( f ).

Démonstration :
1. Comme f est une fonction continue par morceaux elle est bornée. Notons m et M tels que m 6 f 6 M.
Les fonctions constantes egales à m et M sont
Z des fonctions
Z en escalier. De plus, pour tout ϕ dans E − ( f )
alors ϕ 6 M. D’où, d’après ce qui précède, ϕ6 M = M (b − a). On en déduit que A( f ) est une
[ a,b] [ a,b]
partie non vide et majorée de R donc elle admet une borne supérieure. De même B( f ) est minorée par
m(b − a) et admet donc une borne inférieure.
2. Notons S = inf B( f ) et I = sup A( f ). Si on fixe ϕ dans E − ( f ) alors pour tout ψ dans E + ( f ), ϕ 6 ψ et
donc Z Z
ϕ6 ψ.
[ a,b] [ a,b]
Z
En particulier, ϕ est un minorant de B( f ) et, de ce fait, est inférieur à S. Ceci étant vrai pour tout ϕ de
[ a,b]
E −( f )
on en déduit que S est un majorant de A( f ) et donc I 6 S.
Maintenant, on sait que si on se donne ε, il existe des fonctions en escalier, ϕ et ψ telles que ϕ 6 f 6 ψ et
0 6 ψ − ϕ 6 ε. On a donc ϕ 6 ψ 6 ϕ + ε. En prenant l’intégrale on obtient :
Z Z Z Z 
ϕ6 ψ6 ( ϕ + ε) = ϕ + ε ( b − a ).
[ a,b] [ a,b] [ a,b] [ a,b]

On en déduit que Z 
Z
S6 ψ6 ϕ + ε ( b − a ) 6 I + ε ( b − a ).
[ a,b] [ a,b]

Ceci étant vrai pour tout ε, S 6 I et donc S = I.

331

Remarque : On voit que la propriété essentielle que l’on utilise est que si f est une fonction continue par
morceaux
Z et que ε est un réel strictement positif, il existe des fonctions en escalier ϕ et ψ telles que ϕ 6 f 6 ψ
et (ψ − ϕ) 6 ε. De telles fonctions d’appellent les fonctions Riemann-intégrables. Un cas particulier des
[ a,b]
fonctions Riemann-intégrables sont les fonctions réglées qui vérifient qu’il existe des fonctions en escalier ϕ et ψ
telles que ϕ 6 f 6 ψ et (ψ − ϕ) 6 ε. .
Exercice : (Difficile) :Les fonctions continues par morceaux sont réglées et les fonctions réglées sont Riemann-
intégrables. Montrer que ces deux inclusions sont strictes.

Définition [Link] (Intégrale d’une fonction continue par morceaux)


Z
Soit f une fonction continue par morceaux que [ a, b] on appelle intégrale d e f sur [ a, b] et on note f ou
[ a,b]
Z b
f (t) dt le réel
a Z
f = sup A( f ) = inf B( f ).
[ a,b]

Remarque : Si f est une fonction en escalier alors elle appartient à E + ( f ) et à E − ( f ). On trouve donc que les
deux définitions d’intégrales coïncident. En particulier on retrouve que l’intégrale d’une constante C sur [ a, b]
est C (b − a).

Proposition [Link]

Avec les notations précédentes, l’intégrale de f sur [ a, b] est l’unique réel tel que, pour tout ϕ ∈ E − ( f )
et tout ψ ∈ E + ( f ) alors, Z Z Z
ϕ6 f 6 ψ.
[ a,b] [ a,b] [ a,b]

Démonstration

4 Propriétés de l’intégrale des fonctions continues par morceaux


4.1 Linéarité et relation de Chasles
Proposition [Link] (Linéarité)

L’intégrale est une forme linéaire sur C M ([ a, b]).

Nous aurons d’abord besoin d’un lemme (qui sera généralisé par la suite)

Lemme [Link]

Soit f une fonction continue par morceaux sur [ a, b] et ϕ une fonction en escalier telle que | f − ϕ| 6 ε
alors Z Z
f− ϕ 6 ε ( b − a ).
[ a,b] [ a,b]

Z Z Z
Démonstration du lemme : On a ϕ − ε 6 f 6 ϕ + ε donc ϕ − ε(b − a) 6 f 6 ϕ + ε(b − a). D’où
[ a,b] [ a,b] [ a,b]
Z Z
f− ϕ 6 ε ( b − a ).
[ a,b] [ a,b]

332

Démonstration de la proposition : Soit f 1 et f 2 deux
Z fonctions
Z continuesZpar morceaux et λ1 , λ2 deux scalaires.
On pose f = λ1 f 1 + λ2 f 2 et on veut montrer que f = λ1 f 1 + λ2 f2 .
[ a,b] [ a,b] [ a,b]
Soit ε un réel strictement positif, il existe ϕ1 et ϕ2 des fonctions en escalier qui vérifient que | f − 1 − ϕ1 | 6 ε
et | f 2 − ϕ2 | 6 ε.
On en déduit que | f − (λ1 ϕ1 + λ2 ϕ2 )| 6 (|λ1 | + |λ2 |)
ε.
Z Z Z Z Z
D’après le lemme, f − λ1 ϕ1 + λ2 ϕ2 = f− λ1 ϕ1 + λ2 ϕ2 6 (|λ1 | + |λ2 |)(b −
[ a,b] [ a,b] [ a,b] [ a,b] [ a,b]
a)ε.
Z Z Z Z
Maintenant λ1 f 1 − λ1 ϕ1 6 |λ1 |(b − a)ε et λ2 f 2 − λ2 ϕ2 6 |λ2 |(b − a)ε.
[ a,b] [ a,b] [ a,b] [ a,b]
On en déduit que
Z  Z Z  Z  Z Z  Z Z Z Z
f − λ1 f 1 + λ2 f2 = f − λ1 ϕ1 + λ2 ϕ2 − λ1 f 1 + λ1 ϕ1 − λ2 f 2 + λ2 ϕ2
[ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b]
Z  Z Z  Z Z Z Z
6 f − λ1 ϕ1 + λ2 ϕ2 + λ1 f 1 − λ1 ϕ1 + λ2 f 2 − λ2
[ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b
6 2(|λ1 | + |λ2 |)(b − a)ε.
Ceci étant vrai pour tout ε on a bien
Z Z Z
f = λ1 f 1 + λ2 f2 .
[ a,b] [ a,b] [ a,b]


Remarque :ZSi f et gZsont deuxZ fonctions continues par morceaux qui ne différent qu’en un nombre fini de
points alors f = g car ( f − g) = 0.
[ a,b] [ a,b] [ a,b]

Définition [Link]

On appelle valeur moyenne d’une fonction continue par morceaux sur [ a, b] la valeur
Z
1
f.
b−a [ a,b]

Remarque : La fonction constante égale à la valeur moyenne à la même intégrale que f sur [ a, b].

Proposition [Link] (Relation de Chasles)

Soit f une fonction définie sur [ a, b] et c ∈] a, b[. La fonction est continue par morceaux si et seulement
si ses restrictions f 1 et f 2 à [ a, c] et à [c, b] le sont. De plus
Z Z Z
f = f1 + f2 .
[ a,b] [ a,c] [c,b]

Démonstration : On procède comme ci-dessus. 


Remarque : On peut donc ramener le calcul d’une intégrale d’une fonction continue par morceaux au calcul
d’intégrales de fonctions continues en « découpant »l’intégrale sur les intervalles où la fonction est continue.

4.2 Positivité et corrollaires


Proposition [Link] (Positivité)

Une fonction continue par morceaux positive a une intégrale


Z positive.
Z De plus, si f et g sont deux
fonctions continues par morceaux vérifiant f 6 g alors f 6 g.
[ a,b] [ a,b]

333
Démonstration : Pour la première partie, il suffit de voir que si f est une fonction continue par morceaux
positive la fonction nulle est un une fonction en escalier inférieure à f . La deuxième partie découle de la première
en utilisant la linéarité. 

Corollaire [Link]

Soit f une fonction continue par morceaux sur [ a, b] :


Z Z
f 6 | f |.
[ a,b] [ a,b]

Remarques :
1. Ce corollaire est TRES utile. C’est une version pour les les intégrales de l’inégalité triangulaire qui dit que
n n
∑ ai 6 ∑ | a i |.
i =1 i =1

2. On a déjà dit que l’on peut imaginer l’intégrale de f comme l’aire sous sa courbe en comptant positivement
Z
ce qui est « au dessus »de l’axe des abscisses et négativement ce qui est « en dessous ». Le terme |f|
[ a,b]
revient à considérer toutes les aires positivement.
Démonstration : Il suffit de constater que −| f | 6 f 6 | f | donc
Z Z Z
− |f| 6 f 6 |f|
[ a,b] [ a,b] [ a,b]

Ceci implique ce que l’on veut. 

Proposition [Link] (Inégalité de la moyenne)

Soit f et g deux fonctions continues par morceaux sur [ a, b],


Z Z
f g 6 (sup | f |) | g |.
[ a,b] [ a,b] [ a,b]

En particulier, pour g = 1,
Z
f 6 (sup | f |)(b − a).
[ a,b] [ a,b]

Démonstration : On voit que | f g| 6 (sup[ a,b] | f |)| g|. On conclut en utilisant ce qui précède et la linéarité. 

Proposition [Link] (Inégalité de Cauchy-Schwarz)

Soit f et g deux fonctions continues par morceaux sur [ a, b],


Z 2 Z Z
fg 6 f2 g2 .
[ a,b] [ a,b] [ a,b]

Remarque : Cette inégalité sera revue par la suite de manière


 plus
 générale.
Z Z Z Z
Démonstration : On considère P(λ) = ( f + λg)2 = g2 λ2 + 2λ fg+ f 2 . Or c’est l’intégrale
[ a,b] [ a,b] [ a,b] [ a,b]
d’une fonction positive donc P(λ) est toujours positif. De ce fait le discriminant est négatif.
Z 2 Z Z
∆=4 fg −4 f2 g2 6 0.
[ a,b] [ a,b] [ a,b]


334
4.3 Cas des fonctions continues
Les fonctions continues sont des cas particuliers de fonctions continues par morceaux. Elles vérifient quelques
propriétés intéressantes.

Théorème [Link]
Z
Soit f une fonction continue sur [ a, b] et positive. Si f = 0 alors f est la fonction nulle.
[ a,b]

Remarques :
1. C’est un théorème qui nous sera utile. Il faut savoir le démontrer.
2. L’hypothèse continue est essentielle. Par exemple la fonction définie sur [0, 1], nulle sur ]0, 1] et valant 1 en
0 est continue par morceaux, positive, d’intégrale nulle mais ce n’est pas la fonction nulle.
Démonstration : Supposons par l’absurde que f n’est pas nulle. Il existe t0 ∈ [ a, b] tel que f (t0 ) 6= 0. Par
continuité, il existe η tel que
f ( x0 )
∀t ∈ [t0 − η, t0 + η ], f (t) > .
2
Supposons (pour simplifier) que a 6 t0 − η 6 t0 + η 6 b. On en déduit que
Z Z t0 − η Z t0 + η Z b
f = f+ f+ f
[ a,b] a t0 − η t0 + η
Z t0 + η
f ( x0 )
Les deux intégrales de droite et de gauche sont positives et f > 2η > 0. C’est absurde. 
t0 − η 2
Remarque : On redémontrera ce résultat quand nous aurons défini les primitives.

Proposition [Link] (Inégalité de Cauchy-Schwarz)

Soit f et g deux fonctions continues sur [ a, b],


Z 2 Z Z
fg 6 f2 g2 .
[ a,b] [ a,b] [ a,b]

De plus, il y a égalité si et seulement si f et g sont proportionnelles.

Démonstration
Z : Il suffit de reprendre la démonstration. S’il y a égalité alors ∆ = 0. De ce fait il existe λ tel que
0 = P(λ) = ( f + λg)2 . On en déduit que f + λg = 0. 
[ a,b]

4.4 Invariance par translation


Proposition [Link]

Soit f une fonction continue par morceaux sur [ a, b] et α un réel. On pose f α la fonction définie sur
[ a + α, b + β] par f α : x 7→ f ( x − α). La fonction f α est continue par morceaux et
Z Z
f = fα.
[ a,b] [ a+α,b+α]

Remarque : Ce résultat est intuitif car il résulte juste de la « translation » de la courbe de


Z f. Z
Exemple : Si f est une fonction continue par morceaux de période T alors pour tout α, f = f . En
[0,T ] [α,α+ T ]
effet, si α est un multiple de T il suffit d’appliquer ce qui précède en remarquant alors que f α = f . Sinon il existe
n ∈ Z tel que α < nT < α + T. On utilise alors la relation de Chasles.

335
5 Sommes de Riemann et méthodes des trapèzes
Nous allons voir deux méthodes pour calculer une valeur approchée d’une intégrale, la méthode des
rectangles (ou des sommes de Riemman) et la méthode des trapèzes.
Dans tout ce paragraphe, on se fixe un segment [ a, b] et f une fonction continue sur [ a, b].

5.1 Somme de Riemann


Dans tout ce paragraphe, f est une fonction continue sur un segment [ a, b].

Définition [Link] (Somme de Riemann)

Soit σ = (ti )06i6n une subdivision et X = ( xi )i∈[[ 1 ; n ]] une famille de réels tels que pour tout i ∈ [[ 1 ; n ]],
xi ∈ [ti−1 , ti ]. On appelle somme de Riemann associée à f pour la subdivision σ et la famille X et on note
R( f , σ, X ) le réel :
n
R( f , σ, X ) = ∑ ( t i − t i −1 ) f ( x i ).
i =1

Exemples :
1. Le cas le plus utilisé est le suivant :
Pour tout entier naturel non nul n on considère la subdivision régulière de [ a, b] en n sous-intervalles. On
note donc
b−a
∀i ∈ [[ 0 ; n ]] , ti = a + i .
n
On prend de plus ∀i ∈ [[ 1 ; n ]] , xi = ti . On note alors
n n  
b−a b−a b−a
Rn ( f ) = R( f , σ, X ) =
n ∑ f ( ti ) =
n ∑f a+i
n
.
i =1 i =1

2. On utilise aussi les sommes de Riemann en utilisant la subdivision régulière mais en prenant xi = ti−1 ou
xi = (ti + ti−1 )/2.
Remarque : Si on regarde la somme de Riemann Rn ( f ). Pour tout i ∈ [[ 1 ; n ]] on considère le rectangle plein
b−a
[ti−1 , ti ] × [0, f (ti )] (ou [ti−1 , ti ] × [ f (ti ), 0] ) dont l’aire est f (ti ). On se dit alors que l’intégrale de f sur
n
[ a, b] doit être proche de la somme des aires si n tend vers +∞.

Théorème [Link]

Soit f une fonction continue sur [ a, b]. Pour tout réel ε > 0 il existe un réel η > 0 tel que pour tout
subdivision σ dont le pas est inférieur à η et toute famille X,
Z
f − R( f , σ, X ) 6 ε.
[ a,b]

Démonstration : On sait que f est continue sur un segment donc, d’après le théorème de Heine elle est
uniformément continue. De ce fait pour ε 1 > 0, il existe η > 0 tel que

∀( x, y) ∈ [ a, b]2 , | x − y| < η ⇒ | f ( x ) − f (y)| < ε 1 .

Maintenant si on se donne une subdivision dont le pas est inférieur à η et X une famille de réels,
Z n Z ti

[ a,b]
f − R( f , σ, X ) = ∑ f (t) − f ( xi ) dt
i =1 t i −1
n Z ti
6 ∑ | f (t) − f ( xi )| dt
i =1 t i −1

336
Maintenant quand t ∈ [ti−1 , ti ], |t − xi | 6 η et donc | f (t) − f ( xi )| 6 ε 1 . On en déduit que
Z n

[ a,b]
f − R( f , σ, X ) 6 ∑ ( t i − t i −1 ) ε 1 = ε 1 . ( b − a ).
i =1
ε
Il suffit d’appliquer cela à ε 1 = . 
b−a

Corollaire [Link]
Z
Soit f une fonction continue sur [ a, b]. La suite ( Rn ( f )) des sommes de Riemann tend vers f.
[ a,b]

Remarques :
1. C’est aussi vrai pour les « variantes ».
2. En ne supposant que f continue on ne peut pas évaluer la vitesse de convergence.

Théorème [Link]

On suppose que f est K-lipschitzienne on a une majoration de la vitesse de convergence.


1. Pour tout réel η > 0 et toute subdivision σ dont le pas est inférieur à η et toute famille X,
Z
f − R( f , σ, X ) 6 K (b − a).η.
[ a,b]

2. Dans le cas de la suite classique on obtient


Z
( b − a )2
∀n ∈ N? , f − Rn ( f ) 6 K .
[ a,b] n

Démonstration : Il suffit de reprendre la démonstration précédente en voyant que l’on a alors ε 1 = kη.

Remarques :
1. La convergence n’est pas très rapide.
2. Le cas des fonctions K-lipschitzienne est important en effet si f est de classe C 1 elle est K-lipschitzienne
en posant K = Max| f 0 (t)|.
[ a,b]
Z 1 Z 2
dt dt
Exemple : Nous allons bientôt voir que = = ln 2. On peut donc essayer d’avoir des valeurs
0 1+t 1 t
approchées.
n n
1 1 1
On a alors Rn =
n ∑ 1 + k/n
= ∑
k + n
.
k =1 k =1
Ici, comme la dérivée de t 7→ 1/t est t 7→ −1/t2 on peut prendre K = 1. On a donc
1
| Rn − ln 2| 6
n
Mathematica nous donne
N[Log[2],20]

0.69314718055994530942

Si on pose
riemann[n_] := (s = 0.; Do[s = s + 1/(k + n), {k, 1, n}]; s)

On récupère
riemann[10] = 0.668 riemann[100] = 0.6907 riemann[1000] = 0.692897 riemann[10000] = 0.693122

337
5.2 Méthode des trapèzes
L’idée est la même que ci-dessus mais en approchant le domaine par des trapèzes.

Définition [Link]

Soit f une fonction continue sur [ a, b] et n ∈ N? . On pose


n
b−a f ( t k ) + f ( t k −1 )
Tn ( f ) =
n ∑ 2
.
k =1

Proposition [Link]
Z Z
Si f est continue Tn ( f ) tend vers f . De plus si f est de classe C 2 alors Tn ( f ) − f =
 [ a,b] [ a,b]
O 1/n2 .

Z
M ( b − a )3
Remarque : On trouve que Tn ( f ) − f 6 . Si M = Max| f 00 (t)|.
[ a,b] 12n2 [ a,b]
Idée de la démonstration : Comme précédemment on découpe l’intégrale par la relation de Chasles et on se
ramène à travailler sur l’intervalle [tk−1 , tk ]. On veut comparer l’intégrale de f et l’intégrale de g la fonction
f ( t k ) − f ( t k −1 )
affine qui prend les mêmes valeurs en tk−1 et tk à savoir g : t 7→ f (tk−1 ) + (t − tk−1 ). L’idée est
t k − t k −1
de voir, sachant que | f 00 | est bornée les cas où la différence va être le plus grande.
faire un dessin

Les cas extrêmes sont quand f 00 est constante égale à M ou à − M. C’est à dire

M M
h− : t 7→ g(t) − (t − tk−1 )(tk − t) et h+ : t 7→ g(t) + (t − tk−1 )(tk − t)
2 2
On montre alors que pour tout t dans l’intervalle

h − ( t ) − g ( t ) 6 f ( t ) − g ( t ) 6 h + ( t ) − g ( t ).

Pour cela il suffit de remarquer que la fonction f − h+ est convexe, elle est donc negative car elle s’annule en
tk−1 et en tk . A l’inverse f − h− est concave et donc positive.
On en déduit que
M
| f (t) − g(t)| 6 (t − tk−1 )(tk − t).
2
Il ne reste plus qu’a intégrer. 

6 Primitives
Nous allons (enfin) voir le lien entre l’intégrale que nous avons construit et les primitives.
On considère un intervalle [ a, b] et f une fonction continue par morceaux sur [ a, b]. A tout élément c compris
entre a et b on considère Z x
F : x 7→ f (t) dt.
c
Cette fonction est définie sur [ a, b].

6.1 Généralisation de l’intégrale


Jusqu’alors on prenait une fonction continue par morceaux sur un segment et on calculait son intégrale sur
tout le segment. On va maintenant définir l’intégrale d’une fonction entre deux bornes.

338
Définition [Link]

Soit I un intervalle. Un fonction f est dite continue par morceaux si sa restriction à tout segment de I est
continue par morceaux.

Remarque : Une fonction continue par morceaux sur I peut ne pas être bornée si I n’est pas borné.
Exemples :
1. La fonction partie entière est continue par morceaux sur R.
2. La fonction χQ n’est pas continue par morceaux.

Définition [Link]

Soit f une fonction continue par morceaux sur I et soit a et b deux éléments de I on pose
 Z

 f si a < b
Z b 
 Z[ a,b]
f (t) dt = − f si a > b
a 


 [b,a]
0 si a = b

Remarque : Le signe moins est nécessaire si l’on veut garder la relation de Chasles.

Proposition [Link]

Avec ces notations, la relation de Chasles est encore vérifiée.

B Toutes les propositions avec des inégalités ne s’étendent à ce cas UNIQUEMENT si a < b. Sinon, il faut
inverser les inégalités.

Proposition [Link]

Soit f une fonction continue par morceaux


Z b
∀( a, b) ∈ I 2 , f g 6 |b − a| sup [ a, b]| f |.
a

6.2 Cas des fonctions continues par morceaux


Proposition [Link]

Avec les notations précédentes, F est lipschitzienne donc continue sur [ a, b].

Démonstration : Soit x et y dans [ a, b],


Z x Z y Z x Z c Z x
F ( x ) − F (y) = f (t) dt − f (t) dt = f (t) dt + f (t) dt = f (t) dt.
c c c y y

Maintenant f est bornée car continue par morceaux. Si M est un majorant de | f | on a

| F ( x ) − F (y)| 6 M| x − y|.

Remarques :

339

1 si t > 0
1. Dans ce cas la fonction peut très bien ne pas être dérivable. Si f : t 7→ On voit que
−1 sinon
Z x
F : x 7→ f (t) dt = | x | − 1. Elle n’est pas dérivable en 0.
0
2. Si on n’est plus sur un segment ce n’est plus vrai car dans ce cas, f peut ne pas être bornée.

6.3 Cas des fonctions continues


Proposition [Link]

Avec les notations précédentes, si f est continue sur I alors F est dérivable et sa dérivée est f .

Remarques :
1. Elle est même de classe C 1 car sa dérivée f est continue.

Démonstration

Définition [Link]

Soit f une fonction définie sur I, on appelle primitive de f sur I, toute fonction F dérivable sur I telle que
F0 = f .

Théorème [Link]

Soit f une fonction continue sur I.


1. Elle admet des primitives sur I.
Z x
2. La fonction x 7→ f (t) dt est l’unique primitive qui s’annule en x0 .
x0
3. Soit F et G deux primitives de f sur I, il existe C ∈ R tel que F = G + C.
Z y
y
4. Soit ( x, y) ∈ I 2 , f (t) dt = [ F (t)] x = F (y) − F ( x ) où F est une primitive de f .
x

Démonstration

B Quand on veut dériver xZ 7→ F(x) − F(a) avec F un primitive de f on trouve f (x) et pas f (x) − f (a).
1 2x
Exercice : On pose H : x 7→ dt.
x 2t −1
1. Calculer l’ensemble de définition de H.
2. Montrer que H est dérivable et calculer H 0 .

7 Calculs
Nous allons montrer quelques méthodes de calculs classiques.

7.1 Primitives de fonctions rationnelles


Théorème [Link]

On sait exprimer à l’aide des fonctions usuelles les primitives de toutes les fonctions rationnelles.

Soit f une fonction rationnelle sur R et I un intervalle ne contenant aucun pôle de f . Le principe est de réaliser
la décomposition en éléments simple de la fraction puis d’intégrer chaque terme. Il y a deux méthodes selon
que l’on procède à une décomposition sur R ou sur C

340
— (Sans utiliser les nombres complexes) :
Via la décomposition en éléments simples sur R et la linéarité, on est ramené à déterminer les primitives
des fonctions de la forme :
1. un polynôme
1
2. une fonction t 7→ où a ∈ R.
(t − a)n
at + b
3. une fonction t 7→ 2 où t2 + ct + d ne s’annule pas.
(t + ct + d)n
Le cas 1. a été vu précédemment.
Le point 2. aussi en séparant le cas où n = 1 du cas n > 1.
Pour le point 3. Via une mise sous forme canonique et un changement de variables affine, on peut se
at + b
ramener à t 7→ 2 avec d > 0. Maintenant, on peut « tuer » le t au numérateur en utilisant la
( t + d2 ) n
dérivée de t 7→ t2 + d2 . Précisément on a
at + b a 2t b
= + 2 .
( t2 + d2 ) n 2 ( t2 + d2 ) n ( t + d2 ) n
u0
— La première partie est de la forme et on sait déterminer sa primitive.
un
b
— Pour la deuxième partie, si n = 1, on reconnait la dérivée de arctan(t/d).
d
— Pour la deuxième partie, si n 6= 1 on se ramène au cas n = 1 par intégration par parties. En effet,
Z x  x Z x
dt t 2nt2
= − dt
( t2 + d2 ) n ( t2 + d2 ) n ( t 2 + d 2 ) n +1
Z x Z x 
x t2 + d2 d2
= − 2n dt − dt
( x 2 + d2 ) n ( t 2 + d 2 ) n +1 ( t 2 + d 2 ) n +1
On en déduit que
Z x Z x
dt x dt
(2n + 1) = 2 + 2nd2 .
( t2 + d2 ) n ( x + d2 ) n ( t 2 + d 2 ) n +1
On a donc, par exemple
Z x  Z x

dt 1 dt x
= 2 2 − .
( t2 + d2 )2 2d ( t2 + d2 ) ( x 2 + d2 )
t
Exemple : On cherche une primitive de t 7→ sur I =] − ∞, 1[ ou I =]1, +∞[. On sait que X 3 − 1 =
t3 − 1
( X − 1)( X 2 + X + 1). On en déduit qu’il existe ( a, b, c) tels que
1 a bt + c
∀t ∈ I, = + 2 .
t3 −1 t−1 t +t+1
Par les méthodes du chapitre précédent on trouve, a = 1/3 et on en déduit que
1 1 1 1 −t + 2 1 1 1 2t + 1 1 1
∀t ∈ I, = + = − − .
t3 − 1 3 t − 1 3 t2 + t + 1 3 t − 1 6 t2 + t + 1 2 t2 + t + 1
Maintenant,
Z x Z x
1 1 1 1 2t + 1 1
dt = ln | x − 1| et − dt = − ln( x2 + x + 1).
3t−1 3 6 t2 + t + 1 6
De plus

Z x Z
1 1 1 x 1
− dt = − dt
2 t2 + t + 1 2 (t + 1/2)2 + 3/4
 
1 x + 1/2
= − √ arctan √
3 3/2
En conclusion,
Z x  
dt 1 1 1 x + 1/2
= ln | x − 1| − ln( x2 + x + 1) − √ arctan √ .
t3 − 1 3 6 3 3/2

341
— (Utilisation des complexes) : Via la décomposition en éléments simples sur C et la linéarité, on est
ramené à déterminer les primitives des fonctions de la forme :
1. un polynôme
1
2. une fonction t 7→ où α ∈ C.
(t − α)n

Proposition [Link]

1
Soit α = u + iv ∈ C avec v 6= 0. La fonction t 7→ est continue sur R et admet donc des
(t − α)n
primitives sur R. De plus


 1 1
Z x  si n 6= 1
dt − n + 1 ( x − α ) n −1  
=
(t − α)n 
 1
ln (( x − u ) 2 + v2 ) + i arctan x − u si n = 1

2 v

Démonstration : La partie n 6= 1 est juste la formule classique de la primitive de ( x − α)k en prenant


garde qu’ici, k = −n. Pour démontrer la partie pour n = 1 on peut juste dériver le terme de droite, nous
allons le faire autrement ce qui permet de retrouver la formule si on l’a oubliée.
On a pour tout t dans R,

1 t−α
=
t−α | t − α |2
t−α
=
( t − u )2 + v2
t−u v
= +i
( t − u )2 + v2 ( t − u )2 + v2
t−u 1 1
= +i
( t − u )2 + v2 v ((t − u)/v)2 + 1
Il ne reste qu’à intégrer. 
t
Exercice : Calculer une primitive de t 7→ par cette méthode.
−1 t3
Remarque : Dans la très grande majorité des cas, la méthode réelle est la plus simple. Il ne faut utiliser la
méthode complexe qu’en présence de pôles complexes multiples.

7.2 Primitives se ramenant à une primitive de fraction rationnelle


Nous allons étudier des primitives qui se ramène à des primitives de fraction rationnelle. Tout ce qui est ici
est « pour la culture ». Les changements de variables seront proposés.

Fractions rationnelles en cos t et sin t


P(sin t, cos t)
On se donne une fonction de la forme f : t 7→ où P et Q sont des polynômes. Par exemple,
Q(sin t, cos t)
cos t + sin t
t 7→ .
cos2 t sin t
— On peut toujours se ramener au cas de la primitive d’une fonction rationnelle en effectuant le changement
1 + tan(t/2) 2
de variable u = tan(t/2). On a alors du = dt et donc dt = du. De plus
2 1 + u2

1 1 − u2
cos t = cos(2.(t/2)) = 2 cos2 (t/2) − 1 = 2 2
−1 =
1 + tan (t/2) 1 + u2

et
2u
sin t = 2 sin(t/2) cos(t/2) = 2 tan(t/2). cos2 (t/2) = .
1 + u2

342
Par exemple,

4u2
Z x Z tan( x/2) 2 +
2 + sin2 t (1 + u2 )2 2
dt = du
3 − cos t 1 − u2 1 + u2
3−
1 + u2
Z tan( x/2)
1 + 4u2 + u4 du
= 2
(1 + u2 )2 (1 + 2u2 )
Z tan( x/2)
2 2 3
= 2 2 2
+ 2
− du.
(1 + u ) 1+u 1 + 2u2

Remarques :
1. On voit que le degré augmente beaucoup
2. Il faut faire attention à l’ensemble de définition. En effet on peut poser u = tan(t/2) si on travaille
pour x dans Ik =] − π + 2kπ, π + 2kπ [. En pratique on travaille sur un tel intervalle puis on recolle.
Z x
dt
Si par exemple on veut étudier qui est définie sur R. On se place sur un Ik et on pose
2 + cos t
u = tan(t/2). On obtient
Z tan( x/2)  
du 2 tan( x/2)
2 2
= √ arctan √ + C.
3+u 3 3

Si on veut par exemple la primitive F sur [0, 2π ] qui s’annule en 0 alors


 
2 tan( x/2)
— ∀ x ∈ [0, π [, F ( x ) = √ arctan √ . La constante est nulle ar F (0) = 0.
3 3
 
2 tan( x/2)
— ∀ x ∈]π, 2π ], F ( x ) = √ arctan √ +C
3 3
√ √ √
En étudiant lim F = 3 3π et lim F = −3 3π + C on voit que C = 6 3π.
π− π+
— (Règles de Bioche) Dans certains cas, on peut se ramener au cas d’une fraction rationnelle avec les
changements de variables u = cos t, u = sin t et u = tan t. Si on pose ω (t) = f (t) dt, alors
— si ω (−t) = ω (t) on peut poser u = cos t
— si ω (π − t) = ω (t) on peut poser u = sin t
— si ω (π + t) = ω (t) on peut poser u = tan t
Remarques :
1. Dans les formules ci-dessus, il ne faut pas oublier le dt. Par exemple si f est impaire, on posera
u = cos t.
2. Pour se souvenir de ces formules, il suffit de voir que ce sont les mêmes formules. Par exemple
sin(π − t) = sin t.
2 + sin2 (t)
Exemple : Calculons la primitive de t 7→ sur ] − π/2, π/2[. On peut poser u = sin t et
cos t
du = cos t dt. On a en effet
dt du du
= = .
cos2 t cos2 t 1 − u2
Z x Z sin x
2 + sin2 (t) 2 + u2
dt = du
cos t 1 − u2
Z sin x  
3 1 1
= −1 + + du
2 1−u 1+u
 
3 1 + sin x
= − sin x + ln
2 1 − sin x

343
Fonctions rationnelles en et , sh (t) et ch (t)
On cherche la primitive d’une fonction de la forme f = t 7→ F (et ) où F est une fraction rationnelle ou
P( sh t, ch t)
f : t 7→ ce qui revient au même.
Q( sh t, ch t)
Dans tous les cas, un changement de variables u = et permet de se ramener à une primitive de fraction
rationnelle. On peut cependant là encore appliquer les règles de Bioche. Si on pose ω (t) = f˜(t) dt où f˜ est la
fonction obtenue en remplaçant ch t par cos t et sh t par sin t alors
— si ω (−t) = ω (t) on peut poser u = ch t
— si ω (π − t) = ω (t) on peut poser u = sh t
— si ω (π + t) = ω (t) on peut poser u = th t
1
Exemple : Calculons une primitive de t 7→ . D’après les règles de Bioche on peut poser u = sh t. Dès lors
ch t
Z x Z sh x
dt du
=
ch t 1 + u2
= arctan( sh x ).
Sans utiliser les règles de Bioche on peut aussi poser u = et et on trouve alors 2 arctan(e x ) ce qui est là même
chose.

Primitive de fraction rationnelle en at2 + bt + c
√ √
— Si a = 0. On se retrouve avec une fraction rationnelle en at + b. On pose u = at + b.
p
— Si a 6= 0. Quitte à diviser par | a|, à faire une mise sous forme canonique et un changement de variable
affine,
√on se retrouve à traiter trois cas :
— t2 + a2 : on pose t = a sh (u).

— t2 − a2 : on pose t = a ch (u).

— a2 − t2 : on pose t = a sin(u).
Exemples :
Z xp
1. Calculons t − t2 dt.
Z x
t
2. Calculons √ dt.
t2 +t+1
r
at + b
Primitive de fraction rationnelle en
ct + d
r
at + b
On fait le changement de variables u = .
ct + d

8 Formules de Taylor
On a déjà vu la formule de Taylor pour les polynômes qui affirme que si P est un polynôme de degré
inférieur à n, pour tout α et tout x dans R,
n
P(k) ( α )
P( x ) = ∑ k!
( X − α)k .
k =0
Nous allons généraliser ceci pour des fonctions quelconques (mais suffisamment dérivables).

8.1 Formule de Taylor avec reste intégral


Théorème [Link] (Formule de Taylor avec reste intégral)

Soit f une fonction de classe C n+1 sur [ a, b] alors


n Z b
( b − a )k f (k) ( a ) ( b − t ) n ( n +1)
f (b) = ∑ k!
+
a n!
f (t) dt.
k =0

344
Remarques :
1. Si f est une fonction polynomiale de degré inférieur à n on retrouve la formule de Taylor car f (n+1) = 0.
Z b
2. Le cas n = 0 est juste f (b) = f ( a) + f 0 (t) dt.
a
n
( b − a )k f (k) ( a )
3. La partie ∑ k!
se note Tn (b) est s’appelle le development de Taylor à l’ordre n. Le terme
k =0
Z b
( b − t ) n ( n +1)
f (t) dt est le reste de Taylor. On le note Rn (b).
a n!
Démonstration : On procède par récurrence sur n.
— Initialisation : Pour n = 0 c’est vrai (voir remarque).
— Hérédité : Soit n un entier. Supposons la formule de Taylor vrai à l’ordre n. Soit f une fonction de classe
C n+2 . La fonction f est en particulier de classe C n+1 . On en déduit que
n Z b
( b − a )k f (k) ( a ) ( b − t ) n ( n +1)
f (b) = ∑ k!
+
a n!
f (t) dt.
k =0

Maintenant, par intégration par parties


Z b  b Z b
( b − t ) n ( n +1) ( b − t ) n +1 ( n +1) ( b − t ) n +1 ( n +2)
f (t) dt = − f (t) + f (t) dt.
a n! ( n + 1) ! a a ( n + 1) !

Il ne reste plus qu’à regrouper les deux deux équations.



Exemples :
1. Si on prend pour f la fonction cosinus et pour a = 0.
On trouve Z x
x2 ( x − t )2
cos x = 1 − + sin t dt.
2 0 2
Z x
( x − t )2 x2
On remarque alors que sur [−π, π ], sin t dt > 0. De ce fait , cos x 6 1 − .
2 0 2
2. Si on prend pour f la fonction exp et x = 0 on trouve

n Z x
xk ( x − t)n t
ex = ∑ k!
+
0 n!
e dt.
k =0

8.2 Inégalité de Taylor-Lagrange


Théorème [Link] (Formule de Taylor avec reste intégral)

Soit f une fonction de classe C n+1 sur [ a, b] alors

n
( b − a )k f (k) ( a ) | b − a | n +1
f (b) − ∑ k!
6
( n + 1) !
M
k =0

où M = Max| f (n+1) |.
[ a,b]

Démonstration

Remarque : C’est une généralisation de l’inégalité des accroissements finis (qui est le cas n = 0). De fait il
existe aussi une égalité de Taylor-Lagrange qui stipule que si f est de n fois dérivable, le reste de Taylor d’ordre
( b − a ) n +1 ( n +1)
n peut s’écrire f (c) avec c strictement compris entre a et b. Le cas n = 1 a été démontré en DL et
( n + 1) !
la démonstration générale est du même genre (exercice).

345
Exemple : Si on reprend l’exemple du paragraphe précédent. On trouve pour la fonction exponentielle que
n
xk x n +1 x
ex − ∑ k!
6
( n + 1) !
e .
k =0

x n +1
Maintenant, quand x est fixé, la suite un = tend vers 0 par croissances comparées et de ce fait,
( n + 1) !
n
xk
lim
n→∞
∑ k!
= ex .
k =0

8.3 Formule de Taylor-Young


Théorème [Link] (Formule de Taylor-Young)

Soit f une fonction de classe C n sur I et a ∈ I. Il existe une fonction ε définie sur I et tendant vers 0
en a telle que
n
f (k) ( a )
∀ x ∈ I, f ( x ) = ∑ ( x − a ) k + ( x − a ) n ε ( x ).
k =0
k!
C’est-à-dire,

f (n) ( a )
∀ x ∈ I, f ( x ) = f ( a) + f 0 ( a)( x − a) + · · · + ( x − a)n + o (( x − a)n ) .
n! a

Remarque : Ce résultats est un corollaire immédiat de l’inégalité de Taylor-Lagrange si on suppose f de classe


C n+1 . En effet on a
n
f (k) ( a ) ( x − a)
f (x) − ∑ ( x − a)k 6 ( x − a)n M
k =0
k! n!

où M est le maximum de | f (n+1) | dans un voisinage du point a.


Démonstration : Cela se fait par récurrence sur n. Les cas n = 0 et n = 1 ont déjà été vus. Faisons l’hérédité.
Supposons que la formule de Taylor-Young soit vraie pour les fonctions de classe C n et considérons une fonction
f de classe C n+1 . On sait que f 0 est alors de classe C n . D’où il existe ε 1 telle que
n
( f 0 )(k) ( a )
∀t ∈ I, f 0 (t) = ∑ k!
( t − a ) k + ( t − a ) n ε 1 ( t ).
k =0
Z x
Or f ( x ) = f ( a) + f 0 (t) dt. On obtient donc
a
Z x
!
n
( f 0 )(k) ( a )
f (x) = f ( a) +
a
∑ k!
k n
(t − a) + (t − a) ε 1 (t) dt
k =0
Z x
! Z
n
(t − a)k x
= f ( a) + ∑ f ( k +1)
( a) dt + (t − a)n ε 1 (t) dt
k =0 a k! a
n +1 Z x
f (k) ( a )
= ∑ k!
( x − a)k +
a
(t − a)n ε 1 (t) dt
k =0
Z x
(t − a)n ε 1 (t)
a
Il ne reste plus qu’à montrer que ε : x 7→ tend vers 0.
( x − a ) n +1

B Cette formule ne donne que des informations locales.
Exemples :
x3 
1. On a sin x = x − + o x4 .
6
n
xk
2. On a ex = ∑ k!
+ o (xn ) .
k =0

346
9 Extension au fonctions à valeurs complexes
9.1 Definitions
Définition [Link]

Soit f une fonction continue (ou continue par morceaux) définie sur un intervalle I et à valeurs dans C. On
pose
Z b Z b Z b
f = Re( f ) + i Im f .
a a a

Exemple :
Z 1 Z 1 Z 1  iπt 1
iπt 2i e −1
e dt = cos(πt) dt + i sin(πt) dt = = .
0 0 0 π iπ 0

9.2 Propriétés
Proposition [Link]

L’integrale des fonctions à valeurs complexe est linéaire et elle vérifie la relation de Chasles.

Proposition [Link]

Soit f une fonction continue à valeurs dans C, et a < b,


Z b Z b
f 6 | f |.
a a

Démonstration :
Rb Rb
— Si a f est un réel positif et est donc égal à a Re f alors cela découle de |Re f | 6 | f |.
Rb
— Dans le cas général on considère Z un nombre complexe de module 1 tel que Z a f soit un réel positif.
On a donc Z Z b
f = g
a [ a,b]
Z Z Z Z
où g : t 7→ Z f (t). Or g ∈ R+ donc g6 | g| = | f |.
[ a,b] [ a,b] [ a,b] [ a,b]

347
1 Espace probabilisé
Probabilités
24 348
1.1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
1.2 Probabilités et espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
2 Probabilités conditionnelles 352
2.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
2.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
2.3 Formules sur les probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
3 Indépendance 355
3.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
3.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356

1 Espace probabilisé
La première chose à faire est de définir les objets mathématiques que nous allons étudier. Ils doivent
représenter la réalité que l’on observe.

1.1 Univers
Définition [Link]

On appelle expérience aléatoire (ou épreuve) une expérience pouvant amener un ou plus résultats. On appelle
univers l’ensemble de tous les résultats possibles. Ces derniers s’appellent des éventualités.

Exemples :
1. On joue à pile ou face. On note P si la face fait pile et F si elle fait face. On a Ω = { P, F }.
2. On lance un dé et on regarde le score obtenu. On a Ω = {1, . . . , 6}.
3. On lance deux dés et on regarde les deux scores obtenus. L’univers n’est pas le même si on distingue les
deux dés ou pas. Si on note Ωd (resp. Ωi ) l’univers obtenu avec des dés différents (resp. non différentiés).
on a :

Ωd = [[ 1 ; 6 ]]2 et Ωi = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 2), (2, 3), . . . , (6, 6)}.

4. On lance une pièce une infinité de fois pour attendre le premier pile : Ω = { P, F }N .
5. On mesure le temps qu’il reste à vivre à une bactérie. On a Ω = R+ .

348
6. On mesure (en heure) le temps qu’il vous faudra faire la queue au self. Ω = [0, 2]
7. On lance une fléchette sur une cible. Ω = {( x, y) ∈ R2 | x2 + y2 6 1}.
Remarque : cette année on se limitera au cas des expériences amenant un univers fini de résultats. L’année
prochaine vous étudierez le cas d’un ensemble discret (dénombrable).
Exercice : On considère une urne contenant 4 boules vertes et 1 boules rouges. On tire deux boules dans l’urne.
Décrire l’univers selon que :
— On ne distingue pas les boules vertes et on tire successivement et sans remises.
— On ne distingue pas les boules vertes et on tire simultanément et sans remises.
— On ne distingue pas les boules vertes et on tire successivement et avec remises.
— Les trois cas précédents mais en distinguant les boules vertes entre elles.

Définition [Link]

On appelle événement un sous-ensemble de Ω dont on peut dire, au vu de l’expérience s’il est réalisé ou pas.

Exemples :
1. La pièce fait pile A = { P} ⊂ Ω.
2. On fait plus de 3, A = {3, 4, 5, 6} ⊂ Ω.
3. On fait un double A = {(1, 1), (2, 2), (3, 3), . . . , (6, 6)} ⊂ Ω.
4. Le premier pile est obtenu au quatrième lancer A = {(ui ) ∈ Ω | u1 = u2 = u3 = F et u4 = P} ⊂ Ω
5. La bactérie vit plus de 2 heures A = [2, +∞[
6. Vous attendez moins d’un quart d’heure : A = [0, 1/4]
Terminologie : On a un dictionnaire entre les termes classiques de la théorie des ensembles et leurs pendant en
probabilités.

Ensembles Probabilités
Ensemble Univers
élément de Ω éventualité
partie de Ω événement
Ω événement certain
∅ événement impossible

Maintenant on se donne un univers Ω et A et B deux parties/événements.

Ensembles Probabilités
A événement contraire de A
A∩B événement A et B
A∪B événement A ou B
A⊂B Si A alors B
A\B événement A et pas B
A∩B = ∅ événements incompatibles

Exemple : On lance un dé et Ω = [[ 1 ; 6 ]]. Soit P = « le résultat est pair », I = « le résultat est impair »et A =
« le résultat est inférieur à 3 ».

Définition [Link]

Soit Ω un univers, on appelle système complet d’événements, la donnée d’un nombre fini d’événements
A1 , . . . , An tels que toute éventualité soit dans un et un seul des événements Ai . C’est à dire que l’on veut :
n
[
1. Ω = Ai ,
i =1

2. ∀(i, j) ∈ [[ 1 ; n ]]2 , (i 6= j) ⇒ Ai ∩ A j = ∅.

Exemples :

349
1. Pour Ω = [[ 1 ; 10 ]], on peut prendre, A1 = {1, 3, 5, 7, 9}, A2 = {2, 10}, A3 = {4} et A4 = {6, 8}.
2. Soit E un ensemble à n éléments et Ω = P ( E). C’est à dire que que l’on tire des nombres (entre 0 et n)
compris entre 1 et n. On pose Ak = { X ⊂ E | Card( X ) = k } pour k = 0, · · · , n. Les Ak forment une
partition de Ω.
Remarques :
1. Cela correspond à la notion ensembliste de partition.
2. Les systèmes complets sont très utiles, ils permettent de "découper" l’univers.

1.2 Probabilités et espace probabilisé


Maintenant que l’on sait ce qui peut arriver, on doit définir la probabilité d’un événement d’advenir. Pour
cela il faut définir une application qui associe à un événement A ∈ P (Ω) sa probabilité.
Avant de regarder précisément cela on va essayer de voir ce qu’il faut. Imaginons que l’on dispose d’une
expérience aléatoire (par exemple lancer d’une pièce) avec son univers (Ω = { P, F }). On considère un événement
A (par exemple A = { P}). Si on réalise l’expérience n fois et que l’on note n A le nombre de fois que l’expérience
n
est réalisé, on notera f n = A la fréquence empirique de réalisation. Notre idée serait de dire que quand n tend
n
vers l’infini, la probabilité de A est
P( A) = lim f n ( A).
n→∞

En regardant les propriété de f n , on peut se demander quelles propriétés on doit imposer à P : P (Ω) → R.
— ∀ A ∈ P (Ω), P( A) ∈ [0, 1]
— P(Ω) = 1 et P(∅) = 0
— ∀ A ∈ P ( Ω ) , P( A ) = 1 − P( A )
— Si A et B sont deux événements incompatibles P( A ∪ B) = P( A) + P( B)
— Si A ⊂ B, P( A) 6 P( B)
On va voir que certaines de ces conditions sont redondantes.

Définition [Link]

Soit Ω un univers, une probabilité sur (Ω, P (Ω)) est une application P : P (Ω) → [0, 1] telle que
1. P(Ω) = 1
2. Si A et B sont deux événements incompatibles, P( A ∪ B) = P( A) + P( B).
Soit A un événement de Ω, le nombre P( A) s’appelle la probabilité de A. Le triplet (Ω, P (Ω), P) s’appelle
un espace probabilisé.

Remarques :
1. Il peut sembler étrange de noter P (Ω). Cela n’a aucune utilité cette année mais vous verrez l’an prochain
que dans le cas continue, il existe des partie de l’univers dont on ne pas calculer la probabilité. Pour cette
année, on utilisera le terme de « probabilité sur Ω », par abus.
2. Cette définition peut sembler très minimaliste mais nous allons voir que toutes les propriétés classiques
que l’on attend en découle.
3. On ne pourra JAMAIS voir des probabilités négatives ou strictement supérieures à 1.

Proposition [Link]

Soit Ω = { x1 , . . . , xn } un ensemble fini et P une probabilité sur Ω alors pour tout A ∈ P (Ω) on a :
[
P( A ) = pi .
i ∈[[ 1 ; n ]]
xi ∈ A

Démonstration

350
Proposition [Link]

Soit Ω = { x1 , . . . , xn } un ensemble fini de cardinal n. Se donner une probabilité sur Ω revient à se


donner n nombres p1 , . . . , pn compris entre 0 et 1 tels que :

p1 + · · · + p n .

La correspondance est donnée par

∀i ∈ [[ 1 ; n ]] , P( xi ) = pi .

Démonstration

Remarque : ces deux propositions illustrent le fait que pour cette année, on peut penser à l’application de
probabilité comme l’application qui associe à chaque élément de Ω sa probabilité. Cela détermine de manière
unique la probabilité sur tout P (Ω). Là encore, cela est différent pour les probabilités sur des univers infinis.
Exemples :
1. On considère une pièce équilibrée et on joue à pile ou face. On a Ω = { P, F } et la probabilité est donnée
par :
P(∅) = 0 ; P( P) = 1/2 ; P( F ) = 1/2 ; P(Ω) = 1.
2. Equiprobabilté : sur tout univers fini Ω on peut définir la probabilité uniforme. Pour cela on considère
que la probabilité de tous les éventualités est la même. Elle est obligatoirement égale à 1/Card(Ω).
On a alors,
Card( A)
∀ A ∈ P ( Ω ) , P( A ) = .
Card(Ω)
Vérifions que c’est une probabilité.
Card(Ω)
— on a P(Ω) = = 1.
Card(Ω)
— si A et B sont deux ensembles disjoints Card( A ∪ B) = Card( A) + Card( B). D’où,

P( A ∪ B ) = P( A ) + P( B ).

3. On lance deux dès à 6 faces et on regarde la somme des deux dés. On pourrait considérer comme univers
Ω = {2, . . . , 12}. Le problème est que rien ne nous dit que tous les résultats sont équiprobables et de ce
fait on ne sait définir la probabilité. On considérera plutôt l’univers Ω0 = [[ 1 ; 6 ]]2 obtenu en regardant un
dé puis l’autre - on les distingue intellectuellement même s’ils ne sont pas physiquement distincts. A ce
moment la probabilité est uniforme. Soit A l’événement « la somme fait 7 » et B l’événement « la somme
fait 11 ». On a
6 1 2 1
P( A ) = = et P( B) = = .
36 6 36 18
4. On considère un dé pipé qui a autant de chances de faire 1, 2 ou 3 et deux fois plus de chances de faire 4, 5
ou 6. On a Ω = {1, . . . , 6}. On note, pour i ∈ [[ 1 ; 6 ]] , pi = P(i ). On a

p1 + p2 + p3 + p4 + p5 + p6 = 1 et p6 = p5 = p4 = 2p3 = 2p2 = 2p1 .

D’où p1 = 1/9 et p5 = 2/9. Soit A l’événement « on obtient un résultat pair ». On a

P( A) = 2/9 + 2/9 + 1/9 = 5/9.

5. On considère une urne avec a boules blanches et b boules noires ( a > 4). On suppose que toutes les boules
sont semblables. On tire deux boules successivement dans l’urne et on note A l’événement « les deux
boules sont blanches ». Calculons P( A).
— Si on remet la boule dans l’urne après tirage :
 2
2 2 a
On a Ω = [[ 1 ; a + b ]] et A = [[ 1 ; a ]] . On en déduit P( A) = .
a+b
— Si on ne remet pas la boule dans l’urne après tirage :
On a Ω = { B ⊂ [[ 1 ; a + b ]] | CardB = 2}. et A = { B ⊂ [[ 1 ; a ]] | CardB = 2}. On en déduit :

(2a) a ( a − 1)
P( A ) = = .
( a+2 b) ( a + b)( a + b − 1)

351
Proposition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé fini. On a les propriétés suivantes :


1. Pour tout événement A, P( A) = 1 − P( A). En particulier P(∅) = 0.
2. Pour tous événements A et B, P( A \ B) = P( A) − P( A ∩ B).
3. Pour tous événements A et B, P( A ∪ B) = P( A) + P( B) − P( A ∩ B).
4. Pour tous événements A et B, A ⊂ B ⇒ P( A) 6 P( B).

Démonstration

Proposition [Link] (Formule du crible de Poincaré - Hors programme)

Soit (Ω, P (Ω), P) un espace probabilisé fini et ( Ai )16i6n une famille finie d’événements. On a
!
n
[ n
p Ai = ∑ (−1)k+1 ∑ P ( A i1 ∪ · · · ∪ a i k ).
i =1 k =1 16i1 <···<ik 6n

Remarques :
1. Cette formule est utile car elle permet de calculer la probabilité d’une union uniquement avec des
probabilité de produit.
2. C’est l’analogue de la formule de Poincaré pour les cardinaux. Notons cependant que cette formule est
vraie en tout généralité et pas que pour une probabilité uniforme.
3. Il faut retenir les cas particuliers :
— pour n = 2 : P( A ∪ B) = P( A) + P( B) − P( A ∩ B).
— pour n = 3 : P( A ∪ B ∪ C ) = P( A) + P( B) + P(C ) − P( A ∩ B) − P( A ∩ C ) − P( B ∩ C ) + P( A ∩
B ∩ C ).
— pour n = 4 : en exercice...

2 Probabilités conditionnelles
La notion de probabilités conditionnelles sert à calculer la probabilité d’un événement en sachant q’un autre
événement est réalisé. En effet, nous allons voir que le fait de savoir qu’un événement est réalisé (ou non) influe
sur la probabilité de l’univers.

2.1 Exemple introductif


On lance deux dés . On regarde la somme des deux dés. On a Ω = [[ 1 ; 6 ]]2 . Soit A l’événement « la somme
est supérieure à 10 ». On a
A = {(4, 6); (5, 5); (5, 6); (6, 4); (6, 5); (6, 6)}.
D’où P( A) = 1/6. On suppose maintenant que l’on lance le premier dé et que l’on obtient 5. Quelle est la
probabilité d’obtenir plus de 10 en lançant le deuxième ? On considère l’événement B qui est « le premier dé fait
5 ». C’est à dire B = {(5, 1); (5, 2); (5, 3); (5, 4); (5, 5); (5, 6)}. On voit alors que la probabilité de A sachant que B
est réalisé est :
CardA ∩ B P( A ∩ B )
= .
CardB P( B )
C’est ce que l’on appellera la probabilité conditionnelle.

352
2.2 Définitions
Définition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé et B un événement tel que P( B) 6= 0. Pour tout événement
A ∈ P (Ω) on appelle probabilité de A sachant B et on note PB ( A) ou P( A| B) le nombre

P( A ∩ B )
.
P( B )

Remarques :
1. Cela correspond réellement à l’intution que l’on a, c’est à dire que PB ( A) est la probabilité A se réalise en
sachant que B est réalisé.
2. On peut étendre la notion au cas où P( B) = 0 en posant alors PB ( A) = 0.
3. On utilisera souvent la probabilité conditionnelle sous la forme :

P( A ∩ B) = P( B).PB ( A).

Exemple : On reprend un exemple précédent. On considère une urne avec a boules blanches et b boules noires
( a > 4). On suppose que toutes les boules sont semblables. On tire deux boules successivement dans l’urne et on
note A l’événement « les deux boules sont blanches ». Calculons P( A). On note, pour i ∈ {1, 2}, Bi l’événement
« la ième boule tirée est blanche ». On a A = B1 ∩ B2 d’où

P( A) = P( B1 ).P( B2 | B1 ).

On a P( B1 ) = a/( a + b). On sépare alors les cas.


— Si on remet la boule dans l’urne après tirage :
au moment du deuxième tirage on est dans une situation identique au premier tirage (la boule tirée a été
remise dans l’urne) d’où P( B2 | B1 ) = a/( a + b) et
 2
a
P( A ) = .
a+b

— Si on ne remet pas la boule dans l’urne après tirage :


au moment du deuxième tirage, on suppose que l’on a tiré une boule blanche dans l’urne au premier. Il
reste donc a − 1 boules blanches et toujours b boules noires. D’où P( B2 | B1 ) = ( a − 1)/( a + b − 1) et

a ( a − 1)
P( A ) = .
( a + b)( a + b − 1)

Proposition [Link]

Avec les notations précédentes, l’application PB : P (Ω) → R est une probabilité sur P (Ω).

Remarque : En particulier, tout ce que l’on va dire sur les probabilités s’applique aux probabilités condition-
nelles.

2.3 Formules sur les probabilités conditionnelles


Proposition [Link] (Formule des probabilités composées)

Soit (Ω, P (Ω), P) un espace probabilisé et A1 , . . . An des événements tels que P( A1 ∩ · · · ∩ An−1 ) 6=
0. On a

P ( A 1 ∩ · · · ∩ A n ) = P ( A 1 ) × P ( A 2 | A 1 ) × P ( A 3 | A 1 ∩ A 2 ) × · · · × P ( A n | A 1 ∩ · · · ∩ A n −1 ).

353
Remarques :
1. Le fait que P( A1 ∩ · · · ∩ An−1 ) soit non nul nous assure que toutes les probabilités conditionnelles sont
bien définies. Remarquons que la convention définie ci-dessus permet d’étendre l’égalité au cas où
P( A1 ∩ · · · ∩ An−1 ) = 0.
2. Là encore c’est cohérent avec l’intuition : le fait que A1 , . . . , An soit réalisé revient à ce que A1 soit réalisé,
A2 soit réalisé sachant que A1 l’est, A3 soit réalisé sachant que A1 et A2 le sont, · · · , An soit réalisé sachant
que A1 , . . . , An−1 le sont.

Démonstration

Exemple : Toujours le même exemple. On considère une urne avec a boules blanches et b boules noires ( a > 4).
On suppose que toutes les boules sont semblables. On tire trois boules successivement et sans remise dans
l’urne et on note A0 l’événement « les trois boules sont blanches ». On note, pour i ∈ {1, 2}, Bi l’événement « la
ième boule tirée est blanche ». On a donc A0 = B1 ∩ B2 ∩ B3 et

P( A0 ) = P( B1 ).P( B2 | B1 ).P( B3 | B1 ∩ B2 ).

D’où
a( a − 1)( a − 2)
P( A 0 ) = .
( a + b)( a + b − 1)( a + b − 2)

Proposition [Link] (Formule des probabilités totales)

Soit (Ω, P (Ω), P) un espace probabilisé et A1 , . . . An un système complet d’événements. Pour tout
événement B on a
n n
P( B ) = ∑ P( B ∩ Ai ) = ∑ P( Ai ).P( B| Ai ).
i =1 i =1

Remarques :
1. En théorie, on ne peut appliquer la partie à droite de la formule que si les événements Ai ont des
probabilités non nulles afin de pouvoir déterminer P( B| Ai ). Cependant, on voit dans la formule que si
pour un (ou plusieurs) i on a P( Ai ) = 0, certes le terme P( B| Ai ) n’est pas défini, mais il est multiplié par
0. On a en effet P( Ai ∩ B) = 0 = 0.P( B| Ai ).
2. Cette formule est utile quand on a un système complet d’événements qui permet de "découper" l’univers.
Pour connaître la probabilités d’un événement il s’agit de connaître les probabilités de l’événement en
supposant être dans l’un cas.
3. On peut étendre cette formule en acceptant des événements de probabilité nulle dans le système complet.
Exemple : Toujours le même exemple. On considère une urne avec a boules blanches et b boules noires ( a > 4).
On suppose que toutes les boules sont semblables. On tire trois boules successivement et sans remise dans
l’urne. On note, pour i ∈ {1, 2}, Bi l’événement « la ième boule tirée est blanche ». On cherche à calculer P( B2 ).
On considère le système complet d’événement ( B1 , B1 ). On a
P( B2 ) = P( B1 ∩ B2 ) + P( B1 ∩ B2 )
= P( B1 ).P( B2 | B1 ) + P( B1 ).P( B2 | B1 )
a a−1 b a
= . + .
a+b a+b−1 a+b a+b−1
a
=
a+b
On peut présenter cela sous forme d’un arbre.

Exercice : Avec les notations de l’exemple précédent, calculer la probabilité que la troisième boule soit blanche.

354
Proposition [Link] (Formule de Bayes)

Soit (Ω, P (Ω), P) un espace probabilisé et A1 , . . . An un système complet d’événements. Soit B un


événement, pour tout i ∈ {1, . . . , n}, on a

P( A i ∩ B ) P( Ai ).P( B| Ai )
p B ( Ai ) = = n .
P( B ) ∑i=1 P( Ai ).P( B| Ai )

Remarques :
1. Cette formule est, dans un sens, la formule des probabilités totales "à l’envers". En effet, si on suppose que
l’on sait calculer P( Ai ) et P( B| Ai ), elle permet de savoir avec quelle probabilité on est dans l’événement
Ai en sachant que B est réalisé.
2. On utilise souvent le terme le plus à droite, mais il est plus simple de "retrouver" la formule que d’essayer
de s’en souvenir.
Exemple : Toujours le même exemple. On considère une urne avec a boules blanches et b boules noires ( a > 4).
On suppose que toutes les boules sont semblables. On tire trois boules successivement et sans remise dans
l’urne. On note pour i ∈ {1, 2}, Bi l’événement « la ième boule tirée est blanche ». On suppose que la deuxième
boule tirée est blanche et on veut savoir quelle est la probabilité que la première le fut. C’est à dire on veut
calculer P( B1 | B2 ). La formule de Bayes donne alors :

P( B1 ).P( B2 | B1 ) a ( a − 1) a−1
P( B1 | B2 ) = = = .
P( B1 ).P( B2 | B1 ) + P( B1 ).P( B2 | B1 ) a( a − 1) + a.b a+b−1

3 Indépendance
3.1 Indépendance de deux événements
Nous dirons que deux événements sont indépendants quand le fait de savoir que l’un est réalisé (ou non)
n’influe pas sur la probabilité que l’autre le soit.

Définition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé et A et B deux événements. On dit que A et B sont indépendants si

P( A ∩ B) = P( A).P( B).

Remarque : Cela correspond à l’intuition. En effet si P( B) 6= 0 alors A et B sont indépendants si et seulement


P( A ∩ B )
si p B ( A) = = P( A ).
P( B )
Exemples :
1. Toujours le même exemple. On considère une urne avec a boules blanches et b boules noires ( a > 4). On
suppose que toutes les boules sont semblables. On tire deux boules successivement dans l’urne. On note
pour i ∈ {1, 2}, Bi l’événement « la ième boule tirée est blanche ».
— on suppose que l’on procède à un tirage avec remise. Les événements B1 et B2 sont indépendants.
— on suppose que l’on procède à un tirage sans remise. Les événements B1 et B2 ne sont pas indépen-
dants.
2. On lance un dé à 6 face. On a donc Ω = [[ 1 ; 6 ]]. On considère les événements A = {4, 5} et B = {5, 6} d’où
A ∩ B = {5}. On munit alors Ω de deux probabilités. La probabilité uniforme notée p1 et la probabilité p2
définie par
p2 (6) = 1/3; p2 (5) = p2 (4) = 1/6; p1 (1) = p2 (2) = p2 (3) = 1/9.
Les événements A et B ne sont pas indépendants pour p1 mais ils le sont pour p2 .
Remarque : Contrairement à l’intuition que l’on a, la notion d’indépendance dépend de la probabilité. Nous le
voyons à l’exemple 2. En général, nous ne démontrerons pas l’indépendance des événements par le calcul. De
fait l’indépendance découlera souvent de la modélisation.

355
Définition [Link]

Deux épreuves sont indépendantes si leurs résultats sont indépendants. C’est à dire que si A est un événement
portant sur la première épreuve et B un événement portant sur la deuxième alors :

P( A ∩ B ) = P( A ) × P( B ).

Exemple : On lance deux fois un dé à 6 faces. On suppose que les deux lancers sont indépendants. Soit A
l’événement « faire un nombre pair au premier lancer »et B l’événement « ne pas faire 6 au deuxième lancer ».
Comme les épreuve sont indépendantes, les deux événements sont indépendants et

5
P( A ∩ B ) = P( A ) × P( B ) = .
12
Remarque : dans la définition précédente nous avons volontairement été flou sur les univers. Essayons d’être
un peu sérieux. Soit E1 et E2 deux épreuves que l’on suppose indépendantes. Soit Ω1 et Ω2 les univers décrivant
deux épreuves. Alors l’ensemble des deux épreuves peut être décrit par l’univers Ω1 × Ω2 l’univers décrivant
l’ensemble des deux épreuves. Soit A ⊂ Ω1 un événement portant sur la première épreuve, on considère
alors l’événement A0 = A × Ω2 ⊂ Ω1 × Ω2 . De même on regarde B0 = Ω1 × B ⊂ Ω1 × Ω2 où B ⊂ Ω2 est un
événement portant sur la deuxième épreuve. On en déduit que

P( A 0 ∩ B 0 ) = P( A 0 ) × P( B 0 ) = P( A ) × P( B ).

Dans l’exemple précédent, Ω1 = Ω2 = [[ 1 ; 6 ]] . L’événement A (resp. B) est {2, 4, 6} (resp. {1, 2, 3, 4, 5}) et
A0 = {2, 4, 6} × [[ 1 ; 6 ]] (resp. [[ 1 ; 6 ]] × {1, 2, 3, 4, 5}). On a alors A0 ∩ B0 = {2, 4, 6} × {1, 2, 3, 4, 5}.

ATTENTION

il arrive de penser que des événements sont indépendants quand ils ne le sont pas. On considère
deux pièces. La pièce A est équilibrée et la pièce B fait pile avec un probabilité 1/3. On tire une pièce
au hasard et on la lance deux fois de suite. Les deux lancers sont-ils indépendants ? On note P1 (resp.
P2 ) l’événement « on a fait pile au lancer 1 (resp. au lancer 2) ». On a alors que P1 et P2 ne sont pas
indépendants pour la probabilité de l’expérience totale P. Par contre, ils sont indépendants pour la
probabilité P A et PB

3.2 Indépendance mutuelle


On se fixe un espace probabilisé (Ω, P (Ω), P). La question est alors comment définir la notion d’indépen-
dance de trois événements. On pense naturellement à deux définitions.
— Définition 1. Trois événements A, B et C sont indépendants si

P( A ∩ B ∩ C ) = P( A ) × P( B ) × P( C ).

— Définition 2. Trois événements A, B et C sont indépendants si

P( A ∩ B) = P( A) × P( B), P( A ∩ C ) = P( A) × P(C ) et P( B ∩ C ) = P( B) × P(C ).

Malheureusement comme nous allons le voir ci-dessous aucune des deux n’implique l’autre.
Exercices :
1. On considère un dé à 6 face équilibré ainsi que les événements suivants :

A = {1, 2, 3}, B = {2, 3, 4} et C = {1, 2, 4, 5}.

Les événements A, B et C vérifient-ils les conditions des définitions 1 et 2.


2. On considère deux dés à 6 face équilibrés ainsi que les événements suivants :
— A = « on obtient 6 au premier lancer »
— B = « on obtient 6 au deuxième lancer »
— C = « on obtient le même chiffre aux deux lancers »

356
Les événements A, B et C vérifient-ils les conditions des définitions 1 et 2.
Pour pallier à ce problème, nous dirons que trois événements sont équivalents s’ils vérifient les deux
propriétés.

Définition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé.


— Trois événement A, B et C sont dits mutuellement indépendants si,

P( A ∩ B ∩ C ) = P( A) × P( B) × P(C ), P( A ∩ B) = P( A) × P( B), P( A ∩ C ) = P( A) × P(C ) et P( B ∩ C ) = P( B) ×

— Plus généralement des événements ( Ai )i∈[[ 1 ; n ]] sont mutuellement indépendants si, pour tout J ⊂
[[ 1 ; n ]], on a  
\
p Aj  = ∏ P( A j ).
j∈ J j∈ J

Comme ci-dessus on peut étendre cette définition au cas d’épreuves mutuellement indépendantes.

Définition [Link]

Des épreuves sont indépendantes si leurs résultats sont indépendants.

Exemple : On a une pièce qui faire pile avec la probabilité p ∈]0, 1[. On lance 5 fois cette pièce, on suppose que
les lancers sont indépendants et on veut calculer la probabilité des événements suivants

A = « on a fait que des piles » et B = « on a fait un face et un seul ».


On va soigner la rédaction...
L’univers est Ω = { P, F }5 . Pour i ∈ [[ 1 ; 5 ]] , on note Pi l’événement « on obtient pile au lancer i » et Fi = Pi .
Dès lors A = P1 ∩ P2 ∩ P3 ∩ P4 ∩ P5 . On a donc

P( A) = P( P1 ) × P( P2 | P1 ) × · · · × P( P5 | P1 ∩ P2 ∩ P3 ∩ P4 ).

Les lancers étant indépendants, on obtient, P( A) = p5 .


Maintenant on veut déterminer B. Il faut distinguer selon le numéro du lancer qui amène le face. Précisément
on a :
B = ( F1 ∩ P2 ∩ P3 ∩ P4 ∩ P5 ) ∪ ( P1 ∩ F2 ∩ P3 ∩ P4 ∩ P5 ) ∪ · · · ∪ ( P1 ∩ P2 ∩ P3 ∩ P4 ∩ F5 ).
Maintenant ces événements sont disjoints. De plus ils ont tous pour probabilité (1 − p) p4 d’après le raisonnement
précédent. On a donc
P( B) = 5p4 (1 − p).
Exercice : Avec les notations de l’exemple précédent, calculer la probabilité d’obtenir exactement 3 faces.

357
1 Généralités
25 Séries
359
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
2 Séries de références 361
2.1 Séries géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
2.2 Séries de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
2.3 Comparaison séries - intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
3 Séries à termes positifs 363
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
3.2 Théorème de comparaison pour les séries à termes positifs . . . . . . . . . . . . . . . . . . . . . 365
4 Séries absolument convergentes 366
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
4.2 Applications aux séries dont le terme général n’a pas un signe constant . . . . . . . . . . . 366
5 Représentation décimale des réels 367

Une série est une somme infinie de nombres. La question qui nous occupera sera de savoir si ces sommes
infinies convergent ou non. Dans ce chapitre, K désigne R ou C.
Exemples :
1. On a
1 + 1 + · · · + 1 + · · · → ∞ (∼ n)
2. On a
1 1 1
1+ + + · · · + + · · · → ∞ (∼ ln n)
2 3 n
3. On a
1 1 1
1+ + + · · · + n + · · · → 2.
2 4 2

358
1 Généralités
1.1 Définitions
Définition [Link]

Soit (un )n∈N une suite à valeurs dans K. On appelle suite des sommes partielles la suite (Sn )n∈N par
n
∀n ∈ N, Sn = ∑ uk .
k =0

On appelle série de terme général un et on note ∑ un le couple ((un ), (Sn )).

Remarque : Il arrive que l’on ne veut pas commencer à 0 mais à un entier n0 (la plupart de temps 1). On note
n
alors ∑ un la série dont les sommes partielles sont, pour n > n0 , ∑ uk . Dans la suite, on ne traitera que le
n>n0 k = n0
cas des séries qui commencent à 0.
Exemples :
n
1. Pour la série ∑ 1. On a donc pour n > 0, Sn = ∑ 1 = n + 1.
k =0
n  n
1 1 1 − (1/2)n+1 1
2. Pour la série ∑ n
. On a donc pour n > 0, Sn = ∑ k = = 2− .
2 k =0 2
1 − (1/2) 2

Définition [Link]

Soit ∑ un une série.


1. Si la suite des sommes partielles converge, on dit que la série est dite convergente. On note alors
+∞
S= ∑ uk la limite des sommes partielles. On l’appelle la somme de la série.
k =0
2. Si la suite des sommes partielles diverge, on dit que la série est divergente.

Remarque : Le fait d’être convergente ou divergente est la nature de la série.


Exemples :
1
1. Les séries ∑ 1 et ∑ divergent.
n
1
2. La série ∑ n converge. Sa somme vaut
2

1
∑ 2n = 2.
n =0

Définition [Link]

Soit ∑ un une série convergente. Pour tout p > 0 on appelle reste d’ordre p,

∞ ∞ p −1
Rp = ∑ uk = ∑ uk − ∑ u k = S − S p −1 .
k= p k =0 k =0

Remarque : On ne peut pas parler de reste d’une série divergente.


1
Exemple : Si on reprend encore la série ∑ n on a
2

1 n
1 1 1 − (1/2)n− p+1 1
Rp = ∑ 2 k
= lim
n→∞
∑ 2 k
= lim
n→∞ 2 p 1 − ( 1/2 )
= p −1
2
k= p k= p

359
1.2 Propriétés
Proposition [Link] (Linéarité de la somme)

Soit ∑ un et ∑ vn deux séries et λ, µ deux scalaires.


1. Si ∑ un et ∑ vn convergent alors ∑(λun + µvn ) converge.
∞ ∞ ∞
2. Dans ce cas, ∑ (λuk + µvk ) = λ ∑ uk + µ ∑ vk .
k =0 k =0 k =0

Remarque : Cela signifie que l’ensemble des séries convergentes est un sous-espace vectoriel de l’ensemble des
séries. De plus l’application définie sur ce sous-espace vectoriel qui associe à une série sa somme est linéaire.
Démonstration : Soit n ∈ N on a
n n n
∑ (λuk + µvk ) = λ ∑ uk + µ ∑ vk .
k =0 k =0 k =0

n n ∞ ∞
Maintenant, par hypothèses ∑ uk et ∑ vk convergent vers ∑ uk et ∑ vk respectivement. La conclusion en
k =0 k =0 k =0 k =0
découle d’après le théorème d’opération sur les limites de suites. 
Remarque : Par contre la somme de deux séries divergentes n’est pas toujours divergente. Par exemple
1
∑ 1 + 2n et ∑(−1).
Proposition [Link] (Lien série suite)

Soit un une suite. Les propositions suivantes sont équivalentes


i) La suite (un ) est convergente.
ii) La série de terme général uk+1 − uk est convergente.
De plus, si elles sont satisfaite on a

lim(un ) = u0 + ∑ u k +1 − u k .
k =0

Démonstration : Il suffit d’utiliser le télescopage :


n
∀n ∈ N, ∑ u k +1 − u k = u n +1 − u 0 .
k =0


1
Exemple : Pour étudier la série ∑ n ( n + 1)
, il suffit de remarquer que
n >1

1 1 1
∀n ∈ N? , = − .
n ( n + 1) n n+1

1 1
Or → 0 donc la série étudié converge et ∑ = 1.
n n =1
n ( n + 1)

Proposition [Link]

Soit ∑ un une série. Si elle converge alors le terme général un tend vers 0.

360
ATTENTION

1
Ce n’est pas une équivalence. On a vu par exemple que ∑ diverge.
n

Démonstration : Soit ∑ un une série convergente. Pour tout entier n non nul on a

n n −1
un = ∑ uk − ∑ uk .
k =0 k =0

n n −1
Maintenant si la série converge, ∑ uk et ∑ uk tendent toutes les deux vers la somme de la série. La différence
k =0 k =0
tend donc vers 0. 
Remarque : On peut se servir de la contraposée pour montrer la divergence d’une série. Si le terme général ne
tend pas vers 0 alors la série diverge. On dit qu’elle diverge grossièrement.

2 Séries de références
2.1 Séries géométriques
Les séries géométriques sont les plus simples. Elles servent assez souvent en probabilités.

Théorème [Link] (Séries géométriques)

Soit z ∈ C. La série de terme général zn est convergente si et seulement si |z| < 1. Dans ce cas la
somme de la série est

1
∑ zk = 1 − z .
k =0

Démonstration : On commence par exclure le cas où z = 1. Dans ce cas, la série diverge. On remarque ensuite
que si |z| > 1 alors pour tout entier k, |z|k > 1. De ce fait la série diverge grossièrement. A l’inverse, si |z| < 1, il
suffit de calculer les sommes partielles. Soit n ∈ N,
n
1 − zk 1 zk
∑ zk = 1−z
= +
1−z 1−z
.
k =0

zk 1 1
On a = |z|k × qui tend donc vers 0. La série converge bien vers . 
1−z 1−z 1−z

Exercice : Étudier la nature (et l’éventuelle somme) de la série ∑ nzn .

2.2 Séries de Riemann


Définition [Link] (Séries de Riemann)

On appelle séries de Riemann les séries de la forme ∑ ns où s ∈ R.


On considère ici des séries qui commencent à n = 1.

Théorème [Link] (TRES IMPORTANT)

1
La série de Riemann ∑ est convergente si et seulement si s > 1.
ns

361
Démonstration : Si s 6 0, la série diverge grossièrement. On suppose par la suite que s > 0. On sait que la
fonction t 7→ ts est décroissante sur R?+ . De ce fait pour tout k > 1,
Z k +1 Z k +1 Z k +1
1 dt dt dt 1
= 6 6 = .
( k + 1) s k ( k + 1) s k ts k ks ks

On en déduit que, pour k > 2 :


Z k +1 Z k
dt 1 dt
6 6 .
k ts ks k −1 ts
On somme et on utilise la relation de Chasles :
Z n +1 n Z k +1 n n Z k Z n
dt dt 1 dt dt
∀n > 2,
ts
= ∑ t s
6 ∑ s 6 ∑
k k −1 ts
=
ts
.
2 k =2 k k =2 k =2 1

— Si s > 1 on a donc
Z n
n
1 dt 1 h 1− s i n 1 1
∑ ks 6 1 ts
=
1−s
t
1
=
s−1
(1 − n 1− s ) 6
s−1
k =2

On en déduit que la suite des sommes partielles est majorée. Comme elle est croissante, elle converge. La
série est bien convergente.
— Si s = 1 on a cette fois,
Z n +1 n
dt 1
ln(n + 1) − ln(2) 6
2 t
6 ∑ k
.
k =2
On en déduit que la suite des sommes partielles tend vers +∞ et donc la série diverge.
— Si s < 1 on procède comme pour le cas s = 1.
Notons que on ne regarde les sommes partielles qu’à partir de k = 2 mais cela ne change rien à la convergence.

Remarque : La limite des sommes de Riemann est difficile à calculer dans la majorité des cas. On pose
+∞
1
∀s ∈]1, +∞[, ζ (s) = ∑ n s
.
n =0

On sait calculer la valeur de la fonction ζ aux entiers pairs :

π2 π4
ζ (2) = , ζ (4) = .
6 90
De manière générale, ζ (2k) = Ck π 2k où Ck ∈ Q. On sait peut de choses que les ζ (2k + 1). On conjecture que ce
sont tous des irrationnels comme ζ (3) (Apéry : 1979).

2.3 Comparaison séries - intégrales


La méthode utilisé pour la preuve de la convergence (ou divergence) des séries de Riemann peut-être
généralisée.

Théorème [Link]

Soit f une fonction continue monotone sur R+ et 0 6 p < n.


1. Si f est croissante on a
Z n n Z n +1

p
f (t) dt 6 ∑ f (k) 6
p +1
f (t) dt.
k = p +1

2. Si f est décroissante on a
Z n +1 n Z n

p +1
f (t) dt 6 ∑ f (k) 6
p
f (t) dt.
k = p +1

362
Démonstration

Remarques :
1. Si f est définie sur R en entier on peut même prendre p = 0.
1
2. La démonstration des séries de Riemann repose sur ces cas avec f : t 7→ qui est décroissante.
ts
3. Ces calculs sont juste les inégalités que l’on obtient en cherchant une valeur approchée d’une intégrale par
la méthode des rectangle (pour un pas h = 1.)
Exemples :
1. On peut montrer la convergence (ou la divergence) des séries de Riemann en prenant la bonne inégalités.
1
2. Si on cherche la nature de ∑ . On procède de même. La suite des sommes partielles est croissante
n>2
n ln n
1
on cherche donc juste à majorer ou minorer. Comme t 7→ est décroissante on est dans le deuxième
t ln t
cas : Z n +1 Z n
n
dt 1 dt
6 ∑ 6 .
3 t ln t k =3
k ln k 2 t ln t
Z x
dt
Or = ln(ln x ). En prenant la minoration, on montre que la série diverge.
t ln t
3. Si on reprend la série précédente, on a montré la divergence mais on peut même trouver un équivalent de
la suite des sommes partielles. En effet
Z n +1 n Z n
dt 1 dt
ln(ln(n)) ∼ ln(ln(n + 1)) − ln(ln(3)) = 6 ∑ 6 = ln(ln n) − ln(ln 2) ∼ ln(ln n).
3 t ln t k =3
k ln k 2 t ln t

On en déduit que
n
1
∑ k ln k
∼ ln(ln).
k =3

4. Dans le cas d’une série convergente, ce genre de méthode permet aussi de trouver un équivalent du reste
(qui tend vers 0). Si on reprend la série de Riemann pour s > 1. On a pour tout n > p > 1
  s −1   s −1 ! Z n +1 n Z n   s −1   s −1 !
1 1 1 dt 1 dt 1 1 1
− = s
6 ∑ s 6 s
= − .
s−1 p+1 n+1 p +1 t k = p +1
k p t s−1 p n

On sait que le terme central tend vers le reste R p quand n tend vers +∞. De plus, la limite
  s −1   s −1
1 1 1 1
6 Rp 6 .
s−1 p+1 s−1 p
On en déduit donc que
  s −1
1 1
Rp ∼ .
s−1 p
Exercices :
n
1
1. Déterminer un équivalent de ∑ ks
pour 0 < s < 1.
k =1
1
2. Montrer que la série de terme général ∑ converge et déterminer un équivalent du reste R p .
k ln2 k

3 Séries à termes positifs


Dans tout ce paragraphe nous supposeront que les termes de la série (les uk ) sont des réels positifs. Tous les
résultats se généralise (en adaptant) aux séries à termes négatifs en multipliant par −1.

363
3.1 Généralités
Proposition [Link]

Soit ∑ un une série à termes positifs. La suite des sommes partielles est croissante.

Démonstration : Evident. 
On peut appliquer le théorème de convergence monotone.

Proposition [Link]

Soit ∑ un une série à termes positif. Elle est convergente si et seulement si la suite des sommes
partielles est majorée.

En pratique on majore (ou minore) souvent par une autre série.

Théorème [Link]

Soit ∑ un et ∑ vn deux séries à termes positifs. On suppose que pour tout entier n, un 6 vn .
+∞ +∞
1. Si ∑ vn converge alors ∑ un aussi et ∑ un 6 ∑ vn .
n =0 n =0
2. Si ∑ un diverge alors ∑ vn aussi.

ATTENTION

Par contre, avec les hypothèses ci-dessus, le fait que ∑ vn diverge ne donne aucune information sur
la nature de la série ∑ un . De même le fait que ∑ un converge ne donne pas d’information sur la
nature ∑ vn .

Remarque : Comme dans le cas classique pour les suites, on peut supposer que l’inégalité un 6 vn ne soit vraie
qu’à partir d’un certain rang. Cependant, on n’a plus l’information sur les sommes dans ce cas.
Démonstration : Si on note Un et Vn les sommes partielles. On a donc

∀n ∈ N, Un 6 Vn .

1. Si on suppose que ∑ vn converge et si on note V = lim Vn on en déduit que pour tout entier n,
n→+∞

Un 6 Vn 6 V.

De ce fait (Un ) est majorée par V (et pas par Vn ce qui ne voudrait rien dire...). Comme elle est croissante
elle converge et
lim Un 6 V.
n→∞

2. Si on suppose que ∑ un diverge alors nécessairement lim(Un ) = +∞ car la suite des sommes partielles
est croissante. par comparaison lim(Vn ) = +∞ et donc ∑ vn diverge.

Exemples :
1
1. Cherchons la nature ∑ . On a déjà vu que l’on peut montrer que cette série est convergente (et
n ( n + 1)
on peut même calculer sa somme) par un télescopage. On peut aussi dire directement,
1 1
∀n ∈ N? , 0 6 6 2
n ( n + 1) n

364
1 1
or ∑ est une série de Riemann convergente donc ∑ converge (par contre ainsi on n’obtient
n2 n ( n + 1)
qu’une majoration de la somme par ζ (2)).
1
2. Cherchons la nature ∑ . On a pour tout entier n > 2,
n>2
ln n

1 1
06 6 .
n ln n
1
On sait que la série harmonique diverge donc ∑ ln n
diverge aussi.
n >2

ATTENTION

Cela n’est bien évidemment plus vrai si la série n’est pas à termes positifs.

3.2 Théorème de comparaison pour les séries à termes positifs


Dans le cas précédent on a vu que l’on pouvait déduire la nature de ∑ un si ∑ vn convergeait mais que l’on
avait aucune information si cette dernière divergeait. On va résoudre ce problème grace à des équivalents.

Théorème [Link] (Théorème de comparaison pour les séries à termes positifs)

Soit ∑ un et ∑ vn deux séries à termes positifs. On suppose que un ∼ vn alors ∑ un et ∑ vn sont de


même nature.

Remarques :
1. Ce théorème est TRES utile. Dans la très grande majorité des cas pour étudier la nature d’une série à
termes positifs on cherche un équivalent simple (via un DL par exemple) et on en déduit ainsi sa nature.
2. On utilisera dans ce cours l’abbreviation TCPSP.
3. Il suffit que les deux séries soient positives à partir d’un certain rang.

ATTENTION

Cela n’est plus vrai si la série n’est pas à termes positifs (ou à termes de signe constant). Par exemple
(−1)n
la série de terme général un = converge (voir DM ? ou le faire avec les séries alternées ou la
n
(−1)n 1
formule de Taylor pour ln) mais la série de terme générale vn = + diverge (somme
n n ln n
d’une série convergente et d’une série divergente) par contre on a bien un ∼ vn .

un
Démonstration : Par définition → 1. De ce fait il existe N ∈ N tel que
vn
1 un 3
∀n ∈ N, n > N ⇒ 6 6
2 vn 2
(définition de la limite en prenant ε = 1/2). C’est-à-dire que

1 3
∀n ∈ N, n > N ⇒ vn 6 un 6 vn
2 2
On en déduit (grace à l’inégalité de droite) que si ∑ vn converge alors ∑ un aussi. De plus, l’inégalité de gauche
nous permet de dire que ∑ vn diverge alors ∑ un aussi.
On en déduit que ∑ un a la même nature que ∑ vn .


365
Remarque : On voit dans la preuve que ce qui compte est qu’il existe (m, M ) ∈ R∗+ tels que, à partir d’un
certain rang,
un
∀n ∈ N, n > N ⇒ m 6 6M
vn
un
C’est en particulier vrai si a une limite finie non nulle (et pas nécessairement 1).
vn
Exemples :
3n + 2 3n + 2 3 1
1. La série de terme général ∑ 3 converge car 3 ∼ 2 et que ∑ 2 est une série de Riemann
n + ln n n + ln n n n
convergente.
3 + n ln n 3 + n ln n ln n ln n
2. La série de terme général ∑ 2 converge car 2 ∼ et que ∑ diverge car
n +n+1 n +n+1 n n
ln n 1
> et que cette dernière est une série de Riemann divergente.
n n

4 Séries absolument convergentes


On a vu les critères de convergences pour les séries à termes de signe constant. Voyons un peu ce que l’on
peut faire pour des séries dont le terme général ne garde pas un signe constant (ou même des séries à termes
complexes).

4.1 Définition
Définition [Link]

Soit ∑ un une série éventuellement complexe. On dit qu’elle est absolument convergente si la série (à termes
réels positifs) ∑ |un | est convergente.

Remarque : L’intérêt est que pour savoir si une série est absolument convergente, on est ramené à étudier une
série à termes (réels) positifs.
Exemples :
(−1)n (−1)n 1 1
1. La série ∑ n’est pas absolument convergente car = et que ∑ n’est pas convergente.
n n n n
cos(n) cos(n)
2. La série ∑ 2
est absolument convergente car ∑ est une série à termes positifs et que
n n2
cos(n) 1
6 2 cette dernière étant une série de Riemann convergente.
n2 n

4.2 Applications aux séries dont le terme général n’a pas un signe constant
Le résultat principal est qu’une série complexe (ou réelle) absolument convergente est convergente.
Rappels : Si x est un réel on note x + (resp. x − ) la partie positive (resp. négative) de x. C’est-à-dire que
 
+ x si x > 0 − 0 si x > 0
x = et x =
0 sinon − x sinon
De ce fait on a x = x + − x − et | x | = x + + x − .

Théorème [Link]

Soit ∑ un une série éventuellement complexe. Si elle est absolument convergente alors elle est
convergente.

ATTENTION

(−1)n
Ce n’est pas une équivalence. Par exemple ∑ n’est pas absolument convergente mais elle est
n
convergente. On dit que c’est une série semi-convergente.

366
Remarque : Les séries semi-convergentes sont des objets dangereux à manipuler. En effet on peut montrer
qu’en réordonnant les termes de la série on modifie la somme. Plus précisément on peut la faire tendre vers la
valeur voulue.
Démonstration :
— Commençons par étudier le cas où ∑ un une série à termes réels absolument convergente. On considère
les séries à termes positifs ∑ u+n et ∑ un . Comme on sait que pour tout entier n, un 6 | un | et un 6 | un |
− + −

et que ∑ |un | est une série convergente, on en déduit que ∑ un et ∑ un sont des séries convergentes. Par
+ −

linéarité on obtient alors que ∑ un est une série convergente.


— On suppose que ∑ un une série à termes complexes absolument convergente. On considère les séries
à termes réels ∑ Re(un ) et ∑ Im(un ). Là encore on sait que |Re(un )| 6 |un l et |Im(un )| 6 |un l. Les
séries ∑ Re(un ) et ∑ Im(un ) sont donc des séries à termes réels absolument convergentes. D’après ce
qui précède, elles convergent. On en déduit que ∑ un converge par linéarité.


Corollaire [Link]

Soit ∑ un une série à termes (éventuellement) complexes et ∑ vn une série à termes réels positifs.
On suppose que
— on a un = O(vn )
— la série ∑ vn converge
Alors la série ∑ un est absolument convergente (donc convergente).

Démonstration : Ce sont les même arguments que précédemment. Remarques :


1. Si on a un = o (vn ) cela marche encore car cela implique que un = O(vn ).
2. On utilise souvent ce critère avec les séries de Riemann. En particulier si la série ∑ un vérifie qu’il existe
α STRICTEMENT
  supérieur à 1 tel que nα un est bornée (ce qui est vrai si elle a une limite finie) alors
1
un = O et donc ∑ un converge.

Remarque : C’est la méthode la plus classique pour démontrer la convergence d’une série qui n’est pas à
termes positifs.

5 Représentation décimale des réels


On veut définir la représentation décimale des réels. Précisément, on va montrer que l’on peut écrire tous les
réels positifs sous une forme d’une suite infinie de la forme
+∞
αn
x = α0 + ∑ 10 n
où α0 ∈ N et ∀n > 1, αn ∈ [[ 0 ; 9 ]] .
n =1

Par exemple
1 4 1
π = 3+ + + +···
10 100 1000
Remarque : On va restreindre les chiffres. En effet si on prend ∀n ∈ N∗ , αn = 9 on obtient le nombre 1 :
0, 999999 · · · = 1.
Pour s’en convaincre il suffit de calculer la limite des sommes partielles (séries géométriques) où de voir que
10x − x = 9.

Définition [Link]

On appelle développement décimal la donnée d’une suite (αn ) telle que

α0 ∈ N et ∀n > 1, αn ∈ [[ 0 ; 9 ]] .

Si de plus, la suite n’est pas stationnaire à 9 on dit que le développement décimal est propre.

367
Notation : On notera D l’ensemble des développements décimaux propres.

Théorème [Link]

Tout nombre réel positif admet un unique développement décimal propre. C’est-à-dire que l’applica-
tion
ϕ: D → R+
+∞
αn
(αn ) 7→ ∑ n
n =0
10
est une bijection.

Remarque : On peut commencer par voir que la série est clairement convergente car ∀n ∈ N∗ , αn 6 10.
Démonstration :
— Pour la surjectivité (ou l’existence) il suffit d’utiliser le développement décimal par défaut en remplaçant
une éventuelle suite stationnaire à 9 par une suite stationnaire à 0 avec « une retenue ».
— Pour l’injectivité (ou l’unicité) on suppose se donner deux développements décimaux propres distincts
(αn ) et ( β n ) et on va montrer que
+∞ +∞
αn βn
∑ 10n 6= ∑ 10n .
n =0 n =0

Notons p le plus petit entier tel que α p 6= β p et, par symétrie on peut supposer que α p > β p . On va alors
montrer que
+∞ +∞
αn βn
A= ∑ n
− ∑ n
> 0.
n= p 10 n= p 10

αp − β p +∞
αn − β n
On a A = p + ∑ où, pour tout n > p + 1, −9 6 αn − β n 6 9. De plus, les développe-
10 n = p +1
10n
ments étant propres, il existe q > p + 1 tel que |αq − β q | 6 8. On en déduit alors que
+∞ +∞
αn − β n αn − β n
∑ 10n 6 ∑ 10n
n = p +1 n = p +1
+∞
9 8
= ∑ 10 n
+ q
10
p + 16 n
n6=q
+∞
9 1
6 ∑ 10 n

q
n = p +1
+∞
9 1
< ∑ 10 n
= p
10
n = p +1

Or α p − β p > 1 donc A > 0.


On en déduit que ϕ(αn ) 6= ϕ( β n ) et donc ϕ injective.


368
1 Définitions
26
Matrices
369
1.1 Motiviation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
1.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
1.3 L’espace vectoriel Mn,p (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
1.4 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
1.5 Produit dans Mn (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
1.6 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
1.7 Quelques matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
1.8 Calculs par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
2 Matrices et applications linéaires 379
2.1 Matrice d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
2.2 Application linéaire canoniquement associée à une matrice . . . . . . . . . . . . . . . . . . . 380
2.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
2.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
2.5 Cas des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
3 Changements de bases 385
3.1 Matrices de changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
3.2 Changement de base des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
3.3 Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
4 Rang d’une matrice 390
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
4.2 Calcul du rang - Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
5 Applications aux systèmes linéaires 394
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
5.2 Determination de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395

Dans ce chapitre K désigne R ou C.

1 Définitions
1.1 Motiviation
On a vu dans le chapitre sur les applications linéaires que si E et F sont des espaces vectoriels de dimension
finie (dim E = p, dim F = n) et si on se fixait des bases (e1 , . . . , e p ) et ( f 1 , . . . , f p ) de E et F respectivement alors

369
une application linéaire de E dans F était uniquement déterminée par la donnée de scalaires ( aij )16i6n . On va
16 j 6 p
donc stocker ses scalaires dans un tableau à deux dimensions que nous appellerons matrice.

1.2 Définitions
Définition [Link]

Soit (n, p) ∈ (N? )2 . On appelle matrice à n lignes et p colonnes et à coefficients dans K, la donnée d’une
application de [[ 1 ; n ]] × [[ 1 ; p ]] dans K. On dit que c’est une matrice de taille n, [Link] revient à se donner
une famille ( aij ) d’éléments de K indexée par [[ 1 ; n ]] × [[ 1 ; p ]] en convenant que aij est l’image de (i, j) par
l’application.

Notations :
1. On représente une matrice à n lignes et p colonnes, sous la forme d’un tableau à n lignes et p colonnes :
 
a11 · · · a1p
 ..  .
A =  ... . 
an1 · · · anp

On note aussi A = ( aij )16i6n .


16 j6 p
2. L’ensemble des matrices à n lignes et p colonnes à coefficient dans K se note Mn,p (K).
3. Si n = p, on dit que la matrice est carrée. L’ensemble des matrices carrées de taille n se note Mn (K).
4. Les nombres ( aij ) s’appellent les coefficients de la matrice.
5. On a coutume de désigner les matrices par des lettres majuscules : A, B, C, M, N, P, . . . .
 
a1j
 
6. On appelle j-ème colonne de la matrice A la matrice colonne Cj =  ...  . On appelle i-ème ligne de la
anj

matrice A la matrice la matrice ligne Li = ai1 · · · aip .
Exemples :
 
1 −1 0
1. La matrice A = ∈ M2,3 (R).
2 3 7
2. Si on prend n = 1, on a alors les
 matrices composées d’une seule ligne. On parle de matrice ligne. Par
exemple A = 1 −1 7 5 ∈ M1,4 (R).
3. Si on prend p = 1,on a alors
 les matrices composées d’une seule colonne. On parle de matrice colonne.
1
Par exemple A =  0  ∈ M3,1 (R). On voit ainsi que l’on peut identifier Kn à Mn,1 (K) et K à M1 (K).
−7
4. On note 0 (ou 0 ou 0Mn,p (K) ) la matrice dont tous les coefficients sont nuls. On l’appelles la matrice nulle.
5. Soit (i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] . On note Eij la matrice dont tous les coefficients sont nuls sauf celui qui est
en position (i, j). On a donc pour tout (α, β) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] , aαβ = δα,i δβ,j .
6. Soit n ∈ N? . On appelle matrice identité et on note I (ou In ) la matrice carrée dont tous les termes sont
nuls sauf les termes diagonaux qui valent 1. On a

2 1 si i = j
∀(i, j) ∈ [[ 1 ; n ]] , aij =
0 sinon.

On a  
1 0 ··· 0
 .. .. . 
 0
 . . .. 
.
In =  . 
 .. . . . . . . 0 
0 ··· 0 1

370
1.3 L’espace vectoriel Mn,p (K)
Soit n et p deux entiers non nuls.

Définition [Link] (Somme)

Soit ( A, B) ∈ Mn,p (K)2 . On note ( aij ) et (bij ) leurs coefficients respectifs. On définit la somme C ∈ Mnp (K)
que l’on note A + B comme la matrice dont les coefficients (cij ) vérifient :

∀(i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] , cij = aij + bij .

Remarques :
1. Cela correspond à la somme des applications.
2. Pour pouvoir faire la somme de deux matrices elles doivent avoir la même taille.
3. Cela consiste à faire la somme terme à terme. En particulier on retrouve la somme dans Kn pour les
matrices Mn,1 .
Exemple : On a      
1 2 −1 4 0 2 5 2 1
+ = .
0 2 9 −2 0 −7 −2 2 2

Définition [Link] (Produit externe)

Soit A ∈ Mn,p (K). On note ( aij ) ses coefficients. Soit λ ∈ K. On définit le produit λ.A comme la matrice
dont les coefficients (cij ) vérifient :

∀(i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] , cij = λ.aij .

Remarques :
1. C’est encore la multiplication externe des applications.
2. Cela consiste à multiplier tous les termes de la matrice par λ. En particulier on retrouve le produit externe
dans Kn pour les matrices Mn,1 .
Exemple : On a    
1 2 −1 −2 −4 2
(−2). = .
0 2 9 0 −4 −18

Théorème [Link]

Les opérations ci-dessus munissent Mn,p (K) d’une structure d’espace vectoriel.

Remarque : C’est juste une autre écriture de l’espace vectoriel F ( X, K) où X = [[ 1 ; n ]] × [[ 1 ; p ]] .

Proposition [Link]

Les matrices ( Eij ) pour (i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] forment une base de Mnp (K) que l’on appelle la
base canonique. En particulier,
dim Mnp (K) = np.

Démonstration : Cette famille engendre bien Mnp (K). En effet, pour toute matrice A. Si on note A = ( aij )16i6n .
16 j 6 p
Alors
A= ∑ aij Eij .
16 i 6 n
16 j 6 p

371
De plus, cette famille est aussi libre. Car si (λij )16i6n est une famille de scalaire telle que ∑ λij Eij = 0 alors
16 j 6 p 16 i 6 n
16 j 6 p
∀(i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] , λij = 0. C’est bien une base. 
Exercice : Montrer que        
1 1 1 0 1 0 0 2
, , ,
1 1 0 1 0 −1 0 0
est une base de M2 (K).

1.4 Produit de matrices


Notre but est de définir le produit de deux matrices. On pourrait penser que le plus simple est de définir le
produit comme le le produit termes à termes ce qui correspondrait au produit classique pour les applications
d’un ensemble X dans un corps K. Cependant, on va définir le produit autrement. La raison est que l’on veut
qu’il corresponde à la composition des applications linéaires.

Définition [Link]

Soit (n, p, q) ∈ (N? )3 , A ∈ Mnp (K) et B ∈ M pq (K). Le produit AB est la matrice C ∈ Mnq (K) dont les
coefficients (cij )16i6n sont donnés par :
16 j6 p

p
∀(i, j) ∈ [[ 1 ; n ]] × [[ 1 ; q ]] , cij = ∑ aik bkj .
k =1

ATTENTION

Pour pouvoir faire le produit AB, la matrice A doit avoir autant de colonne que B de lignes. En
particulier, si A et B sont de même taille, on ne peut faire le produit AB que si A et B sont carrées.
On en déduit que le produit n’est une loi de composition interne que dans Mn (K).

Proposition [Link] (Propriétés du produit matriciel)

Le produit matriciel vérifie les propriétés suivantes :


1. Il est associatif.
2. Il est distributif à droite et à gauche.

Démonstration : Nous le démontrerons plus tard.


Exemples :
1. Calculer dans M3 (K) les produits E11 E12 , E13 E23 et E12 E21 .
2. Soit (i, j, k, l ) quatre entiers. On a
Eij Ekl = δjk Eik
Remarque : Si on considère
ϕ: Mn,p (K) × M p,q (K) → Mn,q (K)
( A, B) 7→ AB
La distributivité à gauche (avec la compatibilité au produit externe) dit que pour toute matrice A, l’application

ϕ( A, •) : Mn ( K ) → Mn ( K )
B 7→ AB
est linéaire. De même, la distributivité à droite (avec la compatibilité au produit externe) dit que pour toute
matrice B, l’application
ϕ(•, B) : Mn (K) → Mn (K)
A 7→ AB
est aussi linéaire. On dit que ϕ est bilinéaire.

372
1.5 Produit dans Mn (K)
Définition [Link]

Soit A et B deux matrices de Mn (K). On dit que A et B commutent si AB = BA.

Exemples :
1. On a  
  3 0 2  
2 1 0 7 −1 6
. 1 −1 2  = .
0 1 −1 −3 −2 0
4 1 2
2. On appelle matrice scalaire toute matrice de la forme λIn pour λ ∈ K. Soit A ∈ Mn (K) on a alors
(λIn ) × A = A × (λIn ). En particulier, les matrices scalaires commutent à toutes les matrices.
Exercices :
1. Calculer AB et BA pour  
  4 1
2 1 0
A= et B =  0 0  .
1 −1 0
2 −4
2. Factoriser A + AB et A + BA.
3. Soit A ∈ Mn (K). Montrer que si A commutent à toutes les matrices de Mn (K) alors c’est une matrice
scalaire. On pourra calculer AEij et Eij A.

Proposition [Link]

Les opérations définissent ci-dessus munissent (Mn (K), +, ×) d’une structure d’anneau et
(Mn (K), +, ×, .) d’une structure de K-algèbre.

Démonstration : On peut, là encore, tout démontrer « à la main ». Cependant, nous verrons un peu plus loin
une méthode pour l’éviter. Nous repoussons donc la démonstration à plus tard. 
Remarque : L’élément neutre de Mn (K) est la matrice identité In . On vérifie en effet que A × In = In × A = A.

Proposition [Link]
 
0
 .. 
 . 
 
 1 
Soit A ∈ Mnp (K) et pour tout i ∈ [[ 1 ; n ]] on note X j =  
 0  ∈ Mn1 (K) où le 1 est à la j-ème
 
 . 
 .. 
0
ligne. Le produit AXi est la matrice colonne qui est la j-ème colonne de la matrice A. En particulier
si A et B sont deux matrices de Mnp (K) telles que ∀ j ∈ [[ 1 ; p ]] , AX j = BX j alors A = B.

Démonstration
Exercice : Faire la même chose pour les lignes.

Définition [Link]

Soit A une matrice de Mn (K). Elle est dite inversible si elle l’est dans l’anneau Mn (K) c’est-à-dire, s’il existe
une matrice B telle que
AB = BA = In .
Dans ce cas, l’inverse (qui est unique) est noté A−1 . L’ensemble des matrices inversibles de Mn (K) se note
GLn (K).

373
Remarque : Nous verrons plus loin que AB = In ou BA = In est suffisant pour que A soit inversible (et
B = A−1 ).    
1 1 1 3
Exemple : La matrice est inversible alors que ne l’est pas.
0 −1 −2 −6
Remarques :
1. On voit qu’il existe des matrices non nulles qui ne sont pas inversibles donc Mn (K) n’est pas un corps
(sauf si n = 1).
1
2. Les matrices n’étant pas un anneau commutatif (sauf si n = 1) il ne faut pas noter l’inverse de A.
A
3. Le fait qu’une matrice A soit inversible signifie que le système linéaire qu’elle représente est inversible (de
Cramer). Nous y reviendrons.

Proposition [Link]

Soit A et B deux matrices inversibles. La matrice AB est inversible et ( AB)−1 = B−1 A−1 .

Démonstration

Corollaire [Link]

L’ensemble des matrices inversibles est un groupe multiplicatif (GLn (K), ×) dont l’élément neutre
est In . Ce n’est pas un groupe abélien sauf si n = 1.

Proposition [Link] (Formule de binôme de Newton)

Soit ( A, B) ∈ Mn (K)2 et n un entier. Si A et B commutent,


n  
n
( A + B) = ∑
n
A p Bn− p .
p =0
p

Démonstration : On est dans un anneau.



   
2 1 0 1
Exemple : Soit A = . On veut calculer An . On remarque que A = 2I + N où N = . Or
0 2 0 0
N 2 = 0 et donc ∀ p > 2, N p = 0. On dit que N est nilpotente.
Comme 2I et N commutent car 2I est une matrice scalaire. On a donc pour tout entier naturel n,
n    n 
n 2 n2n−1
A = ∑
n p
N (2I ) n− p n
= (2I ) + n(2I ) n −1
N= .
p =0
p 0 2n
 
1/2 −1/4
On remarque que si on fait n = −1 dans la formule, on obtient . On vérifie alors que A est
  0 1/2
− 1 1/2 −1/4
inversible et que A = .
0 1/2

Définition [Link]

d
Soit MMn (K) et P ∈ K[ X ]. On note P = ∑ ak X k . On note
k =0

d
P( M) = ∑ ak Mk .
k =0

374
Proposition [Link]

L’opération ci-dessus est compatible aux structures d’algèbre de K[ X ] et de Mn (K) c’est-à-dire.


1. ∀( P, Q) ∈ K[ X ], ∀ M ∈ Mn (K), ( P + Q)( M) = P( M) + Q( M).
2. ∀( P, Q) ∈ K[ X ], ∀ M ∈ Mn (K), ( P × Q)( M) = P( M) × Q( M).
3. ∀ P ∈ K[ X ], ∀λ ∈ K, ∀ M ∈ Mn (K), (λP)( M ) = λ( P( M )).

Exemple : Soit  
0 1 −1
A =  −3 4 −3 .
−1 1 0
En calculant les premières puissances de A on se rend compte que A2 − 3A + 2I = 0..
On peut en déduire que A est inversible. En effet A( A − 3I ) = −2I. D’où A est inversible et A−1 =
1
(− A + 32I ).
2
De plus on peut en déduire que pour tout entier n, il existe ( an , bn ) ∈ Rn tels que An = an A + bn I. Cela se
fait par récurrence ou en utilisant une division euclidienne.

1.6 Transposition
Définition [Link]

Soit A ∈ Mnp (K). On note ( aij ) les coefficients de A. On appelle transposée de A et on note tA la matrice de
M pn (K) dont les coefficients (bij ) sont données par :

∀(i, j) ∈ [[ 1 ; p ]] × [[ 1 ; n ]] , cij = a ji .

Remarque : La transposée est donc obtenue parsymétrie. 


  1 0
1 2 −1
Exemple : Soit A = . On a tA =  2 2  .
0 2 9
−1 9

Proposition [Link]

Voici les propriétés de la transposition.



1. La transposition est involutive : ∀ A ∈ Mnp (K), t tA = A.
2. La transposition est linéaire : ∀( A, B) ∈ (Mnp (K))2 , ∀(λ, µ) ∈ K2 , t(λ.A + µ.B) = λ.tA + µ.tB.
3. Soit n, p, q trois entiers. Soit A ∈ M pq (K) et B ∈ Mnp (K) on a t( AB) = t( B)t( A).

Démonstration

1.7 Quelques matrices particulières


Dans ce paragraphe on fixe un entier n et on s’intéresse à des matrices de E = Mn (K).

375
Matrices triangulaires

Définition [Link] (Matrices triangulaires)

Soit A ∈ Mn (K). La matrice est dite triangulaire supérieure (resp. inférieure) si les coefficients « sous »(resp.
« au dessus de ») la diagonale sont nuls. C’est-à-dire :

∀(i, j) ∈ [[ 1 ; n ]]2 , (i > j) ⇒ aij = 0 (resp. (i < j) ⇒ aij = 0).

On note Tn (K) l’ensemble des matrices de E qui sont triangulaires supérieures.

 
1 2 3
Exemple : La matrice  0 5 0  est triangulaire supérieure.
0 0 −5

Proposition [Link]

n ( n + 1)
1. L’ensemble Tn (K) est un sous-espace vectoriel de E. Il est de dimension .
2
2. L’ensemble Tn (K) est stable par produit. C’est un sous-anneau de E.

Remarque : On dit alors que Tn (K) est une sous-algèbre de Mn (K).

Démonstration

Matrices diagonales

Définition [Link] (Matrices diagonales et matrices scalaires)

Soit A ∈ Mn (K). La matrice est dite diagonale si les coefficients en dehors de la diagonale sont nuls.
C’est-à-dire :
∀(i, j) ∈ [[ 1 ; n ]]2 , (i 6= j) ⇒ aij = 0.
Il existe donc (λ1 , · · · , λn ) tels que
 
λ1 0 ··· 0
 .. .. .. 
 0 . . . 
A=
 ..
.

 .. .. 
. . . 0
0 · · · 0 λn

Si de plus tous les λi sont égaux, la matrice est dite scalaire. Elle est alors de la forme λ.In pour λ ∈ K.
On note Dn (K) l’ensemble des matrices diagonales de E.

Remarque : Toutes la matrices scalaires sont diagonales mais il existe des matrices diagonales qui ne sont pas
scalaires.

Proposition [Link]

L’ensemble Dn (K) est un sous-espace vectoriel de E de dimension n. Il est stable par produit, c’est
une sous-algèbre de Mn (K).

Démonstration

376
Matrices symétriques et anti-symétriques

Définition [Link] (Matrices symétriques et anti-symétriques)

Soit A ∈ Mn (K). La matrice est dite symétrique (resp. antisymétrique) tA = A (resp. tA = − A). C’est-à-
dire :
∀(i, j) ∈ [[ 1 ; n ]]2 , aij = a ji (resp. aij = − a ji ).
En particulier, les termes diagonaux d’une matrice antisymétrique sont nuls. On note Sn (K) l’ensemble des
matrices symétriques de E et An (K) l’ensemble des matrices antisymétriques de E.

   
1 2 3 0 2 −3
Exemple : La matrice  2 5 0  est symétrique. La matrice  −2 0 0  est antisymétrique.
3 0 −5 3 0 −5

Proposition [Link]

On considère f l’endomorphisme transposé de Mn (K) dans lui même.


1. On a Sn (K) = Ker ( f − Id) et An (K) = Ker ( f + Id).
2. L’endomorphisme f est la symétrie par rapport à Sn (K) parallèlement à An (K). En particulière
Sn (K) ⊕ An (K) = E.
n ( n + 1) n ( n − 1)
3. On a dim(Sn (K)) = et dim An (K) = .
2 2

Remarques :
1. La décomposition d’une matrice A en somme d’une matrice symétrique et d’une matrice antisymétrique
s’écrit :
1  1 
A= A + tA + A − tA .
2 2
2. Pour toute matrice A, la matrice tAA est symétrique.

Trace d’une matrice

Définition [Link] (Trace)

Soit A ∈ Mn (K). On appelle trace de A et on note tr ( A) le scalaire


n
tr ( A) = ∑ akk .
k =1

C’est la somme des coefficients diagonaux.

Proposition [Link]

L’application
tr : Mn ( K ) → K
A 7→ tr ( A)
est une forme linéaire sur Mn (K).

Démonstration

Remarque : En particulier, comme l’application trace n’est pas l’application nulle car tr ( In ) = n, l’ensemble
des matrices de trace nulle est un hyperplan de E.

377
Proposition [Link]

Soit A et B deux matrices de Mn (K), tr ( AB) = tr ( BA).

Démonstration : Fixons les notations. On note A = ( aij ) et B = (bij ). Posons alors AB = (cij ) et BA = (dij ) de
sorte que
n n
∀(i, j) ∈ [[ 1 ; n ]]2 , cij = ∑ aik bkj et dij = ∑ bik akj .
k =1 k =1

Dès lors
n n n n n n
tr ( AB) = ∑ cii = ∑∑ aik bki = ∑ ∑ bki aik = ∑ dkk = tr ( BA).
i =1 i =1 k =1 k =1 i =1 k =1


1.8 Calculs par blocs


Exemple : Commençons par un exemple. On considère les matrices suivantes :
   
2 1 −1 1 −1
M =  0 −1 3  et M0 =  2 −1 
2 1 3 1 1

On peut poser les blocs suivants :


   
2 1 −1  
A= ,B = ,C = 2 1 et D = 3
0 −1 3

et on écrit  
A B
M=
C D
De même si on pose
   
0 1 0 −1  
A = ,B = , C0 = 1 et D 0 = 1
2 −1

et on écrit  
0 A0 B0
M =
C0 D0
Maintenant on peut voir que le produit MM0 peut se calculer par la formule :
 
0 AA0 + BC 0 AB0 + BD 0
MM = .
CA0 + DC 0 CB0 + DD 0

Définition [Link]

Soit (n, p) ∈ (N∗ )2 et M ∈ Mnp (K) = (mij ). Si on se donne n1 ∈ [[ 2 ; n − 1 ]] et p1 ∈ [[ 2 ; p − 1 ]]. On


pose
A = (mij )16i6n1 , B = (mi,j ) 16i6n1 , C = (mij )1+n1 6i6n , D = (mi,j ) n1 +16i6n .
16 j 6 p 1 1+ p1 6 j6 p 16 j6 p1 1+ p1 6 j6 p

On note alors  
A B
M=
C D

378
Théorème [Link] (Produit par blocs)

Soit M et M0 deux matrices appartenant respectivement à Mnp (K) et M pq (K). Soit n1 , p1 , q1 permet-
tant de définir des blocs :
   0 
A B 0 A B0
M= et M =
C D C0 D0

Le produit MM0 est alors donné par


 
AA0 + BC 0 AB0 + BD 0
MM0 = .
CA0 + DC 0 CB0 + DD 0

Remarques :
1. Le terme p1 qui définit le nombre de colonnes de A est le même que celui qui définit le nombre de lignes
de A0 afin que le produit AA0 existe.
2. Cela se généralise de manière naturelle à des découpages autres que ceux avec 4 blocs. Par exemples
   
A AC
C= .
B BC

3. Nous reviendrons sur la signification géométrique de ce calcul.

2 Matrices et applications linéaires


2.1 Matrice d’une famille de vecteurs
Définition [Link] (Matrice d’un vecteur dans une base)

Soit B = (e1 , . . . , e p ) une base d’un espace vectoriel E et v un vecteur de E. On appelle matrice de v dans la
base B et on note MatB (v) la matrice des coefficients du vecteur v exprimés dans la base B. C’est à dire que
l’on pose
MatB (v) = ( ai ) où v = a11 e1 + · · · a p e p .

Remarques :
1. La matrice dépend de la base choisie.
2. La matrice d’un vecteur est un vecteur colonne.
3. On construit ainsi une application :

E → Mn1 (K)
v 7→ MatE (v).
Cette application associe à un vecteur v la matrice de ses coordonnées dans la base E . On peut voir que
c’est un isomorphisme. On peut même en déduire un isomorphisme E dans Kn en voyant la matrice
colonne comme un élément de Kn .
4. Quand la base est évidente (en particulier pour la base canonique de Kn ) on notera juste Mat(v).

ATTENTION

Si on considère un vecteur u = ( a1 , . . . , a p ) de K p . Il ne faut pas confondre la notation ( a1 , . . . , a p )


 
a1
 
qui est intrinsèque et qui définit le vecteur, de la notation  ...  qui sont ses coordonnées dans la
an
base canonique. Si on change de base, ses coordonnées changeront aussi.

379
Exemple : Dans R2 . On considère w = (3, −1). On a
   
3 1
Matcan (w) = et MatB (w) =
−1 2

où B = ((1, 1), (1, −1)).

Définition [Link]

Soit E = (e1 , . . . , en ) une base de E et (v1 , . . . , v p ) ∈ E p une famille de vecteurs de E. On appelle matrice
de la famille (v1 , . . . , v p ) dans la base E et on note MatE (u1 , . . . u p ) la matrice des coefficients des vecteurs
v1 , . . . , v p exprimés dans la base E . C’est à dire que l’on pose

MatE (u1 , . . . u p ) = ( aij ) où ∀ j ∈ [[ 1 ; p ]] , v j = a1j u1 + · · · anj un .

Exemple : Dans R4 on considère les vecteurs v1 = (3, 0, 1, 1), u2 = (3, −1, −1, 0) et u3 = (5, 1, 1, 2). Alors
 
3 3 5
 0 −1 1 
Mat(u1 , u2 , u3 ) = 
 1 −1
.
1 
1 0 0

Remarques :
1. La matrice dépend de la base choisie.
2. Quand la base est évidente, on notera seulement Mat(u1 , . . . u p ).

2.2 Application linéaire canoniquement associée à une matrice


Nous allons construire, pour chaque matrice, une application linéaire qui lui sera associée.

Définition [Link]

p
Soit (n, p) ∈ (N? )2 et A ∈ Mnp (K). On note ( aij )16i6n . On note (e j ) j=1 la base canonique de K p et ( f i )in=1
16 j 6 p
la base canonique de Kn . On appelle application linéaire canoniquement associée à A l’unique application
linéaire f de K p dans Kn telle que
n
∀ j ∈ [[ 1 ; p ]] , f (e j ) = ∑ aij fi .
i =1

 
4 0 2
Exemple : Soit A = . On lui associe l’application linéaire de K3 dans K2 définie par
−2 0 −7

f (1, 0, 0) = (4, −2), f (0, 1, 0) = (0, 0) et f (0, 0, 1) = (2, −7).

On a donc
∀( x, y, z) ∈ K3 , f ( x, y, z) = (4x + 2z, −2x − 7z).

Proposition [Link]

L’application F ainsi définie de Mnp (K) dans L (K p , Kn ) est un isomorphisme d’espace vectoriel.

Démonstration : Montrons d’abord que c’est une application linéaire. Soit A et B deux matrices de Mnp (K) et
λ, µ deux scalaires. Notons C = λA + µB. L’application F (C ) est définie par
n
∀ j ∈ [[ 1 ; p ]] , f (e j ) = ∑ λaij + µbij fi .
i =1

380
L’application λF ( A) + µF ( B) aussi. De ce fait on a bien

F (λA + µB) = λF ( A) + µF ( B).

Montrons maintenant que c’est un isomorphisme. Pour cela nous allons exhiber une application réciproque
G de L (K p , Kn ) dans Mnp (K). Soit f dans L (K p , Kn ). Pour tout i ∈ [[ 1 ; p ]], le vecteurs f (ei ) se décompose
dans la base ( f j ). On note, pour tout i dans [[ 1 ; p ]]
n
f ( ei ) = ∑ aij f j .
j =1

On pose alors G ( f ) = ( aij ). On voit bien que F ◦ G est l’application identité de L (K p , Kn ). 

Proposition [Link]

Soit (n, p) ∈ (N∗ )2 et A ∈ Mnp (K). Pour tout x de K p ,

Mat( a( x )) = [Link]( x )

Démonstration : Le produit matriciel est fait pour... 


Remarque : En identifiant Kn et K p à Mn1 (K) et M p1 (K) on voit que a est en fait l’application

X 7→ A.X

Proposition [Link]

Soit (n, p, q) ∈ (N? )3 trois entiers, A ∈ Mnp (K) et B ∈ M pq (K). On note a et b les applications
canoniquement associées à A et B. L’application canoniquement associée à AB est a ◦ b.

Remarques :
1. Cette proposition est fondamentale. Elle explique la définition du produit matriciel.
2. D’après les définitions, a ∈ L (K p , Kn ) et b ∈ L (Kq , K p ) donc a ◦ b est bien définie et appartient à
L ( K p , K n ).
Démonstration : Si on note c l’application canoniquement associée à AB. Pour tout vecteur x de K p ,

Mat(c( x )) = [Link]( x ) = [Link](b( x )) = Mat( a(b( x )).

On a donc que pour tout vecteur x, c( x ) = ( a ◦ b)( x ) et donc x = a ◦ b.




Corollaire [Link]

Cela permet d’en déduire que Mn (K) est bien un anneau.

Démonstration : Montrons par exemple que la multiplication est distributive à gauche à savoir :

∀( A, B, C ) ∈ Mnp (K) × M pq (K) × M pq (K), A × ( B + C ) = A × B + A × C.

On considère a, b et c les applications canoniques associées à A, B et C. D’après ce qui précède,

F ( A × ( B + C )) = a ◦ (b + c) = a ◦ b + a ◦ c (par linéarité)

De plus
F ( A × B + A × C ) = a ◦ b + a ◦ c.
Comme F est injective, on a la propriété voulue. 

381
Définition [Link]

Soit (n, p) ∈ (N? )2 et A ∈ Mnp (K) on appelle noyau de A (resp. image de A) et on note Ker A (resp. Im A)
le noyau (resp. l’image) de l’application linéaire canoniquement associée a. De plus, on considère souvent
Ker A (resp. Im A) comme un sous-espace vectoriel de M p1 (K) (resp. de Mn1 (K)) via l’identification de K p
avec M p1 (K).

Remarque : On a donc que Ker A est l’ensemble des X ∈ M p1 (K) tels que AX = 0. A l’inverse Im A est
l’ensemble de B ∈ Mn1 (K) tel qu’il existe X ∈ M p1 (K) tels que AX = B. Cela revient à dire que Im A =
Vect(C1 , . . . , C p ) où C1 , . . . , C p sont les colonnes de A.

2.3 Matrice d’une application linéaire


On a vu que l’on pouvait associer à une matrice une application linéaire. On va montrer que réciproquement,
on peut associer à toute application linéaire entre deux espaces vectoriels de dimension finie une matrice.

Définition [Link] (Matrice associée à une application linéaire)

Soit E et F deux espaces vectoriels de dimension finie. Soit E = (e1 , . . . , e p ) et F = ( f 1 , . . . , f n ) des bases de
E et de F. A toute application linéaire u de E dans F on associe la matrice MatE ,F (u) = ( aij ) ∈ Mnp (K)
où les ( aij ) sont tels que
n
∀ j ∈ [[ 1 ; p ]] , u(e j ) = ∑ aij fi .
i =1

Remarques :
1. La matrice d’une application est donc les matrices des coordonnées dans la base F des images des
vecteurs de la base E par u.
2. Cette construction est bien la réciproque de l’application linéaire canonique associée à une matrice. La
matrice associée dans les bases canoniques à l’application linéaire canonique associée à une matrice est la
matrice dont on est parti.
3. En reprenant les notations du paragraphe précédent on a donc

MatE ,F (u) = MatF (u(e1 ), . . . , u(e p )).

B La matrice définie ci-dessus dépend des bases E et F comme nous allons le voir sur des exemples.
Cependant, si les bases sont évidentes, nous les omettrons dans la notation.
Exemples :
1. Soit u : ( x, y) 7→ (2x + y, x − y, 3x ). On cherche sa matrice dans les bases canoniques. On trouve
 
2 1
Matcan,can (u) =  1 −1  .
3 0

Maintenant on peut changer la base de R2 voulue. Si on considère B = (u, v) où u = (1, 1) et v = (1, −1)
alors B est une base et  
3 1
MatB,can (u) =  0 2  .
3 3
1
2. Soit v : ( x, y, z) 7→ ( x − y − z, − x + y − z, 2z). On cherche sa matrice dans les bases canoniques. On
2
trouve
 
1 −1 −1
1
Matcan,can (v) = −1 1 −1  .
2
0 0 1

382
On peut déterminer non noyau et son image. On trouve Ker v = Vect(1, 1, 0) et Im v = {( x, y, z) ∈
R3 | x + y + z = 0} = Vect(1, 0, −1), (0, 1, −1). On remarque alors que Ker v et Im v sont supplé-
mentaires et que v|Im v = Id. On en déduit que v est un projecteur et sa matrice dans la base B =
((1, 1, 0), (1, 0, −1), (0, 1, −1)) est
 
0 0 0
MatB,B (v) =  0 1 0  .
0 0 1
Ici on a encore pris B comme base « à l’arrivée ».
3. Soit ∆ : R3 [ X ] → R3 [ X ] définie par ∆( P) = P0 . Sa matrice dans les bases canoniques est
 
0 1 0 0
 0 0 2 0 
Mat(∆) =   0 0 0 3 .

0 0 0 0

4. Soit E = Rn [ X ] et f la forme linéaire définie par


Z 1
f ( P) = P(t) dt.
0

Sa matrice dans la base canonique est


( 1 1/2 · · · 1/(n + 1) ).

Exercice : Soit T : R3 [ X ] → R3 [ X ] définie par T ( P) = P( X + 1). Écrire sa matrice dans les bases canoniques.

2.4 Propriétés
La matrice d’une application linéaire permet de calculer « en coordonnées » l’image d’un vecteur par
l’application linéaire.

Théorème [Link]

Soit E et F deux espaces vectoriels de dimension finie. Soit E = (e1 , . . . , e p ) et F = ( f 1 , . . . , f n ) des


bases de E et de F. Soit u une application linéaire de E dans F et w un vecteur de E. On a

MatF (u(w)) = MatE ,F (u).MatE (w).

Remarques :
1. Il est important de prendre les bonnes bases pour E et pour F.
2. De fait la connaissance de la matrice permet de faire les calculs.
3. La formule de calcul de l’image d’une application linéaire par voie matricielle s’étend au cas d’une famille
de vecteurs. Précisément on a pour tout famille (w1 , . . . , wk ) de vecteurs de E,
MatF (u(w1 ), . . . , u(wk )) = MatE ,F (u) × MatE (w1 , . . . , wk ).

Démonstration : Il suffit de faire le calcul


Exemples :
1. On reprend l’exemple 1. : u : ( x, y) 7→ (2x + y, x − y, 3x ). Sa matrice dans les bases canoniques est
 
2 1
Matcan,can (u) =  1 −1  .
3 0
Si on prend w = (3, −1) le calcul donne bien u(w) = (5, 4, 9).
De même avec B = (u, v) où u = (1, 1) et v = (1, −1) alors B est une base et
 
3 1
MatB,can (u) =  0 2  .
3 3

Le calcul marche encore.

383
2. Calculons la dérivée de P = 2 + 3X − 4X 3 avec sa matrice.... (à faire)

Proposition [Link]

Soit E et F deux espaces vectoriels de dimension finie. Soit E = (e1 , . . . , e p ) et F = ( f 1 , . . . , f n ) des


bases de E et de F. L’application

MatE ,F : L ( E, F ) → Mnp (K)


u 7→ MatE ,F (u).

est un isomorphisme.

Démonstration :
— Montrons d’abord qu’elle est linéaire (à faire). Il suffit de considérer les colonnes des matrices...
— Montrons qu’elle est injective. Une application linéaire qui s’annule sur une base est nulle.
— On utilise alors que dim L ( E, F ) = dim Mnp (K) = np pour conclure que c’est un isomorphisme.


Proposition [Link]

Soit E, F et G trois espaces vectoriels munis de bases E , F et G . Soit v ∈ L ( E, F ) et u ∈ L ( F, G ) on


a
MatE ,G (u ◦ v) = MatF ,G (u) × MatE ,F (v).

Remarque : Il faut faire attention aux bases.


Démonstration : Il suffit de remarquer que pour toute matrice colonne X. On note w le vecteur de E tel que
X = MatE (w). On a alors
MatE ,G (u ◦ v).X = MatG ((u ◦ v)(w)).
De plus

MatE ,F (v).X = MatF (v(w)) et donc MatF ,G (u) × MatE ,F (v) × X = MatG ((u ◦ v)(w)).

On en déduit que
MatE ,G (u ◦ v) = MatF ,G (u) × MatE ,F (v).


2.5 Cas des endomorphismes


Notation : Soit E un espace vectoriel de u ∈ L ( E). Dans la plupart des cas, quand on étudiera une matrice de
u on prendre la même base E au départ et à l’arrivée. On note alors MatE (u) pour MatE ,E (u).

Proposition [Link]

Avec les notations précédentes si on note A = MatE (u).


1. Pour tout entier naturel n, An = MatE (un ).
2. Soit P ∈ K[ X ], P( A) = MatE ( P(u)).

Exemples :
1. On a vu précédemment que l’application linéaire v dont la matrice était
 
1 −1 −1
1
A =  −1 1 −1 
2
0 0 1

était un projecteur. On peut le vérifier. On a bien A2 = A ce qui assure que v2 = v.

384
2. Si on reprend l’endomorphisme de dérivation ∆ dans R3 [ X ] on a
 
0 1 0 0
 0 0 2 0 
Mat(∆) = A =   0 0 0 3
.

0 0 0 0

On en déduit    
0 0 2 0 0 0 0 6
 0 0 6   0 0 0 0 
A =
2
 0
,A = 
3  et A4 = 0.
0 0 0   0 0 0 3 
0 0 0 0 0 0 0 0

Théorème [Link]

Soit u un endomorphisme. Les assertions suivantes sont équivalentes.


i.) L’application u est un isomorphisme.
ii.) Il existe une base E telle que MatE (u) soit inversible.
iii.) Pour toute base E , MatE (u) est inversible.

Démonstration :
— i.) ⇒ iii.) Il suffit de poser B = MatE (u−1 ) et de vérifier que AB = BA = MatE (Id) = I.
— iii.) ⇒ ii.) Evident
— ii.) ⇒ i.) Soit B = A−1 et v l’endomorphisme tel que MatE (v) = B. On a

MatE (u ◦ v) = MatE (v ◦ u) = I = MatE (Id).

Donc u ◦ v = v ◦ u = Id.

Remarque : Cela permet de montrer que s’il existe B telle que AB = I alors A est inversible. En effet on connait
ce résultat sur les endomorphismes.

3 Changements de bases
3.1 Matrices de changement de bases
Proposition [Link]

Soit E un espace vectoriel et (v1 , . . . , v p ) une famille de vecteurs de E. Les assertions suivantes sont
équivalentes.
i.) La famille est une base de E.
ii.) Il existe une base E telle que MatE (v1 , . . . , v p ) soit inversible.
iii.) Pour toute base E , MatE (v1 , . . . , v p ) est inversible.

Démonstration :
— i.) ⇒ iii.) On suppose que la famille est une base de E. Soit E = (e1 , . . . , e p ) une base de E on note
A = MatE (v1 , . . . , v p ). On voit que A est la matrice de l’application linéaire f de E dans lui même définie
par f (ei ) = vi . En particulier, l’image d’une base étant une base, f est bijective et donc A est inversible.
— iii.) ⇒ ii.) Evident
— ii.) ⇒ i.) On considère encore l’application f comme ci-dessus. Comme A est inversible alors f est bijective
et donc l’image de la base E est une base de E.

385

Remarque : Pour tous ces calculs on peut remplacer E par Kp et la base E par la base canonique. Par exemple,
la matrice  
1 1 1
A=  1 2 3 
1 −1 0
est inversible car les vecteurs (1, 1, 1), (1, 2, −1) et (1, 3, 0) forment une base de K3 .

Définition [Link]

Soit E un espace vectoriel et B, B 0 deux bases de E. On appelle matrice de passage de B dans B 0 la matrice
B 0
PB = MatB (B 0 ).

C’est la matrice des coordonnées des vecteurs de la nouvelle base dans l’ancienne base.

Exemples :
1. Dans R2 si B est la base canonique et B 0 la base (u, v) où u = (1, 1) et v = (1, −1) donc la matrice de
passage de B à B 0 est  
1 1
P= .
1 −1
Par contre la matrice de passage de B 0 à B est
 
1 1 1
Q= .
2 1 −1

1 1
En effet (1, 0) = (u + v) et (0, 1) = (u − v).
2 2
2. Dans Kn [ X ]. On pose B la base canonique et T = (( X − a)k ) la base de Taylor. La matrice de changement
de base est alors  
1 − a (− a)2 · · · (− a)n
 0 1 −2a · · · n(− a)n−1 
 
 .. . . .. 
P= . . . ··· .

 . .. .. 
 .. . . ··· 
0 ··· ··· 0 1
L’intérêt d’une matrice de changement de bases et qu’elle permet de calculer les coefficients d’un vecteur
dans la nouvelle base.
Précisément, soit v un vecteur de E. On suppose que l’on connait ses coordonnées dans la base B. On pose
 
x1
 
V = MatB (v) =  ...  .
xn

On cherche alors ses coordonnées dans la base B 0 . Posons


 
x10
 
V 0 = MatB0 (v) =  ...  .
xn0

Maintenant, on considère la matrice de passage P de B 0 dans la base B. On pose


 
a11 · · · a1n
 ..  .
P = MatB (u10 , . . . , u0n ) =  ... . 
an1 · · · ann

On peut alors exprimer v.

386
v = x10 u10 + · · · + xn0 u0n
= x10 ( a11 u1 + · · · + a1n un ) + · · · + xn0 ( an1 u1 + · · · + ann un )
= ( a11 x10 + · · · + an1 xn0 )u1 + · · · + ( a1n x10 + · · · + ann xn0 )un .

Par identification on obtient donc :



 x1
 = a11 x10 + · · · + an1 xn0
.. ..
 . = .

xn = a1n x10 + · · · + ann xn0

On en déduit que V = PV 0 .

Proposition [Link]

Avec les notations précédentes. Si v est un vecteur de E. On note

V = MatB (v) et V 0 = MatB0 (v).

On a alors
X = PX 0 .
C’est-à-dire
X 0 = P−1 X.

Remarque : On remarque en particulier que si P est la matrice de passage de B à B 0 alors P−1 est la matrice
de B 0 à B.
Exemple : On se place dans R2 . On considère B = ((1, 0), (0, 1)) la base canonique et B 0 = ((1, 1), (1, −1)).
La matrice de passage de B dans B 0 est
   
1 1 −1 1 1 1
P= d’où P = .
1 −1 2 1 −1
 
2
Prenons par exemple le vecteur v = (2, 1) dans la base canonique. On pose V = . Ses coordonnées
1
dans la base B 0 sont données par  
0 −1 1 3
V =P V= .
2 −1
On vérifie bien que
1
(3(1, 1) − (−1, 1)) = (2, 1).
2

3.2 Changement de base des applications linéaires


Théorème [Link]

On se fixe deux espaces vectoriels E et F de dimensions respectives p et n ainsi qu’une application


linéaire de E dans F. On se donne B1 et B2 deux bases de E ainsi que B10 et B20 deux bases de F. On
note
A1 = MatB1 ,B0 ( f ) et A2 = MatB2 ,B0 ( f ).
1 2

On note P = MatB1 (B2 ) et P0 = MatB0 (B20 ) les matrices de passage. On a donc :


1

A2 = ( P0 )−1 A1 P.

387
 
0
 .. 
 . 
 
 1 
Démonstration : Il suffit de voir que pour tout j ∈ [[ 1 ; p ]], P0 A2 X j = A1 PX j où X j =  
 0  ∈ Mn1 (K) où le
 
 . 
 .. 
0
1 est à la j-ème ligne. On a X j = MatB2 (e j ) où B2 = (e1 , . . . , e p ).

Faire un diagramme commutatif


En effet, PX j = MatB1 (e j ) et donc A1 PX j = MatB0 ( f (e j )). Alors que A2 X j = MatB0 ( f (e j ) et P0 A2 X j =
1 2
MatB0 ( f (e j )).
1

Cette formule sera utile en particulier dans le cas des endomorphismes. Dans ce cas, on garde le plus souvent
la même base au départ et à l’arrivée. On a donc :

Théorème [Link] (Changement de bases de endomorphismes)

On se fixe un espace vectoriel E de dimension respective n ainsi qu’un endomorphisme de E. On se


donne B et B 0 deux bases de E. On note

A = MatB ( f ) et A0 = MatB0 ( f ).

On note P la matrice de passage de B à B 0 . On a donc :

A0 = P−1 AP.

Remarques :
1. Cette formule est fondamentale et sera très utile.
2. Avec les notations de l’énoncé on trouve que pour tout entier naturel n, ( A0 )n = P−1 An P. Cela se démontre
par le calcul ou le changement de base de l’endomorphisme f n .
Exemples :
1. Dans R3 on se donne l’application linéaire u dont la matrice dans la base canonique est
 
1 1 0
1
A= 1 1 0 .
2
0 0 2

On peut remarquer que A2 = A. Donc u est un projecteur. On cherche son noyau et son image. Il est clair
que Im v = Vect(1, 1, 0), (0, 0, 1). De plus, pour déterminer ker v on résout le système

x+y = 0
.
z = 0

On obtient Ker v = Vect(−1, 1, 0). On voit alors que B = ((1, 1, 0), (0, 0, 1), (−1, 1, 0)) est une base de E.
La matrice de v dans E est alors  
1 0 0
A0 =  0 1 0  .
0 0 0
Vérifions par le calcul. Si on pose  
1 0 −1
P= 1 0 1 
0 1 0
la matrice de passage de la base canonique à B. On cherche son inverse. Pour cela on considère l’applica-
tion canonique associée à P
f : ( x, y, z) 7→ ( x − z, x + z, y)

388
On résout donc pour tout ( a, b, c) le système
 
 x−z = a  x = ( a + b)/2
x+z = b ⇐⇒ y = c
 
y = c z = (b − a)/2
D’où  
1 1 0
1
P −1 =  0 0 2 
2
−1 1 0
0 −1
 A = P AP.
Et finalement
0 0 1
2. Soit A =  −2 1 2 . On voudrait connaitre An . Pour ce la on considère l’endomorphisme f
−2 −2 5
canoniquement associé à A. On cherche alors des vecteurs v de R3 tels que f (v) = λv où λ ∈ R. Pour cela
on cherche le noyau de f − λId. On sait que
 
−λ 0 1
Mat( f − λId) = A − λI =  −2 1 − λ 2 .
−2 −2 5 − λ
En résolvant le système on trouve que si λ ∈
/ {1, 2, 3}, Ker ( f − λId) = {0}. Par contre pour λ ∈ {1, 2, 3},
Eλ = Ker ( f − λId) = Vect(ui ) est de dimension 1 et
u1 = (1, 1, 1), u2 = (1, 2, 2) et u3 = (1, 2, 3).

Soit P la matrice de passage de la base canonique à la base {u1 , u2 , u3 }. On a :


   
1 1 1 2 −1 0
P =  1 2 2  et P−1 =  −1 2 −1 
1 2 3 −0 −1 1
On fait alors le changement de base. On a
 
1 0 0
P−1 AP = ∆ =  0 2 0 
0 0 3

On en déduit que A = P∆P−1 . et que, pour tout n ∈ N? , on a :


An= P∆P−1 .P∆P−1 . . . . .P∆P−1
= P.∆n .P−1 .
 n 
1 0 0
Or ∆n =  0 2n 0  Donc
0 0 3n
 
2 − 2n − 1 + 2n +1 − 3n −2n + 3n
A =n  2 − 2n +1 −1 + 2n+2 − 2.3n −2n+1 + 2.3n 
2 − 2n +1 − 1 + 2n +2 − 3n +1 − 2n +1 + 3n +1
Remarque : On aurait pu directement trouver ∆ en utilisant que f (v1 ) = v1 , f (v2 ) = 2v2 et f (v3 ) = 3v3 .

Définition [Link]

Soit A et B deux matrices de Mn (K). On dit que A et B sont semblables si elles représentent le même
endomorphisme dans des bases éventuellement différente. C’est équivalent au fait qu’il existe une matrice P
inversible telle que A = P−1 BP.

Proposition [Link]

La relation « être semblable » est une relation d’équivalence.

Exemple : La matrice identité et la matrice nulle ne sont semblable qu’à elles même.

389
3.3 Trace d’un endomorphisme
Proposition [Link]

Soit E un espace vectoriel et ( A, B) ∈ (Mn (K))2 . Si A et B sont semblables alors tr ( A) = tr ( B).

Démonstration

Définition [Link]

Soit u ∈ L ( E). On appelle trace de u et on note tr (u) la trace d’une de ses matrices dans une base de E .

Remarque : Il faut faire attention à bien prendre la même base au départ et à l’arrivée.
Exemple : on a tr (0) = 0 et tr (Id) = dim E.

Proposition [Link]

Soit p un projecteur. On a tr ( p) = rg ( p).

Démonstration : Pour calculer la trace de p on va choisir une base adaptée. Précisément on sait qu’il Ker p et
Im p sont en somme directe. Si on construit une base B de E en collant une base de Im p et une base de Ker p on
obtient  
1 0 ... ... ... 0
 . .. 
 0 .. . 
 
 .. .. 
 . 1 . 
MatB ( p) =  . .
.

 .. 0 .
. 
 
 . .. . 
 .. . .. 
0 ... ... ... ... 0
On en déduit que tr ( p) est le nombre de vecteurs dans la base de Im p. C’est bien rg ( p). 

4 Rang d’une matrice


4.1 Définition
Définition [Link]

Soit A une matrice de Mnp (K). On appelle rang de A et on note rg ( A) le rang des vecteurs colonnes de A
vus comme des éléments de Kn . C’est aussi la dimension de Im A.

 
1 1 1
Exemple : Soit A =  1 2 2 . On avait vu que les vecteurs formaient une base donc rg ( A) = 3. Si
  1 2 3
1 1 0
B= 1 2 −1 . On voit que C1 − C2 = C3 . Donc rg ( B) = 2.
1 3 −2

390
Proposition [Link]

Les différentes notions de rang sont compatibles.


1. Soit (v1 , . . . , v p ) une famille de vecteurs d’un espace vectoriel E et E une base de E. On a

rg (v1 , . . . , v p ) = rg (MatE (v1 , . . . , v p )).

2. Soit u ∈ L ( E, F ) et E , F des bases de E et F. On a

rg (u) = rg (MatE ,F (u)).

Démonstration :
1. On considère
Φ: E → Mn1
v 7→ MatE (v).
Cette application envoie le vecteur v j sur la j-ième colonne Cj de la matrice. Or on a vu que c’était un
isomorphisme d’où

rg (MatE (v1 , . . . , v p )) = dim(Vect(Φ(v1 ), . . . , Φ(v p ))) = dim(Φ(Vect(v1 , . . . , v p ))) = dim((Vect(v1 , . . . , v p ))) = rg

2. Il suffit de revenir à la définition de la matrice d’une application linéaire.




Corollaire [Link]

1. Si A ∈ Mnp (K), rg ( A) 6 n et rg ( A) 6 p
2. Soit A ∈ Mn (K), la matrice est inversible si et seulement si rg ( A) = n.
3. Deux matrices semblables ont le même rang.

Proposition [Link]

Soit A ∈ Mnp (K). Soit P ∈ GLn (K) et Q ∈ GL p (K). On a

rg ( PAQ) = rg ( A).

Démonstration : Il suffit d’utiliser que l’on ne modifie par le rang d’une application linéaire en composant à
droite ou à gauche par un isomorphisme. 
Notation : Soit r 6 Min(n, p) on note Jr (n, p) la matrice
 
1 0 ··· ··· ··· 0
 .. .. .. 
 0 . . . 
 
 .. . . . 
 . . 1 0 · · · .. 
Jr (n, p) = 
 .
.

 .. 0 0 ··· 0 
 
 . .. .. .. 
 .. . . . 
0 ··· 0 0 ··· 0
Elle comporte des 1 sur les r première colonne. On a rg ( A) = r.

Théorème [Link]

Soit A ∈ Mnp (K). Il existe P ∈ GLn (K) et Q ∈ GL p (K) tels que A = PJr (n, p) Q où r = rg ( A).

391
Démonstration : On considère l’application linéaire u de K p dans Kn canoniquement associée à A. On sait
que rg (u) = r et donc dim Ker u = p − r. On considère un supplémentaire H de Ker u qui est de dimension
r. On note (α1 , . . . , αr ) et (αr+1 , . . . , α p ) des bases de H et de Ker u. La famille (α1 , . . . , α p ) est alors une base
de K p . On note T la matrice de passage de la base canonique à la base (α1 , . . . , α p ). Maintenant voit que
Im u = Vect(u(α1 ), . . . , u(αr )) car u(αi ) = 0 pour i > r. En particulier, la famille (u(α1 ), . . . , u(αr )) est libre cr
dim Im u = r. On peut donc la compléter en une base de Kn que l’on note ( β 1 , . . . , β n ). Si on note P la matrice
de passage de la base canonique à la base ( β i ). On voit alors que la matrice de u en prenant la base de (αi ) au
départ et ( β j ) à l’arrivée est Jr (n, p). On a donc

Jr (n, p) = P−1 AT ⇐⇒ A = PJr (n, p) T −1 .

On pose alors Q = T −1 .


Définition [Link]

Soit A et B deux matrices de Mnp (K), elles sont dites équivalentes si rg ( A) = rg ( B).

Remarque : C’est encore une relation d’équivalence. 


2 0
B Ne pas confondre semblable et équivalente. Par exemple A = 0 1
est une matrice de rang 2 (car
inversible) elle est donc équivalente à I2 mais elle n’est pas semblable à I2 (car A 6= I2 ).

Proposition [Link]

Soit A ∈ Mnp (K). On a rg ( A) = rg (tA).

Remarque : Cela signifie en pratique, pour déterminer le rang d’une matrice A on peut aussi calculer la
dimension de l’espace vectoriel engendré par les lignes. Si
 
1 2 5
A =  2 4 10  .
3 6 15

On peut remarquer que rg ( A) = 2 car L1 + L2 = L3 .


Démonstration : On note r le rang de A et on considère P ∈ GLn (K) et Q ∈ GL p (K) tels que A = PJr (n, p) Q.
On obtient alors tA = tQtJr (n, p)tP. Or tP et tQ sont inversibles (d’inverse tP−1 et tQ−1 ) et tJr (n, p) = Jr ( p, n).
Donc tA = P0 Jr ( p, n) Q0 . Elle est de rang r. 

Proposition [Link]

Soit A une matrice de rang r. Toute sous-matrice extraite est de rang inférieur à r.

Démonstration : Si une matrice extraite A0 est de rang strictement supérieure à r. On peut trouver r + 1 colonnes
qui sont libres. En les complétant pour obtenir des colonnes de A on obtient r + 1 colonnes de A libres ce qui est
absurde. 

Théorème [Link]

Soit A une matrice de Mnp (K). Le rang A est la plus grande taille d’une matrice carrée inversible
extraite de A. C’est -à-dire que A est de rang r si et seulement si
i) Il existe une matrice A0 extraite de A de taille r carrée et inversible.
ii) Tout matrice extraite A00 de taille strictement supérieure à r n’est pas inversible.

392
Démonstration : On procède par double implication.
— ⇒ On suppose que rg ( A) = r. De ce fait on sait que toute sous-matrice de A est de rang inférieur à r
donc tout matrice extraite A00 de taille strictement supérieure à r n’est pas inversible (ii). De plus, comme
elle est de rang r il existe une famille de r colonnes qui sont libres. On considère B la matrice obtenue en
gardant ces r colonnes. La matrice B est encore de rang r. En particulier tB aussi on peut donc extraire de
tB r colonnes qui sont libres. En retransposant on obtient bien une sous-matrice de A qui est de rang r.

— ⇐ On suppose qu’il existe une matrice extraite inversible de taille r. En complétant les colonnes on
obtient que le rang de A est supérieur à r car on trouve r colonnes libres. Maintenant si le rang de A était
strictement supérieur à r on pourrait trouver une sous-matrice carrée inversible de taille r + 1 d’après le
sens ⇒.


4.2 Calcul du rang - Opérations élémentaires


Nous allons voir dans ce paragraphe les opérations que l’on peut faire sur une matrice pour déterminer son
rang. On considère une matrice A ∈ Mnp (K).
Avant cela regardons le résultat de la multiplication Eαβ A où Eαβ est la base canonique de Mn (K). Notons
( aij ) les coefficients de A, bij ceux de Eαβ et cij ceux du produit.
Pour tout (i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] ,
n
cij = ∑ bi kakj .
k =1

On remarque déjà que si i 6= α alors cij = 0. Par contre

cαj = ∑ δkβ akj = aβj .


k =1

On en déduit que Eαβ A est la matrice obtenue en mettant la ligne L β de A comme α-ème ligne et en mettant des
zéros autour.
Remarque : On peut aussi le faire en utilisant les applications linéaires canoniquement associées. Dans ce cas,
l’application u associée à Eαβ est définie par

∀i ∈ [[ 1 ; n ]] , u( f i ) = δiβ f α .

Échange de deux lignes


On considère l’opération qui consiste à échanger deux lignes d’une matrice. On la note Li ↔ L j . La nouvelle
matrice est obtenue en multipliant à gauche par P = In − Eii − Ejj + Eij + Eij . Cette matrice P est clairement
inversible (c’est son propre inverse). On en déduit que la matrice PA obtenue après l’opération a le même rang
que A.

Multiplication d’une ligne par un coefficient NON NUL


On considère l’opération qui consiste à multiplier une ligne par un coefficient λ non nul. On la note Li ← λLi .
Elle est obtenue en multipliant à gauche par P = In − Eii + λEii . Là encore SI λ EST NON NUL, la matrice P
est inversible et la matrice obtenue a le même rang que A.
B Si λ est nul, cela n’est pas vrai. On enlève une ligne de la matrice et le rang peut diminuer.
Ajout d’une ligne à une autre
On considère l’opération qui consiste à ajouter un multiple d’une ligne à une autre. On la note Li ← Li + µL j .
Elle est obtenue en multipliant à gauche par P = In + µEij . La matrice P est inversible et la matrice obtenue a le
même rang que A.
De fait on utilise les deux dernières opérations ensemble et on obtient l’opération Li ← λLi + µL j avec λ
non nul (alors que µ peut-être nul).

Opérations sur les colonnes


On considère les mêmes opérations sur les colonnes qui sont notées Ci ↔ Cj , . . .. Là encore on ne change
pas le rang. En effet, cela revient à multiplier par des matrices similaires mais à droite (ou alors à transposer,
faire l’opération sur les lignes et retransposer).

393
5 Applications aux systèmes linéaires
5.1 Généralités
Définition [Link]

On appelle système linéaire de n équations à p inconnues un système du type




 a11 x1 + · · · + a1p x p = b1 ( L1 )

 a21 x1 + · · · + a2p x p = b2 ( L2 )
(S) .. .. .


 . . = ..

an1 x1 + · · · + anp x p = bn ( Ln )

— Les aij pour (i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] s’appellent les coefficients du système.


— Les x j pour j ∈ [[ 1 ; p ]] s’appellent les inconnues du système.
— Les bi pour i ∈ [[ 1 ; n ]] forment le second membre du système.

Notations :
1. Les solutions du système (S) sont les vecteurs ( x1 , · · · , x p ) ∈ K p dont les coordonnées vérifient le système.
2. Si tous les termes du second membre sont nuls, le système est dit homogène.
3. Le système obtenu en conservant les coefficients mais en prenant un second membre nul s’appelle le
système homogène associé.
4. Les systèmes ayant autant de lignes que de colonnes s’appellent des systèmes carrés. C’est ceux que nous
étudierons le plus souvent.

Interprétation matricielle
Nous gardons les notations précédentes. On note alors A ∈ Mnp (K) la matrice dont les coefficients sont les
   
b1 x1
   
coefficients du système et B ∈ Mn1 (K) la matrice colonne égale à  ...  . On pose alors X =  ...  . On a
bn xn
alors
( x1 , . . . , xn ) solution de (S) ⇐⇒ AX = B.

Interprétation vectorielle
On considère les vecteurs (v j ) j∈[[ 1 ; p ]] de Kn définis par

∀ j ∈ [[ 1 ; p ]] , v j = ( a1j , . . . , anj ).

C’est à dire que A = Mat(v1 , . . . , v p ). Dans ce cas, si on note aussi b = (b1 , . . . , bn ). La recherche d’une solution
( x1 , . . . , x p ) revient alors à
p
∑ x j v j = b.
j =1

Réciproquement si on ne donne un espace vectoriel E de dimension n et que l’on note E une base. Si on a
p
des vecteurs (v j ) j∈[[ 1 ; p ]] et b de E. La recherche de scalaires ( x1 , . . . , x p ) tels que ∑ x j v j = b revient à résoudre
j =1
le système AX = B où
A = MatE (v1 , . . . , v p ) et B = MatE (b).

Interprétation avec une application linéaire


Soit f l’application linéaire de K p dans Kn canoniquement associée à la matrice A et b = (b1 , . . . , bn ) ∈ Kn .
On a
u = ( x1 , . . . , xn ) solution de (S) ⇐⇒ f (u) = b.

394
Réciproquement si f est une application linéaire de E dans F où E et F sont des espaces vectoriels de
dimension respective p et n munis de base E et F . Soit b ∈ F résoudre l’équation f (u) = b revient à résoudre le
système linéaire AX = B où
A = MatE ,F ( f ) et B = MatE (b).

Interprétation avec des formes linéaires


Soit f 1 , . . . f n les n applications linéaires de K p qui correspondent aux n lignes de la matrices A. On a

u = ( x1 , . . . , xn ) solution de (S) ⇐⇒ ∀i ∈ [[ 1 ; n ]] , f i (u) = bi .

Réciproquement si on considère f 1 , . . . , f n n formes linéaire sur E où Eest un espace vectories de dimension


p muni d’une base E . Soit b1 , . . . , bn la donnée de n scalaires. Résoudre les équation f i (u) = bi revient à résoudre
un système linéaire.
Terminologie :
1. Un système est dit diagonal s’il est carré et que la matrice de ses coefficients est diagonale.
2. Un système est dit echelonné si la matrice de ses coefficients est échelonnée.
3. Un système est dit inversible (ou de Cramer) s’il est carré et la matrice de ses coefficients est inversible.
4. On appelle rang du système (S) le rang de la matrice de ses coefficients.

5.2 Determination de l’inverse d’une matrice


Définition [Link]

Soit (S) un système carré avec n lignes et n colonnes. Les assertions suivantes sont équivalentes.
i.) Il admet une unique solution
ii.) Le système homogène associé ( H ) n’admet que 0 comme solution.
iii.) La matrice du système est inversible.
iv.) Le système est de rang n.
Dans ce cas on dira que le système est inversible ou que c’est un système de Cramer.

Théorème [Link]

Une matrice carrée triangulaire supérieure est inversible si et seulement si ses coefficients diagonaux
sont non nuls.

Si on considère une matrice A que l’on suppose carrée de taille n et inversible. Pour chercher A−1 on peut
poser une matrice B carrée de taille n (avec donc n2 inconnues) et résoudre AB = In qui est un système de n2
inconnues à n2 équations. En fait il est beaucoup plus efficace de résoudre AX = B pour des seconds membres
généraux. En effet AX = B ⇐⇒ X = A−1 B. Si on sait donc résoudre ce système pour tous les seconds
membres C1 , . . . Cn (matrice colonne représentant la base canonique) on obtiendra A−1 car la solution Xi de
AX = Ci est A−1 Ci c’est-à-dire la i-eme colonne de A−1 .
En pratique on résout  tous les systèmes
 en même temps en collant les seconds membres différents
1 1 0
Exemple : On pose A =  0 1 1  .
1 0 1

395
   
1 1 0 1 0 0 1 1 0 1 0 0
 0 1 1 0 1 0  ∼  0 1 1 0 1 0 
1 0 1 0 0 1 0 −1 1 −1 0 1
 
1 1 0 1 0 0
∼  0 1 1 0 1 0 
0 0 2 −1 1 1
 
1 1 0 1 0 0
∼  0 1 1 0 0 1
0 0 1 −1/2 1/21/2
 
1 1 0 1 0 0
∼  0 1 0 1/2 1/2 −1/2 
0 0 1 −1/2 1/2 1/2
 
1 0 0 1/2 −1/2 1/2
∼  0 1 0 1/2 1/2 −1/2 
0 0 1 −1/2 1/2 1/2
 
1 −1 1
1
On en déduit que A−1 =  1 1 −1  .
2
−1 1 1
Remarque : On peut expliquer ce calcul différemment. En effet on part avec deux matrices A et In . On applique
des opérations sur les lignes ce qui revient à multiplier par des matrices inversibles à gauche. On trouve donc
P1 , . . . Pk inversibles telles que
P1 × · · · × Pk × A = In
On a alors A−1 = P1 × · · · × Pk et c’est exactement cette matrice qui est obtenue en appliquant les mêmes
opérations à la matrice identité.

Théorème [Link]

Soit ( A, B) ∈ Mn2 (K) tels que AB = In alors A est inversible et B = A−1 .

Proposition [Link]
 
a b
Soit A = . Elle est inversible si et seulement si ad − bc 6= 0. Dans ce cas
c d
 
1 d −b
A −1 = .
ad − bc cc a

Démonstration :

396
1
Variables aléatoires
Variables aléatoires réelles
27 397
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
1.2 Loi d’une variable aléatoire réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
1.3 Fonctions de répartitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399
1.4 Fonction d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
2 Moments d’une variable aléatoire réelle 400
2.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
2.2 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
2.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
3 Lois usuelles 405
3.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
3.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
3.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
3.4 Retour sur l’inégalité de Bienaymé-Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407

En mathématiques, on travaille la plupart du temps avec des valeurs numériques qui nous permettent de
faire des calculs. Le problème est que, dans le cadre des probabilités, la plupart des résultats sont des ensembles
non nécessairement numérique (par exemple on tire 5 cartes sur un jeu de 32 cartes). On aura donc recours à
la notion de variables aléatoires réelles. Le principe est que ce qui nous intéresse n’est pas nécessairement le
résultat exact de l’expérience mais ce que l’on veut regarder. Par exemple si on étudie les appels téléphoniques
à un standard d’appel. Les données exactes pour décrire tous les appels sont très compliquées. Alors que l’on
risque de ne s’intéresser qu’au nombre d’appel dans la première heure.

1 Variables aléatoires réelles


1.1 Définitions
Définition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé. On appelle variable aléatoire réelle sur Ω toute application :

X:Ω→R

Remarques :

397
1. On omettra souvent le mot « réelle », pour parler uniquement de variables aléatoires. De plus nous
utiliserons l’abréviation v.a.
2. Vous verrez l’an prochain que ce qui précède n’est qu’un cas particulier de la "vraie" définition. En effet,
lorsque l’on s’intéresse à des univers infinis, on ne considère, la plupart du temps, pas tout P (Ω) mais
seulement une partie. Dans ce cas, il faudra ajouter une condition pour qu’une application X : Ω → R soit
une variable aléatoire.
3. On commencera souvent par regarder X (Ω) qui est l’ensemble des valeurs prises par X. C’est un ensemble
fini car Ω est fini.
Notation : Soit (Ω, P (Ω), P) un espace probabilisé et X une v.a sur Ω. Pour toute partie A de R, l’ensemble
X −1 ( A) = {ω ∈ Ω | X (ω ) ∈ A} qui est l’ensemble des événements élémentaires ω tels que X (ω ) appartienne
à A sera noté
( X ∈ A) ou { X ∈ A}
De plus, si A = [ a, b] on notera plutôt ( a 6 X 6 b) ou { a 6 X 6 b}. De même si A =] a, b] on notera ( a < X 6 b)
ou { a < X 6 b}. Pour finir si A = { a} on notera ( X = a) ou { X = a}.
Exemples :
1. On lance une pièce équilibrée trois fois. On a donc Ω = { P, F }3 et on le munit de la probabilité uniforme.
On gagne un point par pile obtenu et on en perd un par face obtenu. Soit X le nombre de points obtenu.
C’est une variable aléatoire. Par exemple pour ω = ( P, P, F ) on a X (ω ) = 1 + 1 − 1 = 1. On a, a priori
X (Ω) ⊂ [[ −3 ; 3 ]]. On a alors ( X = 3) = {( P, P, P)} et ( X = 1) = {( P, P, F ); ( P, F, P); ( F, P, P)}. On
remarque aussi que ( X = 2) = ( X = 0) = ( X = −2) = ∅. De fait X (Ω) = {−3, −1, 1, 3}.
2. On lance deux dés et on considère la somme des deux résultats. Là encore on est en présence d’une
variable aléatoire. On a Ω = [[ 1 ; 6 ]]2 et S : Ω → R. On a S(Ω) = [[ 2 ; 12 ]] .
3. Soit (Ω, P (Ω), P) un espace probabilisé. Soit A une partie de Ω. La fonction 1 A est une variable aléatoire.
Elle est définie par 
1 si ω ∈ A
1 A (ω ) =
0 sinon

Proposition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. On note X (Ω) =
{ x1 , . . . , xr }. La famille d’événements (( X = xi ))16i6r est un système complet d’événements.

1.2 Loi d’une variable aléatoire réelle


Proposition-Définition [Link]

Soit (Ω, P (Ω), p) un espace probabilisé et X une variable aléatoire réelle sur Ω. L’application

PX : P ( X (Ω)) → [0, 1]
A 7 → P( X ∈ A )

est une probabilité sur X (Ω). On l’appelle la loi de X.

Démonstration : On a bien PX à valeurs dans [0, 1]. De plus ( X ∈ X (Ω)) = Ω donc PX ( X (Ω)) = P(Ω) = 1.
Pour finir si A et B sont deux parties disjointes de X (Ω) alors ( X ∈ A) et ( X ∈ B) sont deux parties disjointes
de Ω et ( X ∈ A ∪ B) = ( X ∈ A) ∪ ( X ∈ B). On en déduit que PX ( A ∪ B) = PX ( A) + PX ( B). 
Notation : Dans la suite nous noterons p( X = xi ) pour p([ X = xi ]). De même on note p( a 6 X 6 b) pour
p([ a 6 X 6 b]). Remarques :
1. Pour déterminer la loi d’une variable aléatoire X, on commence par déterminer X (Ω).
2. Dans le cas des univers fini, comme X (Ω) est fini, on peut le noter X (Ω) = { x1 , . . . , xr }. La loi de X revient
alors à se donner pour tout i ∈ [[ 1 ; r ]] , pi = PX ({ xi }) = P( X = xi ) ∈ [0, 1] tel que p1 + · · · + pr = 1
3. Avec les notations précédentes, la loi de X est déterminée par les pi . En effet pour tout A ⊂ X (ω ) :

P X ( A ) = P( X ∈ A ) = ∑ P( X = x i ).
16 i 6 r
xi ∈ A

398
Exemples :
1. On reprend l’exemple précédent. On a X (Ω) = {−3, −1, 1, 3}. De plus on a vu que [ X = 3] = {( P, P, P)}.
D’où p( X = 3) = 1/8. De même p( X = −3) = 1/8 et p( X = −1) = p( X = 1) = 3/8.
2. On reprend l’exemple précédent. On a X (Ω) = [[ 2 ; 12 ]]. On a [ X = 2] = {(1, 1)}. D’où p( X = 2) = 1/36.
On fait de même pour les autres.

1.3 Fonctions de répartitions


Définition [Link] (Fonction de répartition)

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. La fonction de répartition
de la variable aléatoire réelle X est la fonction FX : R → R. Définie par

∀ x ∈ R, FX ( x ) = P( X 6 x ) = PX (] − ∞, x ]).

Exemple : Dans l’exemple précédent la fonction de répartition est

FX : R →  R

 0 si x < −3


 1/8 si − 3 6 x < −1
x 7→ 1/2 si − 1 6 x < 1



 7/8 si 1 6 x < 3

1 si x > 3

Sa représentation graphique est :

0,5

-4 -3 -2 -1 0 1 2 3 4

Remarque : on voit bien sur l’exemple précédent, et ce sera toujours vrai, que la fonction FX est une fonction
en escalier croissante et que
lim FX = 0 et lim FX = 1.
−∞ +∞

On peut retrouver la loi quand on a la fonction de répartition. Les éléments de X (Ω) sont les "sauts". S’il y a
un saut en x alors P( X = x ) est la "hauteur du saut".

Proposition [Link]

Avec les notations précédentes, on a

∀ x ∈ R, P( X = x ) = FX ( x ) − lim FX (t).
t→ x −

Remarque : On étudiera souvent des variables aléatoires à valeurs entières. Dans ce cas la fonction de répartition
ne présente des sauts qu’aux entiers (elle est continue sur R \ Z) et elle est continue à droite aux entiers :

FX (n) = lim FX ( x ).
x →n+

En particulier, il suffit de connaitre la fonction de réparation aux entiers pour la connaitre en entier et on a

P( X = n) = P( X 6 n) − P( X 6 n − 1) = FX (n) − FX (n − 1).

399
On peut remarquer que P( X 6 n − 1) = P( X < n).
Exemple : On lance deux dés équilibrés à 6 faces. On note X1 et X2 les variables aléatoires qui décrivent le
résultat du premier (resp. du deuxième dé) et on note M = Max( X1 , X2 ) le plus grand des deux résultats. On
1
cherche la loi de M. Il est clair que pour tout i ∈ [1, 6], P( X1 = i ) = P( X2 = i ) = . D’où,
6
n
∀n ∈ [[ 0 ; 6 ]] , FX1 (n) = FX2 (n) = .
6
Maintenant l’événement ( M 6 n) = ( X1 6 n) ∩ ( X2 6 n). Les deux lancers étant indépendants,

n2
P ( X 6 n ) = P ( X1 6 n ) × P ( X2 6 n ) = .
36
On en déduit que
i 2 − ( i − 1)2 2i − 1
∀i ∈ [[ 1 ; 6 ]] , P( M = i ) = = .
36 36

1.4 Fonction d’une variable aléatoire


Définition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Soit u une fonction réelle
dont l’ensemble de définition contient X (Ω), on note u( X ) la variable aléatoire obtenue en composant u et X.

Remarque : Dans la plupart des cas la fonction u sera simple : y 7→ ay + b, y 7→ y2 .

Proposition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Soit u une fonction
réelle dont l’ensemble de définition contient X (Ω). Pour tout y ∈ R on a

P( u ( X ) = y ) = ∑ P( X = x ).
x ∈ u −1 ( y )

Exemple : On lance un dé équilibré à 6 faces et on note X le résultat obtenu. Calculons la loi de Y = ( X − 2)2 .
Pour commencer on cherche Y (Ω). On a X (Ω) = [[ 1 ; 6 ]] d’où Y (Ω) = {0, 1, 4, 9, 16}. De plus on a

p(Y = 0) = p( X = 2) = 1/6; p(Y = 1) = p( X = 1) + p( X = −1) = 1/3, . . .

2 Moments d’une variable aléatoire réelle


2.1 Espérance
Définition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. On note X (Ω) =
{ x1 , . . . , xr }. L’espérance (mathématique) de la variable aléatoire X est alors
r
E( X ) = ∑ xi .P(X = xi ).
i =1

Remarques :
1. L’espérance est donc une "moyenne" des valeurs prises coefficientée par la probabilité d’apparition. C’est
le gain moyen.

400
2. Si on ne connait pas précisément X (Ω) mais que l’on sait juste que X (Ω) ⊂ T où T est un ensemble fini.
On a encore
E( X ) = ∑ x.p( X = x ).
x∈T

On reprend nos deux exemples


Exemples :
1. E( X ) = 0
2. E( X ) = 7
3. Soit X une variable aléatoire et a ∈ R. On a alors E(1X =a ) = P( X = a).

Définition [Link]

Avec les notation précédente, si E( X ) = 0 la variable aléatoire est dite centrée.

Proposition [Link]

On peut calculer l’espérance d’une variable aléatoire X sur (Ω, P (Ω), P) en faisant une somme sur
Ω et non pas X (Ω) :
E( X ) = ∑ X (ω )P({ω }).
ω ∈Ω

Démonstration : Il suffit, dans la formule de l’espérance de X de remplacer P( X = x ) par ∑ P({ω }). 


ω ∈Ω
X (ω )= x

Proposition [Link] (Linéarité de l’espérance - version 1)

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Pour tout ( a, b) ∈ R2
on a
E( aX + b) = aE( X ) + b.

Remarque : Nous verrons dans le chapitre sur les couples de variables aléatoires la vraie propriété de la
linéarité de l’espérance.
Démonstration : Il suffit d’utiliser la deuxième formule :
E( aX + b) = ∑ aX (ω ) + bP({ω })
ω ∈Ω
= a ∑ X (ω )P({ω }) + b ∑ P({ω })
ω ∈Ω ω ∈Ω
= aE( X ) + b car ∑ P({ω }) = 1.
ω ∈Ω

Corollaire [Link]

Soit X une variable aléatoire, E( X − E( X )) = 0.

Terminologie : La variable X − E( X ) s’appelle la variable aléatoire centrée associée à X.


Nous avons vu qu’il pouvait être difficile ou au moins technique de calculer u( X ). On va voir que l’on peut
calculer E(u( X )) en utilisant la loi de X.

401
Proposition [Link] (Théorème de Transfert)

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. On note X (Ω). Soit
u une fonction dont l’ensemble de définition contient X (Ω). On a

E(u( X )) = ∑ u( x ).p( X = x ).
x ∈ X (Ω)

Remarque : Cette formule est importante. En effet elle permet de déterminer l’espérance de u( X ) sans avoir à
calculer la loi de u( X ).
Démonstration : On a vu que
E(u( X )) = ∑ u( X (ω ))P({ω })
ω ∈Ω

On peut regrouper les termes dans cette somme en fonction de la valeur de X (ω ). On obtient alors

E(u( X )) = ∑ ∑ u( X (ω ))P({ω })
x ∈ X (Ω) ω ∈Ω
X (ω )= x

= ∑ u( x ) ∑ u( X (ω ))P({ω })
x ∈ X (Ω) ω ∈Ω
X (ω )= x

= ∑ u ( x )P( X = x )
x ∈ X (Ω)

Exemple : On lance un dé équilibré à 6 faces et on note X le résultat obtenu. Soit Y = ( X − 2)2 . On a

1 31
E (Y ) = .(1 + 0 + 1 + 4 + 9 + 16) = .
6 6

Proposition [Link] (Propriétés de l’espérance)

1. (Positivité) : soit X une variable aléatoire positive. On a E( X ) > 0.


2. (Croissance) : Soit X et Y deux variables aléatoires sur le même espace probabilisé. On suppose
que X > Y. On a alors E( X ) > E(Y ).

Démonstration : Évident 
Remarque : On voit que l’espérance vérifie les propriétés des sommes et des intégrales.

Proposition [Link] (Inégalité de Markov)

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle positive sur Ω. Soit
α ∈ R?+ ,
E( X )
P( X > α ) 6
α

Démonstration : On note XΩ) = { xi }i∈r avec 0 6 x1 < x2 < · · · < xr . Soit q le plus petit entier tel que xq > α
(s’il n’y en a pas cela signifie que P( X > α) = 0 ce qui assure que l’inégalité est vraie). On a alors
r
p( X > α) = ∑ P( X = x k ).
k=q

402
Donc
r
P( X > α ) = ∑ P( X = x k )
k=q
r
xk
6 ∑ α
P( X = xk ) car xk > α
k=q
r
1
6
α ∑ x k P( X = x k )
k=q
r
1
6
α ∑ xk P(X = xk ) car X est à valeurs positives
k =0
E( X )
6
α

Remarques :
X
1. On peut faire une preuve plus rapide en utilisant que 1(X>α) 6 et en utilisant la croissance de
α
l’espérance.
2. Comme on peut le voir dans la preuve, cette inégalité n’est pas optimale.
Exemples :
1. Cette inégalité à de nombreuses applications comme nous le verrons au paragraphe suivant.
2. Si on tire 10 fois à pile ou face une pièce équilibrée et que l’on note X le nombre de pile obtenu. On verra
que X suit la loi binomiale : X ,→ B (10, 1/2). On en déduit que E( X ) = 5. De ce fait, pour α = 8 on
obtient :
5
P( X > 8) 6 ' 0, 625.
8
Ce n’est pas une très bonne inégalité. En effet
       10
10 10 10 1 56
P( X > 8) = + + × = ' 0, 055.
2 1 0 2 1024

2.2 Variance
On a vu que l’espérance donnait la valeur moyenne d’une variable aléatoire. Nous allons ici définir la
variance qui, pour sa part, exprime la dispersion autour de cette moyenne.

Définition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. On appelle variance de X et
on note V( X ) le nombre :
V( X ) = E(( X − E( X ))2 ).
On appelle écart-type et on note σ ( X ) le nombre
q
σ(X ) = V( X ).

Remarques :
1. La variable aléatoire ( X − E( X ))2 est positive. Son espérance est donc aussi positive. Ce qui nous donne
que la variance d’une variable aléatoire est toujours positive. Cela permet de montrer que l’écart-type est
bien défini.
2. La variance mesure la dispersion. En effet si X est une variable aléatoire constante alors V( X ) = 0.
Réciproquement, si V( X ) = 0 alors P( X 6= E( X )) = 0. On dit que X est constante presque surement.
On ne calculera rarement la variance en utilisant la définition. En effet pour ce faire, il faudrait d’abord
déterminer la loi de ( X − E( X ))2 puis son espérance. On passera plutôt par l’une des deux formules suivantes.

403
Proposition [Link]

Avec les notations précédentes, on a :

V( X ) = ∑ (X (ω ) − E(X ))2 P({ω })


ω ∈Ω

ou
V( X ) = ∑ ( x − E( X ))2 P( X = x )
x ∈ X (Ω)

Démonstration : Cela découle du théorème de transfert. 

Proposition [Link] (Formule de Huygens)

Avec les notations précédentes on a :

V( X ) = E( X 2 ) − E( X )2 .

Démonstration : On a
V( X ) = E(( X − E( X ))2 )
= E( X 2 − 2XE( X ) + E( X )2 )
= E( X 2 ) − 2E( X )2 + E( X )2
= E( X 2 ) − E( X )2

Remarque : On a utilisé un vérsion un peu plus forte de la linéarité de l’espérance que nous démontrerons
dans le chapitre sur les couples.
Exemples :
1. E( X 2 ) = V( X ) = 3/2.
2. V( X ) = 109/18.

Proposition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Pour tout ( a, b) ∈ R2
on a
V( aX + b) = a2 V( X ) et σ ( aX + b) = | a|σ ( X ).

Définition [Link]

X − E( X )
Une variable aléatoire est dite réduite sur σ ( X ) = 1. En particulier si σ ( X ) > 0 alors est centrée
σ(X )
et réduite.

Théorème [Link] (Inégalité de Bienaymé-Tchebychev)

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Pour tout réel
strictement positif α on a :
V( X )
P(| X − E( X )| > α) 6 .
α2

Remarques :

404
1. Cette inégalité montre bien que la variance mesure la dispersion autour de l’espérance. En effet, si la
variance est très petite alors la probabilité que X soit loin de E( X ) va être aussi très petite.
2. Nous verrons des exemples plus loin après l’étude de la loi binomiale.
Démonstration : Il suffit de voir que l’événement (| X − E( X )| > α) est égal à (( X − E( X ))2 > α2 ). En suite il
suffit d’utiliser l’inégalité de Markov. 
Remarque : Comme pour l’inégalité de Markov, ce n’est pas une inégalité très fiable dans de nombreux cas.
C’est intéressant si α est grand.

2.3 Les moments


Définition [Link]

Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Soit p ∈ N? on appelle
moment d’ordre p (resp. moment centré d’ordre p) le nombre E( X p ) (resp. E(| X − E( X )| p )).

Remarque : L’espérance est le moment d’ordre 1, la variance est le moment centré d’ordre 2.

3 Lois usuelles
Nous allons étudier dans ce paragraphe les lois classiques à connaître.

3.1 Loi uniforme


Définition [Link]

Soit N ∈ N? et x1 , . . . , x N des réels distincts. Soit (Ω, P (Ω), P) un espace probabilisé et X une variable
aléatoire réelle. On dit que X suit la loi uniforme sur { x1 , . . . , x N } si :
1. X (Ω) = { x1 , . . . , x N }
1
2. pour tout i compris entre 1 et N, P( X = xi ) = .
N
On note alors X ,→ U ({ x1 , . . . , x N }).

Remarques :
1. C’est la loi de l’équi-probabilité. En effet, savoir que toutes les instances sont équi-problables induit que la
loi de la variable aléatoire est la loi uniforme.
2. La plupart du temps on regardera - ou en se ramènera à étudier - la loi uniforme sur [[ 1 ; N ]] .

Proposition [Link]

Soit N ∈ N? et X ,→ U ([[ 1 ; N ]]). On a

N+1 N2 − 1
E( X ) = et V( X ) = .
2 12

Démonstration
Remarque : La formule de l’espérance est au programme, celle de la variance doit être redémontrée.

ATTENTION

Si X ,→ U ([[ 0 ; N ]]) les formules ci-dessus ne sont plus bonnes. On a

N ( N + 1)2 − 1
E( X ) = et V( X ) = .
2 12

405
3.2 Loi de Bernoulli
Définition [Link]

Soit p ∈ [0, 1]. Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle. On dit que X suit
la loi de Bernoulli de paramètre p si :
1. X (Ω) = {0, 1}
2. P( X = 1) = p et donc P( X = 0) = 1 − p.
On note alors X ,→ B (1, p).

Remarques :
1. Avant toutes choses, remarquons que l’on écrit Bernoulli et non Bernouilli. La loi de Bernoulli est due à
Jacques Bernoulli qui vecut dans la deuxième moitié du XVII ème siècle.
2. Cette loi est aussi appelée la loi succès-echec car cela décrit une expérience n’ayant que deux issues : le
succès (noté 1) ou l’echec (noté 0).
3. On notera souvent q = 1 − p = P( X = 0).

Proposition [Link]

Soit p ∈ [0, 1] et X une variable aléatoire suivant la loi B (1, p). On a

E( X ) = p et V( X ) = p(1 − p) = pq.

Exemples :
1. On procède à un tirage à pile ou face avec une pièce faisant pile avec la probabilité p. On considère X qui
vaut 1 si on a obtenu un pile et 0 sinon. On a X ,→ B (1, p)
2.
3. On procède à deux tirages à pile ou face avec une pièce faisant pile avec la probabilité p. On considère X
qui vaut 1 si on a obtenu deux piles et 0 sinon. On a X ,→ B (1, p2 )

3.3 Loi binomiale


Définition [Link]

Soit p ∈ [0, 1] et n ∈ N? . Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle. On dit
que X suit la loi binomiale de paramètres n, p si :
1. X (Ω) = {0, n}
 
n k
2. ∀k ∈ [[ 0 ; n ]] , P( X = k) = p (1 − p ) n − k
k
On note alors X ,→ B (n, p).

Remarques :
1. Pour n = 1 on retrouve la loi de Bernoulli.
2. On a bien
n
∑ P(X = k) = 1.
k =0
C’est le binôme de Newton.
3. C’est la loi qui modélise une succession d’épreuve de Bernoulli indépendantes et de même paramètre. La
loi est celle de la variable aléatoire « nombre de succès ». En effet si on considère n épreuves et que l’on
note A1i l’événement « l’épreuve i amène un succès », Ai−1 l’événement contraire de A1i et que X désigne
le nombre de succès. L’événement [ X = k ] est la réunion des événements
ε
A11 ∩ A2ε 2 ∩ · · · ∩ Aεnn

406
 
n
{−1, 1}n
où (ε 1 , . . . , ε n ) ∈ et tel que il y ait k fois le chiffre 1. Il y a tel n-uplets. De plus tous ces
k
événements ont la même probabilités qui, par indépendance est
n
∏ P( A i i ) = p k (1 − p ) n − k .
ε

i =1

Exemples :
1. On considère une urne avec a boules blanches et b boules noires. On en tire n avec remise. Soit X le nombre
de boules blanches tirées. La variable X suit la loi B (n, p) où p = a/( a + b).
2.

Proposition [Link]

Soit p ∈ [0, 1], n ∈ N et X une variable aléatoire suivant la loi B (n, p). On a

E( X ) = np et V( X ) = np(1 − p) = npq.

Démonstration : Nous verrons au prochain chapitre que cela peut se déduire de l’espérance et la variance des
variables de Bernoulli. Pour le moment nous sommes obligés de faire le calcul. 
Remarque : On peut aussi utiliser la fonction génératrice. En effet si on pose
n
GX ( s ) = ∑ P( X = k ) s k .
k =0

C’est un polynôme.
n
0 (s) =
On a GX (1) = 1 mais surtout GX ∑ kP(X = k)sk−1 donc GX
0 (1) = E( X ). Dans le cas de la loi
k =0
binomiale :
GX (s) = (1 − p + ps)n
et donc
0
GX (s) = np(1 − p + sp)n−1 et donc E( X ) = GX
0
(1) = np.

3.4 Retour sur l’inégalité de Bienaymé-Tchebychev


On considère une expérience aléatoire décrite par l’espace probabilisé (Ω, P (Ω), P) et A un événement. On
note p = P( A). Si on effectue de nombreuses fois (N) l’expérience de manière indépendante et que l’on note
X
X N le nombre de fois que l’événement p se réalise et si on note FN = N la fréquence à laquelle l’événement A
N
se réalise alors, il semble logique que FN va être proche de p.
On voit que X N ,→ B ( N, p). De ce fait, E( X N ) = N p et V( X N ) = N pq. On en déduit que
pq
E( FN ) = p et V( FN ) = .
N
Dès lors, l’inégalité de Bienaymé-Tchebychev affirme que, pour ε > 0,
pq
p(| FN − p| > ε) 6 .
Nε2
On voit donc que, quand N tend vers +∞, p(| FN − p| > ε) tend vers 0 et cela pour toute valeur de ε.
Par exemple si on lance N fois un dé équilibré à 6 faces. Alors le dé fera 6 environ une fois sur 6 et de ce fait,
FN ne devrait pas être loin de 1/6. D’après l’inégalité de Bienaymé-Tchebychev affirme que, pour ε = 5% = 1/20

5/36 1000
p(| FN − 1/6| > 1/20) 6 = .
N × (1/20)2 18N

De ce fait, si on veut être sur à 90% que FN ne diffère de pas plus de 1/20 de 1/6, on doit prendre N tel que

1000 10000
6 1 − 90/100 = 1/10 c’est-à-dire N > = 555, 5.
18N 18

407
Groupe symétrique
28
1 Généralités sur les groupes 408
1.1 Rappels sur les groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
1.2 Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
1.3 Image directe et réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
2 Sous-groupes engendré et ordre 411
2.1 Sous-groupe engendré par une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
2.2 Ordre d’un élément . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
3 Groupe symétrique 412
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
3.2 Transpositions et cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
4 Signature 415
4.1 Défintion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
4.2 Complément sur la signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416
4.3 Permutations paires et impaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417

1 Généralités sur les groupes


On va compléter ce que l’on a déjà vu sur les groupes et les anneaux.

1.1 Rappels sur les groupes


Définition [Link]

Soit G un ensemble muni d’une loi de composition interne ?. On dit que ( G, ?) est un groupe si :
1. La loi ? est associative ;
2. il existe un élément neutre e de G qui vérifie : ∀ g ∈ G, e ? g = g ? e = g.
3. Pour tout g dans G il existe g0 dans G tel que g ? g0 = g0 ? g = e.

408
Définition [Link]

Soit ( G, >) un groupe et H une partie de G. On dit que H est un sous-groupe de G si et seulement si :
1. L’ensemble H est stable par >.
2. L’ensemble H est stable par passage au symétrique.
3. L’ensemble H contient l’élément neutre.

Proposition [Link] (Caractérisation d’un sous groupe)

Soit ( G, ×) un groupe et H une partie de G. L’ensemble H est un sous-groupe de G si et seulement si


— H est non vide.
— ∀( x, y) ∈ H 2 , xy−1 ∈ H.

Théorème [Link] (Théorème de Lagrange)

Soit G un groupe fini de cardinal n et H un sous-groupe de G. Alors le cardinal de H est fini et divise
n.

Démonstration : Soit g dans G on pose gH = {α ∈ G | ∃h ∈ H, α = gh}. C’est-à-dire que pour α dans G,


α ∈ gH ⇐⇒ g−1 α ∈ H. Si on regarde ϕ g : G → G qui associe à u l’élément g.u, c’est une bijection. On en
déduit que Card gH = Card H. Maintenant si g1 et g2 sont deux éléments de G alors g1 H et g2 H sont disjoints
ou confondus. En effet s’ils ne sont pas confondus, il existe h ∈ H tel que g1 = g2 h car g1 ∈ g1 H. En fait on peut
voir les gH comme les classes d’équivalence pour la relation d’équivalence ∼ sur G suivante :

g ∼ g0 ⇐⇒ ∃h ∈ H, g = g0 h ⇐⇒ g0−1 g ∈ H.

A partir de là, on voit qu’il existe g1 , . . . , g p tels que g1 H, . . . , g p H forment une partition de G donc Card G =
p × Card H. 

1.2 Morphismes de groupes


Si on considère deux groupes ( G, >) et ( G 0 , ∗). Quand on considère une application f de G dans G 0 on
voudra souvent que cette application conserve la structure. Précisément

Définition [Link]

Soit ( G, >) et ( G 0 , ∗) deux groupes. On appelle morphisme de groupe de ( G, >) dans ( G 0 , ∗) toute application
f de G dans G 0 telle que
∀( g1 , g2 ) ∈ G2 , f ( g1 > g2 ) = f ( g1 ) ∗ f ( g2 ).

Remarque : Dans la plupart des cas, si les structures sur G et G 0 sont évidentes, on omettra le terme groupe
pour parler simplement de morphisme de G dans G 0 .
Exemples :
1. Soit G un groupe. L’application identité IdG de G dans lui-même est un morphisme.
2. Soit G et G 0 deux groupes dont les éléments neutres sont e et e0 . L’application constante égale à e0 est un
morphisme (c’est la seul application constante qui vérifie cela car nous verrons plus loin que si f est un
morphisme alors f (e) = e0 .)
3. De (Z, +) dans lui même, les applications n 7→ a.n sont des morphismes.
4. L’application ln est un morphisme de (R?+ , ×) dans (R, +) et inversement pour exp.
5. L’application θ 7→ eiθ de (R, +) dans (U , ×) où U = {z ∈ C | |z| = 1} est un morphisme.
Terminologie :

409
1. Un morphisme de groupe bijectif s’appelle un isomorphisme.
2. Un morphisme de groupe dont l’ensemble de départ et d’arrivé sont les mêmes s’appelle un endomor-
phisme.
3. Un morphisme de groupe bijectif dont l’ensemble de départ et d’arrivé sont les mêmes s’appelle un
automorphisme.

Proposition [Link]

Soit ( G, >) et ( G 0 , ∗) deux groupes et f un morphisme de G dans G 0 . On note e et e0 les éléments


neutres respectifs.
1. On a f (e) = e0 .
2. Pour tout g de G, f ( g−1 ) = ( f ( g))−1 .
3. Pour tout g de G et tout n de Z, f ( gn ) = ( f ( g))n .

Démonstration :
1. On a f (e>e) = f (e). Or f (e>e) = f (e) ∗ f (e). En mutlipliant par ( f (e))−1 on obtient bien f (e) = e0 .
2. Il suffit de vérifier que f ( g−1 ) ∗ f ( g) = f ( g−1 g) = f (e) = e0 et pareil pour f ( g) ∗ f ( g−1 ).
3. Par récurrence.


1.3 Image directe et réciproque


Proposition [Link]

Soit ( G, >) et ( G 0 , ∗) deux groupes et f un morphisme de G dans G 0 .


1. Si H est un sous-groupe de G alors f ( H ) = { g0 ∈ G 0 | ∃h ∈ H, g0 = f (h)} est un sous-groupe
de G 0 .
2. Si H 0 est un sous-groupe de G 0 alors f −1 ( H 0 ) = { g ∈ G | f ( g) ∈ H 0 } est un sous-groupe de G.

Démonstration

Exemples :
1. Soit f : θ 7→ eiθ le morpshime de groupe de (R, +) dans (U , ×). Soit Z ⊂ R le sous-groupe de R. Alors

f (Z) est un sous-groupe de U . De même si H 0 = {1, j, j2 } alors f −1 ( H 0 ) = Z.
3
2. Soit f : n 7→ a.n de Z dans Z. Alors f (Z) est aZ.

Définition [Link]

Soit ( G, >) et ( G 0 , ∗) deux groupes et f un morphisme de G dans G 0 . On appelle noyau de f et on note Ker f
le sous-groupe f −1 ({e0 }). On appelle image de f et on note Im f le sous-groupe f ( G ).

Proposition [Link]

Avec les notations précédentes,


1. L’application f est injective si et seulement si Ker f = {e}.
2. L’application f est surjective si et seulement si Im f = G 0 .

Exemple : L’application f : θ 7→ eiθ est surjective mais pas injective. Son noyau est 2πZ.

410
2 Sous-groupes engendré et ordre
2.1 Sous-groupe engendré par une partie
Proposition [Link]

Soit G un groupe.
1. Si H1 et H2 sont deux sous-groupes de G alors H1 ∩ H2 aussi.
\
2. Plus généralement si ( Hi )i∈ I est une famille de sous-groupes de G alors H = Hi est un
i∈ I
sous-groupe de G.

Démonstration : On ne traite que le deuxième cas, le premier s’en déduit. D’abord, H n’est pas vide car e ∈ H.
De plus si g1 et g2 sont deux éléments de H alors pour tout i dans I, g1 et g2 appartiennent à Hi et donc g1 g2−1
aussi. de ce fait, g1 g2−1 ∈ H. 

Proposition-Définition [Link]

Soit G un groupe et X une partie de G. On appelle sous-groupe engendré par X et on note < X > le
plus petit sous-groupe de G contenant X.

Démonstration : Il faut montrer qu’il existe un plus petit sous-groupe contenant les éléments de X. On pose
H l’ensemble des sous-groupes contenant X et on considère
\
H= G0
G 0 ∈H

Cela existe car H est non vide car il contient G. Il est évident que X ⊂ H et que H est inclus dans tout
sous-groupe de G contenant X. De plus, c’est un sous-groupe d’après ce qui précède. 
Remarque : En fait pour construire < X > il suffit de prendre toutes les combinaisons des « puissances » (posi-
tives et négatives) des éléments de X si on utilise une notation multiplicative de G.

Proposition [Link]

Soit G un groupe et g un élément de G. Le groupe engendré par { g} se note < g > et est égal à

< g >= { gn | n ∈ Z}.

Proposition [Link]

Soit G un groupe et g ∈ G. L’application

ϕg : Z → G
n 7→ gn

est un morphisme de groupe et Im ϕ g =< g > .

Démonstration
Exemples :
1. Si G = Z, le sous-groupe engendré par a ∈ Z et aZ = {ma | m ∈ Z}. Attention ici on utilise une notation
additive.
2. Si G = (U , ×). On a < 1 >= {1}, < −1 >= {−1, 1}, < i >= {i, −i, 1, −1}. De manière générale, si
a = e2iπ/n , alors < a >= {e2ikπ/n | k ∈ [[ 0 ; n − 1 ]] . Si a n’est pas une racine de l’unité, c’est-à-dire que
pour tout n dans Z, an 6= 1 alors < a >= { an |n ∈ Z}. En effet dans ce cas ϕ a est injectif.

411
2.2 Ordre d’un élément
Définition [Link]

Soit G un groupe et g un élément. Si < g > est un groupe de cardinal fini, on dit que g est d’ordre fini et que
Card < g > est l’ordre de g.

Remarque : D’après ce qui précède, cela revient à dire que g est d’ordre p si p est le plus petit entier tel que
g p = e. C’est-à-dire, Ker ϕ g = pZ.
Exemples :
1. Dans (Z, +), l’élément 0 est d’ordre 1, tous les autres ne sont pas d’ordre fini.
2. Dans (U , ×), i est d’ordre 4 alors que ei est d’ordre infini.

Proposition [Link]

Si G est un groupe fini, tout élément g de G est d’ordre fini et son ordre divise le cardinal de G.

Démonstration : C’est juste le théorème de Lagrange. 

Définition [Link]

Un groupe G est dit cyclique s’il existe g dans G tel que G =< g >.

Exemples :
1. Le groupe (Z, +) est cyclique car engendré par 1 et −1.
2. Le groupe (U , ×) n’est pas cyclique. En effet soit g = eiθ . On suppose que < g >= U . Cela revient à dire
que ∀ x ∈ R, ∃(n, p) ∈ Z2 , x = nθ + 2pπ ce qui est faux. Par contre {z ∈ U | zn = 1} est cyclique. Il est
engendré par ω = e2iπ/n et même par tous les wk pour k premier avec n.

3 Groupe symétrique
3.1 Définitions
Définition [Link]

Soit n un entier naturel non nul, on appelle groupe symétrique et on note (Sn , ◦) (ou Sn ) le groupes des
permutations de [[ 1 ; n ]] .

Remarque : On a vu que, pour tout ensemble E l’ensemble des bijections de E de E muni de la composition
était un groupe.
Notation : Si σ et τ sont deux éléments de Sn on notera στ pour σ◦ τ.  
1 2 3 4 5 6 1 2 3 4 5 6
Exemple : Dans S6 si σ est définie par σ = et τ = . Alors
2 3 4 6 5 1 1 4 2 5 6 3
   
1 2 3 4 5 6 1 2 3 4 5 6
στ = et τσ = .
2 6 3 5 1 4 4 2 5 3 6 1

En particulier στ 6= τσ. On voit que pour n > 3, Sn n’est pas abélien.

Proposition [Link]

Le groupe Sn est fini et son cardinal est n!.

412
Exemples :
1. Pour n = 1, on a S1 = {Id}.
2. Pour n = 2 le groupe S2 a deux éléments : l’identité Id qui est l’élément neutre et la permutation σ qui
échange 1 et 2 (nous la noterons (1, 2)). Elle vérifie que σ2 = Id. En particulier S2 est isomorphe au groupe
({−1, 1}, ×) et il est cyclique et abélien.

Définition [Link]

Soit σ ∈ Sn et k ∈ [[ 1 ; n ]]. On appelle orbite de k sous l’action de σ l’ensemble {σi (k) | i ∈ Z}.

Remarque : Soit p > 0 le plus petit entier tel que σ p (k) = k (qui existe car σ est d’ordre fini dans Sn ) alors,
l’orbite de k est {σi (k) | i ∈ [[ 0 ; p − 1 ]]}.

3.2 Transpositions et cycles


Définition [Link]

1. Une permutation σ de Sn qui échange deux éléments i et j de [[ 1 ; n ]] s’appelle une transposition. On


la note σ = (i, j) et elle est définie par

 i si k = j
∀k ∈ [[ 1 ; n ]] , σ(k) = j si k = i

k sinon.

2. Soit n ∈ N? et X = ( a1 , . . . , a p ) des éléments deux à deux disjoints de [[ 1 ; n ]]. La permutation σ


définie par : 
 k si k ∈
/X
∀k ∈ [[ 1 ; n ]] , σ(k) = ai+1 si k = ai pour 1 6 i 6 p − 1

a1 si k = a p
Elle se note σ = ( a1 , . . . , a p ). On dit que c’est un p-cycle ou un cycle d’ordre p. L’ensemble { a1 , . . . , an }
s’appelle le support du cycle.

Remarques :
1. La transposition σ = (i, j) est égale à la transposition ( j, i ). On a σ−1 = σ car σ2 = Id.
2. Le cycle σ = ( a1 , . . . , a p ) est aussi le cycle ( a2 , . . . , a p , a1 ). On a de plus σ−1 = ( a p , a p−1 , . . . , a2 , a1 ).
Exemple : Pour n = 3, S3 a 6 éléments
— L’identité : Id
— Les transpositions : (1, 2), (1, 3) et (2, 3)
— Les 3-cycles : (1, 2, 3) et (1, 3, 2)

Proposition [Link]

Un cycle d’ordre p est d’ordre p dans Sn . En particulier les transpositions sont involutives (elles
vérifient σ2 = Id).

Proposition [Link]

Toute permutation de Sn s’écrit comme un produit de transpositions.

Démonstration : On procède par récurrence sur n.


— Initialisation : C’est évident pour n = 2.

413
— Hérédité : Soit n > 2. On suppose que l’hypothèse de récurrence est vraie pour n. Soit σ ∈ Sn+1 . On
sépare deux cas :
— si σ (n + 1) = n + 1 alors σ peut être vu comme un élément de Sn . De ce fait c’est un produit de
transpositions.
— si σ (n + 1) = u 6= n + 1, on pose τ = (n + 1, u) qui est une transposition. Dès lors, τσ est un élément
de Sn+1 qui laisse stable n + 1. C’est donc un produit de transpositions. On peut alors conclure en
remarquant que
σ = τ (τσ)
car τ 2 = Id.
On a bien montré que σ était un produit de transpositions.

Remarque : En reprenant la démonstration précédente, on peut même montrer qu’une permutation de Sn est
le produit de au plus n − 1 transpositions.
 
1 2 3 4 5 6
Exemple : Dans S6 on considère σ = . On applique la méthode précédent :
2 3 4 6 5 1
 
1 2 3 4 5 6
σ = (1, 6)σ1 ou σ1 = .
2 3 4 1 5 6

Ensuite  
1 2 3 4 5 6
σ1 = (1, 4)σ2 ou σ2 = .
2 3 1 4 5 6
Puis  
1 2 3 4 5 6
σ2 = (1, 3)σ3 ou σ3 = = (1, 2).
2 1 3 4 5 6
On a donc
σ = (1, 6)(1, 4)(1, 3)(1, 2).
Attention au faut que l’ordre compte. En effet, (1, 2)(1, 3)(1, 4)(1, 6) = σ−1 .

ATTENTION

La méthode suggérée par la démonstration ci-dessus n’est pas la meilleure.

Exercice : Soit σ l’élément de Sn défini par σ (i ) = n + 1 − i. Décomposer σ en produit de transposition. On


pourra séparer les cas où n est pair du cas où n est impair.

Proposition [Link]

Soit σ = ( a1 , . . . , a p ) un p-cycle, alors σ = ( a p , a p−1 ) · · · ( a3 , a2 )( a2 , a1 ).

Démonstration : Cela se fait par récurrence sur p en procédant comme ci-dessus.

Proposition [Link]

Toute permutation σ peut s’écrire comme produit de cycles de supports disjoints.

Démonstration : On procède de manière algorithmique. Soit σ ∈ Sn . On pose alors a1 = 1. On sépare les cas,
— Si σ ( a1 ) = 1 on s’arrête.
— Si σ ( a1 ) 6= 1, on pose a2 = σ (1) on on recommence, en considérant a2 .
— Si σ ( a2 ) = 1 on s’arrête.
— Si σ ( a2 ) 6= 1 on pose a3 = σ ( a2 ).

414
On fini par obtenir a p tel que σ( a p ) = 1. On construit donc un cycle τ = ( a1 , a2 , . . . , a p ) de telle sorte que τ −1 σ
fixe les éléments a1 , . . . , a p . On recommence en considérant un élément de [[ 1 ; n ]] qui n’est pas dans le support
de τ. A la fin, on a construit des cycles τ1 , . . . , τq de supports disjoints tels que

τq−1 · · · τ1−1 σ = Id ⇒ σ = τ1 · · · τq .


Remarques :
1. Ici le produit est commutatif car les supports des cycles sont disjoints.
2. On peut aussi procéder en considérant la relation d’équivalence ∼σ sur [[ 1 ; n ]] définie par

∀(i, j) ∈ [[ 1 ; n ]] , i ∼σ j ⇐⇒ ∃k ∈ Z, i = σk ( j).

Dans ce cas, les classes d’équivalences sont les supports des cycles de la décomposition.
 
1 2 3 4 5 6
Exemple : On considère σ = . On a alors
3 4 6 2 5 1

σ = (1, 3, 6) ◦ (2, 4)

Proposition [Link]

Soit σ = ( a1 , a2 , . . . , a p ) un p-cycle. On a

σ = ( a 1 , a 2 ) ◦ ( a 2 , a 3 ) ◦ · · · ◦ ( a p −1 , a p −2 ) ◦ ( a p −1 , a p )

Remarque : On peut donc obtenir une décomposition en transpositions à l’aide de la décomposition en cycle.
Par exemple
(1, 2, 3, 4, 6) = (1, 2) ◦ (2, 3) ◦ (3, 4) ◦ (4, 6)

ATTENTION

Ne pas se tromper dans l’ordre.

4 Signature
4.1 Défintion
On a vu que toute permutation pouvait se décomposer en produit de transpositions. Cette décomposition
n’est pas unique (pas plus que le nombre de transposition qu’il y a dans la décomposition). Par contre la parité
du nombre de transposition l’est. Plus précisément :

Théorème [Link]

Il existe un unique morphisme de groupe ε : Sn → {±1} tel que pour toute transposition τ,
ε(τ ) = −1.

Remarque : Si on admet ce qui a été dit au-dessus, le théorème en découle. Cependant, nous allons démontrer
le théorème de manière un peu différente (et « plus simple »)

Définition [Link]

Le morphisme ε s’appelle la signature et, pour tout permutation σ, ε(σ ) s’appelle la signature de σ.

415
Proposition [Link]

Si σ est un p-cycle alors ε(σ ) = (−1) p−1 .

Démonstration :
On sait qu’un p-cycle σ = ( a1 , . . . , a p ) peut s’écrire comme le produit de p − 1 transpositions : ( a p , a p−1 ) · · · ( a3 , a2 )( a2 , a1 ).
Donc ε(σ ) = (−1) p−1 .

Remarque : Pour calculer la signature, le plus simple est souvent de décomposer en produit de cycles à
supports disjoints et d’utiliser ce qui précède.

4.2 Complément sur la signature


Définition [Link]

Soit σ une permutation de Sn . Un couple (i, j) ∈ [[ 1 ; n ]]2 est dit une inversion de σ si i < j et σ (i ) > σ ( j).
On note I (σ ) le nombre d’inversion.

n ( n − 1)
Remarque : Le nombre d’inversion est un entier compris entre 0 (pour σ = Id) et (pour σ : i 7→
2
n + 1 − i).  
1 2 3 4 5 6
Exemple : Si σ = les inversions de σ sont (1, 6), (2, 6), (3, 6), (4, 5), (4, 6), (5, 6). On a
2 3 4 6 5 1
I (σ ) = 4.

Définition [Link]

Soit σ une permutation de Sn . On note α(σ ) le nombre

σ (i ) − σ ( j )
α(σ) = ∏ i−j
= (−1) I (σ) ∈ {±1}.
16 i < j 6 n

Remarque : On peut voir que

∏ σ (i ) − σ ( j )
σ (i ) − σ ( j ) 16 i < j 6 n
∏ = .
16 i < j 6 n
i−j ∏ i−j
16 i < j 6 n

De ce fait on a les mêmes termes en haut et en bas sauf pour I (σ ) termes qui sont inversés.

Proposition [Link]

1. L’application α : Sn → {±1} est un morphisme de groupe.


2. Si τ est une transposition, α(τ ) = −1.

Démonstration :
1. Soit (σ, τ ) ∈ S2n ,

∏ στ (i ) − στ ( j) ∏ στ (i ) − στ ( j) ∏ τ (i ) − τ ( j )
16 i < j 6 n 16 i < j 6 n 16i < j6n
α(στ ) = = . .
∏ i−j ∏ τ (i ) − τ ( j ) ∏ i−j
16 i < j 6 n 16 i < j 6 n 16 i < j 6 n

416
στ (i ) − στ ( j) στ ( j) − στ (i )
La partie de droite est bien α(τ ). Pour la partie de gauche, il suffit de voir que = .
τ (i ) − τ ( j ) τ ( j ) − τ (i )
Si bien que l’on peut échanger si τ (i ) > τ ( j). On a donc :

στ (i ) − στ ( j) στ (i ) − στ ( j)
∏ τ (i ) − τ ( j )
= ∏ τ (i ) − τ ( j )
= α ( σ ).
16 i < j 6 n 16τ (i )<τ ( j)6n

En conclusion, α(στ ) = α(σ )α(τ ).


2. Soit σ = (k, l ) une transposition avec k < l. Les inversions de σ sont les couples de la forme :
— (k, j) pour k < j < l : il y en a l − k − 1
— (i, l ) pour k < i < l : il y en a l − k − 1
— (k, l )
On en déduit que I (σ ) = 2l − 2k − 1 qui est impair et donc α(σ ) = −1.


Théorème [Link]

L’application α : Sn → {±1} est un morphisme de groupe et pour toute transposition σ, α(σ ) = −1.
C’est donc la signature.

4.3 Permutations paires et impaires


Terminologie :
1. Une permutation dont la signature est 1 est dite paire. On note An l’ensemble des permutations paires.
2. Une permutation dont la signature est −1 est dite impaire.
Remarque : On a donc An = Ker ε.

Proposition [Link]

L’ensemble An des permutations paires est un sous-groupe de Sn .

Démonstration : Par définition car An = Ker ε. 


Exemple : On a A3 = {Id, (1, 2, 3), (1, 3, 2)}.

Proposition [Link]

Soit σ une permutation impaire fixée, l’ensemble des permutations impaires est An σ = {τσ | τ ∈
An } .

Démonstration : De manière évidente, les éléments de An σ sont des permutations impaires car ε(τσ) =
ε(τ )ε(σ ) = −1. Réciproquement, si µ est une permutation impaire, τ = µσ est alors paire et µ = τσ. 

Corollaire [Link]

Soit σ une permutation impaire fixée, les ensembles An et An σ forment une partition de Sn . En
particulier,
n!
Card An = .
2

417
1 Introduction
Déterminant
29 418
2 Applications multilinéaires 419
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
2.2 Expression d’une application p-linéaire sur un espace vectoriel de dimension finie . . . . 420
2.3 Applications symétriques, antisymétriques et alternées . . . . . . . . . . . . . . . . . . . . . . . . . 421
3 Déterminant 422
3.1 Formes n-linéaires sur un espace vectoriel de dimension n . . . . . . . . . . . . . . . . . . . . . 422
3.2 Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
3.3 Volume dans R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
3.4 Orientation d’un R-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
3.5 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426
3.6 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
3.7 Propriétés et calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
3.8 Développements suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
3.9 Déterminants classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432
4 Utilisation des déterminants 435
4.1 Commatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
4.2 Formule de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435

Dans ce chapitre K désigne le corps R ou C.

1 Introduction
On a déjà rencontré le déterminant de deux vecteurs de R2 . Soit −

u = ( x, y) et −

u 0 = ( x 0 , y0 ). On a noté

x x0
det(−

u ,−

u 0) = = xy0 − x 0 y.
y y0

On peut interpréter cela comme l’aire du parallélogramme basé sur les vecteurs −

u et −

u 0 . En effet on sait
que l’aire du parallélogramme est donnée par la formule

A = base × hauteur

Cela peut se voir sur le dessin :

418
A

A=b⇥h

h
b

Maintenant si on considère le vecteur − →


v = (y, − x ) qui est directement orthogonal à −

u . Les relations
Anous permettent d’obtenir :
classiques sur les produits scalaires ~u ~v
0
−→0~u− = ( y 1 , x1 )
~u A = | u . v | = | x 0 y − xy0 | = | det(−
→ →
u ,−

u 0 )|.
|~v · ~u0 | = h ⇥ k~uk = hb = A
Proposition [Link]

L’application det de R2 dans R vérifie les propriétés


~u0 suivantes :
1. Elle est bilinéaire.
b→
2. On a det(− →u ,−

u 0 ) = − det(−

u 0, −
u )h ~v

→ −

3. On a det( u , u ) = 0.
~u

Nous verrons aussi plus loin que cet exemple se généralise au volume d’un parallélépipède dans R3 .

2 Applications multilinéairesA = |x1 y2 y1 x2 |

2.1 Définitions a, b, c, d
a vectoriels
Dans ce paragraphe E et F sont deux espaces c sur K.
:= ad bc
b d
Définition [Link]

Soit p ∈ N? . On appelle application p-linéaire de E dans F une application f de E p dans F telle que pour tout
( a1 , . . . , a p ) dans E p et tout i dans [[ 1 ; p ]], l’application :

f ( a 1 , . . . , a i −1 , • , a i +1 , . . . , a p ) : E → F
x 7→ f ( a1 , . . . , ai−1 , x, ai+1 , . . . , a p )

est linéaire.

Remarques :
1. On dit que f est linéaire par rapport à toutes ses coordonnées.
2. On s’intéressera principalement au cas des formes p-linéaires qui sont des applications p-linéaires de E
dans K. De même on s’intéressera principalement à p = 2 ou p = dim E.
Terminologie :
1. L’ensemple des applications p-linéaires de E dans F se note L p ( E, F ).
2. Une application 1-linéaire est une application linéaire.
3. Une application 2-linéaire s’appelle une application bilinéaire.
4. Une application 3-linéaire s’appelle une application trilinéaire.
Exemples :

419
1. Les applications linéaires sont les applications 1-linéaires.
2. Si E = K[ X ] et f : E × E → E défini par f ( P, Q) = PQ. L’application f est bilinéaire.
3. Le cas précédent fonctionne encore pour toute algèbre E : L ( E), Mn (K), C p ( I, R).
4. De manière plus générale, soit E une algèbre :

Ep → E
( x1 , . . . , x p ) 7 → x1 × · · · × x p

est p-lineaire.
5. Dans E = R2 (ou R3 ) le produit scalaire est une forme bilinéaire. On a dans R2

( x1 , x2 ).( y1 , y2 ) = x1 y1 + x2 y2 .

6. Dans R2 le déterminant est une forme bilinéaire.


x1 y1
Det(( x1 , y1 ), ( x2 , y2 )) = = x1 y2 − x2 y1 .
x2 y2
Z 1
7. Pour E = C 0 ([0, 1], R), l’application ( f , g) 7→ f (t) g(t) dt est une forme bilinéaire.
0

2.2 Expression d’une application p-linéaire sur un espace vectoriel de dimension finie
On suppose que E est un espace vectoriel de dimension finie et on note (e1 , . . . , en ) une base de E. On va
voir que l’on peut décrire les formes multilinéaires comme les applications linéaires.
Commençons par étudier le cas des applications bilinéaires (qui est le plus courant).
Soit f une application bilinéaire sur E. Pour tous vecteurs u et v, on note

u= ∑ xi ei et v = ∑ yj ej .
16 i 6 n 16 j 6 n

On a alors
!
f (u, v) = f ∑ x i ei , ∑ yj ej
16 i 6 n 16 j 6 n
!
= ∑ xi f ei , ∑ yj ej par linéarité à gauche
16 i 6 n 16 j 6 n

= ∑ x i y j f ( ei , e j )
16i,j6n

On voit donc que f est uniquement déterminée par son action sur la base. Il suffit de connaitre f (ei , e j ) pour
(i, j) ∈ [[ 1 ; n ]]2 pour connaitre f .
Réciproquement, si on se donne uij des scalaires (ou des vecteurs de F pour une application multilinéaire)
l’application !
f : ∑ x i ei , ∑ y j e j 7→ ∑ xi y j uij
i j i,j

est bilineaire.
Remarque : On retrouve par exemple le produit scalaire en posant (dans une base orthonormée) u11 = u22 = 1
et u12 = u21 = 0

420
Théorème [Link]

Avec les notations précédentes, si f est une forme p-linéaire de E dans F. Pour tous vecteurs

u1 = ∑ xi1 ei , . . . , u p = ∑ xip ei ,
i i

on a
f ( u1 , . . . , u p ) = ∑ x i1 1 · · · x i p p f ( ei1 , . . . , ei p ).
16i1 ,...,i p 6n

Réciproquement pour tout famille (u I ) I ∈[[ 1 ; n ]] p , l’application


!
f : ∑ xi1 ei , · · · , ∑ xip ei 7→ ∑ xi1 1 · · · xi p p ui1 ,...,i p
i i 16i1 ,...,i p 6n

est une application p-linéaire.

Démonstration : Cela se fait par récurrence sur p. 


Exemple : Justifier que L p ( E, K) est un espace vectoriel et donner sa dimension. En faire de même pour
L p ( E, F ).

2.3 Applications symétriques, antisymétriques et alternées


Définition [Link]

Soit f une forme p-linéaire de E dans F.


1. Elle est dite symétrique si pour tout (u1 , . . . , u p ) de E p et tout 1 6 i < j 6 p,

f ( u 1 , . . . , u p ) = f ( u 1 , . . . , u i −1 , u j , u i +1 , . . . , u j −1 , u i , u j +1 , . . . , u p ).

On ne change pas la valeur de f en inversant la place de deux vecteurs.


2. Elle est dite antisymétrique si si pour tout (u1 , . . . , u p ) de E p et tout 1 6 i < j 6 p,

f ( u 1 , . . . , u p ) = − f ( u 1 , . . . , u i −1 , u j , u i +1 , . . . , u j −1 , u i , u j +1 , . . . , u p ).

On obtient l’opposée de la valeur initiale en inversant la place de deux vecteurs.

Exemples :
1. Le produit scalaire de R2 (ou R3 ) est symétrique.
2. Le déterminant de R2 est antisymétrique.
3. La forme bilinéaire (( x1 , y1 ), ( x2 , y2 )) 7→ x1 y2 n’est ni symétrique ni antisymétrique.

Proposition [Link]

Soit f une forme p-linéaire et σ ∈ S p . Pour tout (u1 , . . . , u p ) ∈ E p on a :


1. Si f est symétrique, f (uσ(1) , . . . , uσ( p) ) = f (u1 , . . . , u p ).
2. Si f est antisymétrique, f (uσ(1) , . . . , uσ( p) ) = ε(σ) f (u1 , . . . , u p ).

Démonstration : Il suffit de décomposer σ en produit de transpositions. 

421
Définition [Link]

Soit f une application p-linéaire de E dans F, elle est dite alternée si

∀(u1 , . . . , u p ) ∈ E p , (∃(i, j) ∈ [[ 1 ; p ]]2 , ui = u j ) ⇒ f (u1 , . . . , u p ) = 0.

Exemple : Le produit scalaire n’est pas alterné alors que le déterminant l’est.

Théorème [Link]

Toute application p-linéaire alternée est antisymétrique.

Démonstration : Soit f une application p-linéaire alternée. Soit (u1 , . . . , u p ) ∈ E p et 1 6 i < j 6 p. On a


0 = f ( u 1 , . . . , u i −1 , u i + u j , u i +1 , . . . , u j −1 , u i + u j , u j +1 , . . . , u p )
= f ( u 1 , . . . , u i −1 , u i , u i +1 , . . . , u j −1 , u i , u j +1 , . . . , u p ) + f ( u 1 , . . . , u i −1 , u i , u i +1 , . . . , u j −1 , u j , u j +1 , . . . , u p )
+ f ( u 1 , . . . , u i −1 , u j , u i +1 , . . . , u j −1 , u i , u j +1 , . . . , u p ) + f ( u 1 , . . . , u i −1 , u j , u i +1 , . . . , u j −1 , u j , u j +1 , . . . , u p )
= f ( u 1 , . . . , u p ) + f ( u 1 , . . . , u i −1 , u j , u i +1 , . . . , u j −1 , u i , u j +1 , . . . , u p )
Donc f est antisymétrique. 
Remarque : La réciproque est encore vraie en effet, si f est alternée alors en échangeant les deux termes égaux
on trouve :
f (u1 , . . . , ui−1 , a, ui+1 , . . . , u j−1 , a, u j+1 , . . . , u p ) = − f (u1 , . . . , ui−1 , a, ui+1 , . . . , u j−1 , a, u j+1 , . . . , u p ).
d’où
2 f (u1 , . . . , ui−1 , a, ui+1 , . . . , u j−1 , a, u j+1 , . . . , u p ) = 0.
Par contre il existe des corps (de caractéristique 2) où 2x = 0 n’implique pas que x = 0. Dans ce cas la réciproque
n’est plus vraie.

Proposition [Link]

Soit f une forme p linéaire alternée et (u1 , . . . , u p ) une famille liée. On a f (u1 , . . . , u p ) = 0.

Démonstration : La famille est supposée liée, il existe donc un vecteur de la famille qui s’exprime en fonction
des autres. Par antisymétrie, on peut supposer que c’est u1 (sinon, si c’est ui0 on échange u1 et ui0 ce qui multiplie
p
la valeur calculée par −1). On a alors u1 = ∑ λk uk et, par linéarité :
k =2
p
f ( u1 , . . . , u p ) = ∑ λk f (uk , u2 , . . . , u p ) = 0.
k =2

3 Déterminant
On se fixe un espace vectoriel E de dimension n.

3.1 Formes n-linéaires sur un espace vectoriel de dimension n


Théorème [Link]

L’ensemble des formes n-linéaires alternées de E est un espace vectoriel de dimension 1. On le note
Λ∗n E.

422
Démonstration : Remarquons pour commencer que l’ensemble des formes n-linéaires alternées est inclus dans
l’espace vectoriel L ( E p , K). Il est clairement stable par les opérations. On en déduit que c’est un un espace
vectoriel. Il reste à montrer qu’il est de dimension 1.
— Commençons à le prouver dans le cas où n = 2. Considérons une base (e1 , e2 ) de E. On sait que pour
déterminer f il suffit de connaitre u11 = f (e1 , e1 ), u12 = f (e1 , e2 ), u21 = f (e2 , e1 ) et u22 = f (e2 , e2 ). Comme
f est alternée, u11 = u22 = 0. De plus, elle est antisymétrique donc u21 = u12 . On conclusion, si on pose f 0
la 2-forme linéaire alternée telle que u12 = 1 (et donc u21 = −1), alors pour toute 2-forme linéaire alternée
f on a
f = f ( e1 , e2 ) f 0 .
D’où l’ensemble des formes 2-linéaires alternées de E est un espace vectoriel de dimension 1.
Remarquons d’ailleurs que si E = R2 et (e1 , e2 ) est la base canonique, f 0 est juste le déterminant.
— Étudions maintenant le cas général. Soit f une forme n-linéaire alternée. On considère encore une base
(e1 , . . . , en ) de E. Pour tout I = (i1 , . . . , in ) ∈ [[ 1 ; n ]]n on pose u I = f (ei1 , . . . , ein ). Là encore, on a vu que
f était uniquement déterminée par la famille (u I ) I ∈[[ 1 ; n ]]n .
On peut voir notre n-uplet I comme une application σ de [[ 1 ; n ]] dans lui même en posant σ(1) =
i1 , . . . , σ (n) = in et on notera uσ pour u I ;
Maintenant, comme f est alternée, si σ n’est pas injective alors uσ = 0. A l’inverse, si σ est injective, c’est
une permutation et on a donc

u σ = f ( e σ (1) , . . . , e σ ( n ) ) = ε ( σ ) f ( e1 , . . . , e n )

car f est antisymétrique.


En conclusion, si on pose encore f 0 l’unique application n-linéaire alternée vérifiant f 0 (e1 , . . . , en ) = 1
alors f 0 engendre l’ensemble des formes n-linéaires alternées de E qui est donc un espace vectoriel de
dimension 1.


Corollaire [Link]

Soit B = (e1 , . . . , en ) une base de E et f 0 l’unique forme n-linéaire telle que f 0 (e1 , . . . , en ) = 1. Soit
(u1 , . . . , un ) dont les coordonnées dans B sont
n
∀ j ∈ [[ 1 ; n ]] u j = ∑ xij ei .
i =1

On a
f ( u1 , . . . , u n ) = ∑ ε(σ ) xσ(1),1 · · · xσ(n),n .
σ ∈Sn

Exercice : (Pas simple) Déterminer une base et la dimension des applications p-linéaires.

3.2 Déterminant d’une famille de vecteurs


Définition [Link]

Soit E = (e1 , . . . , en ) une base de E. Il existe une unique forme n-linéaire f 0 telle que f 0 (e1 , . . . , en ) = 1. On
l’appelle le determinant relatif à la base E et on la note detE (ou det s’il n’y a pas de confusion)

Remarques :
1. L’existence et l’unicité découle du fait que l’ensemble des formes n-linéaires sur E est un espace de
dimension 1.
2. Si on change E , on change detE . Cela sera précisé par la proposition suivante.
3. Si on prend E = R2 et E la base canonique, on retrouve le déterminant vu au début de l’année.
Exemple : Calculons le déterminant dans R3 par rapport à la base canonique :

Det(( x, y, z), ( x 0 , y0 , z0 ), ( x 00 , y00 , z00 )) = xy0 z00 − xz0 y00 − yx 0 z00 + yz0 x 00 + zx 0 y00 − zy0 x 00 .

423
Proposition [Link]

Soit E et E 0 deux bases de E. On a

DetE = DetE (E 0 )DetE 0 .

Démonstration : On a vu que DetE et DetE 0 sont deux éléments non nuls de ∆∗n E qui est de dimension 1. Ils
sont donc colinéaires et le coefficient de colinéarité n’est pas nul. Il suffit ensuite d’appliquer en E 0 pour trouver
le coefficient.

Remarques :
1
1. On voit donc que DetE (E 0 ) = .
DetE (E 0 )
2. En particulier, si on échange l’ordre des vecteurs d’une base on peut modifier le déterminant, si E =
(ei )i∈[[ 1 ; n ]] et E 0 = (eσ(i) )i∈[[ 1 ; n ]] alors
DetE 0 = ε(σ )DetE .
Exemple : Si on considère la famille E = (u, v) ou u = (1, 2) et v = (−3, 1). C’est une base de R2 . On a
1 −3
DetE = Det(E )Det où Det est le déterminant par rapport à la base canonique. Or Det(E ) = = 7.
2 1
Donc DetE = [Link].

Proposition [Link]

Soit B une base et (u1 , . . . , un ) ∈ En ,

(u1 , . . . , un ) est une base de E ⇐⇒ DetB (u1 , . . . , un ) 6= 0.

Démonstration :
— ⇒ On suppose que (u1 , . . . , un ) est une base. Le scalaire DetB (u1 , . . . , un ) est celui qui est défini ci-
dessus, il est non nul.
— ⇐ Procédons par contraposée. Si la famille (u1 , . . . , un ) n’est pas une base, elle est liée. Il existe donc
i ∈ [[ 1 ; n ]] tel que ui soit une combinaison linéaire des u j avec j 6= i. On note ui = ∑ λ j u j . On en déduit
j 6 =i
que
DetB (u1 , . . . , un ) = ∑ λ j DetB (u1 , . . . , ui−1 , u j , ui+1 , un )
j 6 =i
= 0 car DetB est alternée


3.3 Volume dans R3


On a vu que le déterminant (ou plutôt sa valeur absolue) permettait de mesurer l’aire d’un parallélogramme.
On va maintenant illustrer que le déterminant sert aussi à calculer le volume d’un parallélépipède.

Définition [Link]

Soit u1 , u2 et u3 trois vecteurs de R3 . On appelle parallélépipède engendré par (u1 , u2 , u3 ) l’ensemble

P(u1 , u2 , u3 ) = {λ1 u1 + λ2 u2 + λ3 u3 | (λ1 , λ2 , λ3 ) ∈ [0, 1]3 }

Remarque : On peut évidemment généraliser cela à Rn .


Considérons alors une application ϕ qui associe à un parallélépipède son volume. Plus exactement on pose

ϕ: ( R3 )3 → R
(u1 , u2 , u3 ) 7→ « volume » du parallélépipède P(u1 , u2 , u3 )

424
Proposition [Link]

L’application ϕ est une forme trilinéaire alternée.

Démonstration :
— Montrons que ϕ est linéaire. Commençons par voir qu’elle est additive. Considérons par exemple

ϕ(u1 + u10 , u2 , u3 )

Un dessin permet de « voir » que

ϕ(u1 + u10 , u2 , u3 ) = ϕ(u1 , u2 , u3 ) + ϕ(u10 , u2 , u3 )

Maintenant, il semble aussi clair que si on multiplie un vecteur par λ ∈ R+ alors le volume est multiplié
par λ.
Par contre si λ ∈ R− cela semble moins clair. En fait le volume au sens physique du terme est la valeur
absolue du « volume mathématique ». Cela dépend de l’orientation de l’espace comme on en parlera plus
tard.
— Il est clair que ϕ est alternée car si deux vecteurs sont identiques, le parallélépipède est aplati et de volume
nul.

Remarque : On voit donc que notre volume est une forme trilinéaire alternée. Pour la définir, il suffit de fixer
un volume étalon qui vaut 1. On prend bien évidemment la base canonique. Cela permet de définir proprement
le volume d’un parallélépipède. On démontrera dans le chapitre 32 que l’on a la formule
volume = aire de la base × hauteur

3.4 Orientation d’un R-espace vectoriel


Si on considère un R-espace vectoriel E et deux bases B et B 0 de E. Le determinant d’une base dans une
autre est un scalaire non nul. Il est donc strictement positif ou strictement négatif. On définit une relation binaire
sur l’ensemble des bases en notant B ∼ B 0 si et seulement si DetB (B 0 ) > 0.

Proposition [Link]

La relation binaire ∼ est une relation d’équivalence

Démonstration

Proposition 29.3.4.1000

La relation d’équivalence ∼ n’a que deux classes d’équivalences.

Démonstration : Soit B0 = (e1 , . . . , en ) une base de E. On considère B1 = (−e1 , e2 , . . . , en ). On a alors

DetB0 (B1 ) = −DetB0 (B0 ) = −1.

De ce fait B0 et B1 ne sont pas en relation. Il y a donc au moins deux classes d’équivalence.


Maintenant soit E une base de E. On a

DetB0 (E ) = −DetB1 (E )

De ce fait E est en relation avec B0 ou avec B1 . Il n’y a que deux classes d’équivalence.


425
Définition 29.3.4.1001

On appelle orientation de l’espace vectoriel le choix d’une des classes d’équivalence qui forme les bases qui sont
dites directes. Les autres sont indirectes.

Exemples :
1. si n = 1 et E = R. Alors u1 = 1 est une base de R. Si on note −u1 = −1. Comme dans la démonstration
ci-dessus Detu1 (−u1 ) = −1. Il faut choisir l’un ou l’autre pour orienter la droite.
2. Si n = 2 on procède de même avec les bases (u1 , u2 ) et (−u1 , u2 ) où u1 = (1, 0) et u2 = (0, 1). La
convention veut que l’on prenne dans R2 la base canonique comme étant directe.

3.5 Déterminant d’un endomorphisme


Commençons par un exemple dans R2 . Considérons l’application linéaire :

f : ( x, y) 7→ (3x + 2y, x − y)

Si on considère le parallélépipède P1 = P(e1 , e2 ) où e1 = (1, 0) et e2 = (0, 1). L’image de P1 par f est le


parallélépipède P10 = P( f (e1 ), f (e2 )) où f (e1 ) = (3, 1) et f (e2 ) = (2, −1). On en déduit que le volume de P10 est

3 2
Vol( P10 ) = = −5 (au signe près).
1 −1

Considérons maintenant un autre parallélépipède P2 = P(u1 , u2 ) où u1 = (1, 1) et u2 = (−1, 2). L’image est
alors P20 = P(u10 , u20 ) où u10 = f (u1 ) = (5, 0) et u20 = f (u2 ) = (1, −3).
On en déduit que
5 1
Vol( P20 ) = = −15 (au signe près).
0 −3
On remarque que dans les deux cas, Vol( Pi0 ) = 5Vol( Pi ).
Exercice : Montrer que pour tout parallélépipède on a Vol( f ( P)) = 5Vol( P).

Proposition 29.3.5.1002

Soit f un endomorphisme de E. Il existe un unique scalaire λ tel que pour toute base B et toute
famille (u1 , . . . , un ) ∈ En ,

DetB ( f (u1 ), . . . , f (un )) = λDetB (u1 , . . . , un ).

Démonstration :
— Unicité : Soit λ1 et λ2 deux scalaires vérifiant la relation. Soit B = (e1 , . . . , en ) une base, alors

DetB ( f (e1 ), . . . , f (en )) = λ1 et DetB ( f (e1 ), . . . , f (en )) = λ2 car DetB (B ) = 1.

Donc λ1 = λ2 .
— Existence : On se fixe une base B. On considère l’application :

Φ : (u1 , . . . , un ) 7→ DetB ( f (u1 ), . . . , f (un )).

C’est un élément de Λ∗n E. Il existe donc λ tel que Φ = λDetB .


Maintenant si B 0 est une autre base de E alors il existe α un scalaire non nul (qui est égal à DetB (B 0 )) tel
que DetB0 = αDetB .
On en déduit que pour tout (u1 , . . . , un ) ∈ En ,

DetB0 ( f (u1 ), . . . , f (un )) = αDetB ( f (u1 ), . . . , f (un )) = αλDetB (u1 , . . . , un ) = λDetB0 (u1 , . . . , un ).

426
Définition 29.3.5.1003

Soit f un endomorphisme de E. On appelle déterminant de f et on note Det( f ) le scalaire défini à la proposition


précédente.

Exemples :
1. Si f = Id, Det(Id) = 1. De plus, Det(λId) = λn .
2. Si s est la symétrie par rapport à G et parallèlement à F où F ⊕ G = E. On prend une base adaptée c’est à
dire une base B = (e1 , . . . , en ) telle que (e1 , . . . , e p ) est une base de F et (e p+1 , . . . , en ) une base de G. On a
alors
DetB (s(e1 ), . . . , s(en )) = DetB (−e1 , . . . , −e p , e p+1 , . . . , en ) = (−1) p DetB (B ).
Donc Det(s) = (−1) p .

Proposition 29.3.5.1004

Soit f ∈ L ( E) :
f ∈ GL( E) ⇐⇒ Det( f ) 6= 0.

Démonstration :
— ⇒ : On suppose que f est un automorphisme. On sait alors que l’image d’une base est une base. Soit E
une base et E 0 son image par f . On a

DetE (E 0 ) = Det( f )DetE (E ) = Det( f )

Or E 0 est une base donc DetE (E 0 ) 6= 0.


— ⇐ : Si Det( f ) 6= 0. On procède de même. On voit que l’image par f d’une base est une base donc f est
un automorphisme.


Proposition 29.3.5.1005

Soit f et g deux endomorphisme, Det( f ◦ g) = Det( f ) × Det( g)

Remarque : Cela se voit bien sur l’exemple des volumes de R2 .

3.6 Déterminant d’une matrice


Définition 29.3.6.1006

Soit A ∈ Mn (K) une matrice carrée. On appelle déterminant de A et on note Det( A) le déterminant des
vecteurs colonnes de la matrice dans la base canonique de Kn .

Notation : Si  
a11 · · · a1n a11 ··· a1n
 ..  on note Det( A) =
A =  ... . 
..
.
..
. .
an1 · · · ann an1 · · · ann
 
a b a b
Exemple : Si A = alors = ad − bc.
c d c d

427
Proposition 29.3.6.1007

Soit A = ( aij ) une matrice de Mn (K). On a

Det( A) = ∑ ε(σ ) aσ(1),1 · · · aσ(n),n .


σ ∈Sn

Démonstration : C’est la formule démontrée précédemment. 


Exemple : Dans le cas n = 3 on trouve

a b c
d e f = aei + dhc + gb f − gec − dbi − ah f .
g h i

Il suffit d’utiliser les trois permutations paires Id, (1, 2, 3) et (1, 3, 2) et les trois permutations impaires (1, 2), (1, 3), (2, 3).
Cela s’appelle la règle de Sarrus.

ATTENTION

Cela ne se généralise pas au cas du déterminant de taille 4 ou plus.

La notion de déterminant d’une matrice est liée aux notions vues précédemment. Précisément,

Proposition 29.3.6.1008

1. Si B est une base de E et (u1 , . . . , un ) une famille de vecteurs. Si M = MatB (u1 , . . . , un ) alors

Det( M ) = DetB (u1 , . . . , un ).

2. Si f ∈ L ( E). Si B est une base de E et M = MatE ( f ) alors

Det( f ) = Det( M).

Démonstration :
1. La encore, il suffit d’utiliser la formule.
2. D’après ce qui précède on sait que M = MatB ( f (e1 ), . . . , f (en )) si on note B = (e1 , . . . , en ). D’où

Det( M) = DetB ( f (e1 ), . . . , f (en )) = Det( f )DetB (B ) = Det( f ).

428
3.7 Propriétés et calculs
Théorème 29.3.7.1009 (Propriétés du déterminant)

1) Soit f ∈ L ( E), f est inversible si et seulement si Det( f ) 6= 0.


[Link]) Soit M ∈ Mn (K), M est inversible si et seulement si Det( M ) 6= 0.
[Link]) Soit (u1 , . . . , un ) ∈ En , c’est une base si et seulement si DetB (u1 , . . . , un ) 6= 0 où B est une
base de E.
2) Soit f ∈ L ( E) et λ ∈ K, Det(λ f ) = λn Det( f )
[Link]) Soit M ∈ Mn (K) et λ ∈ K, Det(λM ) = λn Det( M ).
3) Soit ( f , g) ∈ L ( E)2 , Det( f ◦ g) = Det( f )Det( g).
[Link]) Soit ( M, N ) ∈ Mn ( E)2 , Det( MN ) = Det( M )Det( N ).
1
4) Si f ∈ GL( E), alors Det( f −1 ) = .
Det( f )
1
[Link]) Si M ∈ GL(K), alors Det( M−1 ) = .
Det( M )

ATTENTION

Le déterminant n’est pas linéaire

Démonstration : Les points 1 et 2 ont déjà été vus. Pour le point 3 il suffit de la faire pour les endomorphismes.
On se donne une base B = (e1 , . . . , en ) de E. Alors
Det( f ◦ g) = DetB ( f ( g(e1 ), . . . , f ( g(en ))
= Det( f )DetB ( g(e1 ), . . . , g(en ))
= Det( f )Det( g)DetB (B )
= Det( f )Det( g).
Pour le 4, il suffit d’utiliser de plus que Det(Id) = 1. 

Proposition 29.3.7.1010

Soit A une matrice,


Det( A) = Det(tA).

Démonstration : On note A = ( aij ). On note B = (bij ) la matrice tA et donc bij = a ji . On sait alors que

Det( B) = ∑ ε(σ )bσ(1),1 · · · bσ(n),n .


σ ∈Sn

Or
bσ(1),1 · · · bσ(n),n = a1,σ(1) · · · an,σ(n) = aσ−1 (1),1 · · · aσ−1 (n),n .
On en déduit que

Det( B) = ∑ ε(σ ) aσ−1 (1),1 · · · aσ−1 (n),n = ∑ ε(σ−1 ) aσ−1 (1),1 · · · aσ−1 (n),n = Det( A).
σ ∈Sn σ ∈Sn

En effet l’application σ 7→ σ−1 est une bijection.



Remarque : On en déduit que le déterminant est une forme n-linéaire alternée des lignes de la matrice.

429
Proposition 29.3.7.1011

Soit A = ( aij ) une matrice de la forme


 
0
 .. 
 A0 . 
A= .
 0 
∗ ··· ∗ α

On a Det( A) = αDet( A0 ).

Démonstration : Il suffit de revenir à la formule

Det( A) = ∑ ε(σ ) aσ(1),1 · · · aσ(n),n .


σ ∈Sn
On voit que les termes de la somme sont nuls si σ (n) 6= n. On peut donc restreindre la somme aux permutations
de [[ 1 ; n − 1 ]] . On trouve alors
Det( A) = α ∑ ε(σ ) aσ(1),1 · · · aσ(n−1),n−1 = αDet( A0 ).
σ ∈Sn −1

Corollaire 29.3.7.1012

Si A est une matrice triangulaire inférieure


 
α1 0 ··· 0
 .. .. 
 ∗ α2 . . 
A=
 .


 .. .. .. 
. . 0
∗ · · · ∗ αn
n
Alors Det( A) = ∏ αi . De même si A est triangulaire supérieure.
i =1
En particulier, A est inversible si et seulement si ∀i ∈ [[ 1 ; n ]] , αi 6= 0.

Démonstration : C’est une récurrence en utilisant la propriété ci-dessus.


Remarques :
1. On peut utiliser maintenant qu’une matrice triangulaire supérieure est inversible si et seulement si tous
ses coefficients diagonaux sont non nuls.
2. On peut aussi en déduire qu’une famille de polynôme échelonnée en degré (ou de manière générale une
famille échelonnée) est libre.
Exercice : Rédiger proprement ce deuxième point. On traitera le cas d’une famille de n + 1 polynômes de
Rn [ X ] et celle d’une famille de p < n + 1 polynômes.
On peut alors regarder, comme pour le pivot de Gauss, l’action des opérations élémentaires sur le déterminant
d’une matrice.
Proposition 29.3.7.1013

Soit A une matrice et B la matrice obtenue par une opération élémentaire on a


— Pour Ci ↔ Cj , Det( B) = −Det( A).
— Pour Ci ← λCi , Det( B) = λDet( A).
— Pour Ci ← Ci + Cj , Det( B) = Det( A).
On en déduit que l’on peut ajouter à une colonne un combinaison linéaire des autres colonnes sans
modifier le déterminant. De plus, on peut faire les mêmes opérations sur les lignes.

430
Démonstration : Il suffit d’utiliser que les déterminant est une n-forme linéaire alternée. 
1 3 3
Exemple : Si on veut calculer 2 4 1 . On peut utiliser la règle de Sarrus et on trouve Det( A) = 40.
−1 7 2
Sinon on peut aussi voir que

1 3 3 1 3 3
−2 −5
2 4 1 = 0 −2 −5 =
10 5
−1 7 2 0 10 5
a a a a
a b b b
Exercice : Calculer
a b c c
a b c d

3.8 Développements suivant une ligne ou une colonne


Il existe une autre méthode pour calculer un déterminant.

Définition 29.3.8.1014

Soit A = ( aij ) une matrice et (i, j) ∈ [[ 1 ; n ]]2 .


— On note Aij la sous-matrice de A obtenue en supprimant la ligne i et la colonne j.
— On appelle mineur associé à aij le déterminant ∆ij = Det( Aij ).
— On appelle cofacteur associée à aij le terme (−1)i+ j ∆ij .

 
1 2 0 1
 −1 2 3 1 
Exemple : Soit A = 
 0
.

3 −2 1
0 −3 2 1
−1 3 1
Le mineur en (1, 2) est 0 −2 1 = 4.
0 2 1

Proposition 29.3.8.1015

Soit A = ( aij ) une matrice.


1. Pour tout j ∈ [[ 1 ; n ]],
n
Det( A) = ∑ (−1)i+ j aij ∆ij (Développement par rapport à une colonne)
i =1

2. Pour tout i ∈ [[ 1 ; n ]],


n
Det( A) = ∑ (−1)i+ j aij ∆ij (Développement par rapport à une ligne)
j =1

Démonstration :
 
a1j
 
1. Notons C1 , . . . , Cn les n colonnes de la matrices et Cj =  ...  . On a donc
anj
n
Det( A) = Det(C1 , · · · , Cn ) = ∑ aij Det(C1 , . . . , Cj−1 , Xi , Cj+1 , . . . , Cn )
i =1

où Xi est la matrice colonne avec juste un 1 en position i.

431
Or
a11 ··· a1,j−1 0 a1,j+1 ··· a1n
.. .. .. .. ..
. . . . .
ai−1,1 ··· ai−1,j−1 0 ai−1,j+1 · · · ai−1,n
Det(C1 , . . . , Cj−1 , Xi , Cj+1 , . . . , Cn ) = ai,1 ··· ai,j−1 1 ai,j+1 · · · ai,n
ai+1,1 ··· ai+1,j−1 0 ai+1,j+1 · · · ai+1,n
.. .. .. .. ..
. . . . .
an,1 ··· an,j−1 0 an,j+1 ··· ann
Maintenant en échangeant j − 1-fois de colonnes et i − 1 fois des lignes on peut amener le 1 en haut à
gauche (ou en bas à droite avec n − j fois sur les colonnes et n − i fois sur les lignes). On en déduit que

Det(C1 , . . . , Cj−1 , Xi , Cj+1 , . . . , Cn ) = (−1)i+ j−2 ∆ij = (−1)i+ j ∆ij .

2. Il suffit de transposer
Exemples :
1. On retrouve ainsi la formule de Sarrus.
2. Soit a ∈] − 2, 2[ on pose
a 1 0 ··· 0
.. .
1 a 1 . ..
Dn ( a ) = .. ..
0 1 . . 0 .
.. .. ..
. . . a 1
0 ··· 0 1 a
En développant par rapport à la première ligne on obtient

1 1 0 ··· 0
.. .
0 a 1 . ..
Dn ( a) = aDn−1 ( a) − .. ..
0 1 . . 0 .
.. .. ..
. . . a 1
0 ··· 0 1 a

En développant par rapport à la première colonne on récupère

Dn ( a) = aDn−1 ( a) − Dn−2 a.

De plus, D1 ( a) = a et D2 ( a) = a2 − 1. On étend en posant D0 ( a) = 1. On résout l’équation caractéristique


X 2 − 2aX + 1 = 0. Si on pose a = 2 cos(θ ) avec θ = arccos( a/2) ∈]0, π [ on trouve e±iθ comme solution
d’où il existe (λ, µ) tels que
Dn ( a) = λ cos(nθ ) + µ sin(nθ ).
cos θ
On en déduit que λ = 1 et µ = . Finalement
sin θ
sin(θ ) cos(nθ ) + cos(θ ) sin(nθ ) sin(n + 1)θ
Dn ( a ) = = .
sin θ sin θ

3.9 Déterminants classiques


Déterminant de Vandermonde
Soit a0 , . . . , an des scalaires on pose

1 1 ··· 1
a0 a1 · · · an
V ( a0 , . . . , a n ) = a20 a21 · · · a2n .
.. .. ..
. . .
a0n a1n · · · ann

Étudions les premières valeurs.

432
— Si n = 1, V ( a0 ) = 1.
— Si n = 2, V ( a0 , a1 ) = a1 − a0 .
1 1 1
— Si n = 3, il est plus simple de particulariser une valeur. On a V ( a0 , a1 , x ) = a0 a1 x . Si on
a20 a21 x2
développe par rapport à la dernière colonne

V ( a0 , a1 , x ) = x2 ( a1 − a0 ) − x ( a21 − a20 ) + a0 a21 − a1 a20 = ( a1 − a0 )( x2 − x ( a1 + a0 ) + a1 a0 ) = ( a1 − a0 )( x − a1 )( x − a0 ).

On peut conjecturer que


V ( a0 , . . . , a n ) = ∏ ( a j − a i ).
06 i < j 6 n

On le démontre par récurrence


On suppose que l’on sait le démontrer pour n et on veut le démontrer pour n + 1. Soit x, une inconnue, on
considère V ( a0 , . . . , an , x ). En le développant par rapport à la dernière colonne on voit que

V ( a0 , . . . , a n , x ) = V ( a0 , . . . , a n ) x n + · · ·

C’est donc un polynôme de degré au plus n. De plus le coefficient dominant vaut V ( a0 , . . . , an ).


— S’il existe i et j distincts tels que ai = a j alors V ( a0 , . . . , an , x ) = 0 = ∏06i< j6n ( a j − ai ) × ∏nk=0 ( x − ak ).
— Si ai 6= a j alors V ( a0 , . . . , an ) 6= 0. Le polynôme n’est donc pas nul. De plus on sait qu’il s’annule en
a0 , . . . , an et que son coefficient dominant est V ( a0 , . . . , an ) d’où
n
V ( a0 , . . . , , a n , x ) = ∏ ( a j − a i ) × ∏ ( x − a k ).
06 i < j 6 n k =0

C’est ce que l’on voulait.


Cela permet, par exemple de montrer que si on se donne deux n + 1 uplets ( x0 , . . . , xn ) et (y0 , . . . , yn )
alors il existe un unique polynôme P de degré au plus n tel que

∀i [[ 0 ; n ]] , P( xi ) = yi .
n
En effet si on pose P = ∑ ck X k . Alors P vérifie la condition si et seulement si
k =0

∀i ∈ [[ 0 ; n ]] , ∑ ck xik = yi .
k

On note alors      
1 x0 · · · x0n c0 y0
 .. .. ..  , X =  ..  et Y =  ..  .
A= . . .   .   . 
1 xn · · · xn n cn yn
On a alors P vérifie les conditions si et seulement si Y = AX. Or DetA = DettA = V ( x0 , . . . , xn ) 6= 0. On
en déduit qu’il existe une unique solution qui est X = A−1 Y.

Déterminant triangulaire par blocs

Proposition 29.3.9.1016

Soit M une matrice de Mn (K) pouvant s’écrire par blocs


 
A B
M=
0 D

avec A ∈ Mn0 (K), B ∈ Mn0 ,n−n0 (K) et D ∈ Mn−n0 (K). On a

Det( M ) = Det( A)Det( D )

Démonstration : Il y a plusieurs démonstration de cette proposition.

433
— La première consiste à reprendre la formule générale du déterminant :
Det( M ) = ∑ ε(σ ) aσ(1),1 · · · aσ(n),n
σ ∈Sn

Maintenant, pour tout p > n0 et q 6 n0 , a pq = 0. De ce fait, dans la somme ci-dessus on peut ne garder que
les permutations σ qui laissent [[ n0 + 1 ; n ]] stable. De ce fait, [[ 1 ; n0 ]] est aussi stable. Une telle permutation
est donc donnée par une permutation σ1 de [[ 1 ; n0 ]] et une permutation σ2 de [[ n0 + 1 ; n ]]. On en déduit
donc que
  !
Det( M) =  ∑ aσ (1),1 · · · aσ (n0 ),n0  × ∑ aσ (n0 +1),n0 +1 · · · aσ (n),n = Det( A) × Det( D ),
1 1 2 2
σ1 ∈Sn0 σ2 ∈S

où S est l’ensemble des permutations de [[ n0 + 1 ; n ]].


— Une autre preuve (utile dans certains exercices) consiste à écrire la matrice M comme un produit. On a
   
A B I 0
M= × .
0 I 0 D
Maintenant en développant on trouve que
A B I 0
= Det( A) et = Det( D ).
0 I 0 D
Donc Det( M ) = Det( A)Det( D ).

Exercices :
1. Montrer que si  
A B
M=
C D
avec A ∈ Mn0 (K), B ∈ Mn0 ,n−n0 (K), C ∈ Mn−n0 ,n0 (K) et D ∈ Mn−n0 (K) avec D inversible et qui commute
avec C alors
Det( M) = Det( AD − BC )
2. Trouver  
A B
M=
C D
telle que
Det( M) 6= Det( A)Det( D ) − Det( B)Det(C )
Sol Ecrire      
A B D 0 AD − BC 0
× =
C D −C D −1 0 I
Pour la 2.  
1 0 1 0
 1 1 1 1 
 .
 1 0 0 1 
0 0 0 0

Corollaire 29.3.9.1017

Soit M une matrice triangulaire supérieure par blocs. De la forme


 
A1 ? · · · ?
 
 0 A2 . . . ? 
M=  .
.. 
 0 0 . ? 
0 · · · 0 Ap

On a
p
det( M) = ∏ Det( Ai ).
i =1

434
4 Utilisation des déterminants
4.1 Commatrice
Définition 29.4.1.1018

Soit A ∈ Mn (K). On appelle commatrice de A et on note Com( A) la matrices des cofacteurs.

   
1 0 2 8 1 −13
Exemple : Si A =  −2 3 −1  . On a Com( A) =  4 −4 −1  . Calculons tCom( A).A. On
3 2 2 −6 −3 3
trouve −18I. Or Det( A) = −18. On trouve donc tCom( A).A = Det( A) I.

Proposition 29.4.1.1019

Soit A ∈ Mn (K). On a tCom( A).A = Det( A) I et AtCom( A) = Det( A) I. En particulier, si A est


inversible
1
A −1 = t
Com( A).
Det( A)

Démonstration : Notons comme précédemment A = ( aij ) et ∆ij le mineur associé à aij . On note bij = (−1)i+ j ∆ ji
les coefficients de tCom( A).
— Pour la diagonale : Soit i ∈ [[ 1 ; n ]] on a
n n
∑ aij bji = ∑ aij (−1)i+ j ∆ij = Det( A)(Formule de developpement par rapport à la ligne i)
j =1 j =1

— Or de la diagonale : Soit (i, j) ∈ [[ 1 ; n ]]2 avec i 6= j. On a


n
S= ∑ aik bkj = ∑ aik (−1)i+k ∆ jk
k =1 k =1

On remarque alors que

S= ∑ aik (−1)i+k ∆ jk = (−1)i+ j ∑ aik (−1) j+k ∆ jk .


k =1 k =1

De plus, si on considère la matrice A0 = ( aij0 ) obtenue en remplaçant la ligne j de A par la ligne i de telle
0 = a0 on obtient
sorte que aik = aik jk

S = (−1)i+ j ∑ a0jk (−1)i+k ∆ jk .


k =1

C’est donc Det( A0 ) qui est nul.



Remarque : Cette méthode n’est à priori pas la bonne pour déterminer l’inverse d’une matrice.

4.2 Formule de Cramer


Définition 29.4.2.1020 (Rappel)

On appelle système de Cramer un système linéaire carré inversible. Il s’écrit matriciellement,

A.X = B

où A ∈ GLn (K) est la matrice des coefficients qui est inversible, X ∈ M1,n (K) est la matrice des inconnues
et B ∈ M1,n (K) est le second membre.

435
Proposition 29.4.2.1021 (Formules de Cramer)
 
x1
 
On sait qu’un système de Cramer a une unique solution qui est donné par X =  ...  où
xn

Det( Ak )
∀k ∈ [[ 1 ; n ]] , xk =
Det( A)

où Ak est la matrice obtenue en remplaçant là k-ième colonne de A par B.

Démonstration :
On note C1 , . . . , Cn les  colonnes de A de telle sorte que Det( A) = Det(C1 , . . . , Cn ).
 vecteurs
x1
 
Maintenant, si X =  ...  est la solution du système alors ∑ x p C p = B. De ce fait,
p =1
xn

n
Det( Ak ) = Det(C1 , . . . , Ck−1 , ∑ x p C p , Ck+1 , . . . , Cn ) = ∑ x p Det(C1 , . . . , Ck−1 , Cp , Ck+1 , . . . , Cn ).
p =1 p =1

Comme Det(C1 , . . . , Ck−1 , C p , Ck+1 , . . . , Cn ) = 0 si p 6= k on obtient,

Det( Ak ) = xk Det(C1 , . . . , Cn )

On en déduit la formule voulue. 


Remarque : Ces formules ne sont pas très utiles pour calculer explicitement les solutions d’un système (sauf
pour n = 2 voir n = 3).

436
Couples de variables
30
aléatoires
1 Couples de variables aléatoires 437
1.1 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
1.2 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
1.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
1.4 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
1.5 Fonction d’un couple de variables aléatoires réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 441
2 Moments 442
2.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
2.2 Variance et covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
3 Généralisation à n variables 445
3.1 Variables aléatoires mutuellement indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 445
3.2 Somme de n variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446

Dans ce chapitre nous allons étudier les relations qui peuvent exister entre plusieurs variables aléatoires
définies sur un même espace probabilisé. Nous commencerons par étudier le cas de deux variables aléatoires
avant de généraliser au cas de n (n ∈ N? ).

1 Couples de variables aléatoires


1.1 Loi conjointe
Définition 30.1.1.1022

Soit X et Y deux variables aléatoires réelles définies sur un même espace probabilisé (Ω, P (Ω), P). La loi du
couple ( X, Y ) ou loi conjointe est la donnée :
— l’ensemble des valeurs prises par le couple : X (Ω) × Y (Ω)
— pour chaque ( x, y) ∈ X (Ω) × Y (Ω), la valeur P(( X = x ) ∩ (Y = y)).

Notation : On notera la probabilité de l’événement ( X = x ) ∩ (Y = y) par P(( X = x ) ∩ (Y = y)). On trouve


aussi la notation P( X = x, Y = y). Par contre P( X = x ∩ Y = y) est à proscrire.

437
ATTENTION

Ne pas confondre P( X = x, Y = y) avec P( X = x |Y = y) !

Exemples :
1. On lance deux fois un dé équilibré. On note X le nombre de chiffres pairs obtenus et Y le nombre
de chiffres supérieurs à 4 obtenus. On sait que X ,→ B (2, 1/2) et Y ,→ B (2, 1/2). On en déduit que
X (Ω) × Y (Ω) = [[ 0 ; 2 ]]2 Cependant le fait d’obtenir un nombre plus grand que 4 n’est pas indépendant
du fait de faire un nombre pair. On va donc calculer "à la main" les nombres

pi,j = P( X = i, Y = j) pour (i, j) ∈ [[ 0 ; 2 ]]2 .

On a Ω = [[ 1 ; 6 ]]2 . On le munit de la loi uniforme. On a


— [ X = 0] ∩ [Y = 0] = {1, 3}2 . De cela on en déduit p0,0 = 1/9.
— [ X = 0] ∩ [Y = 1] = {(1, 5), (3, 5), (5, 1), (5, 3)}2 . De cela on en déduit p0,1 = 1/9.
— [ X = 0] ∩ [Y = 2] = {(5, 5)}2 . De cela on en déduit p0,2 = 1/36.
— [ X = 1] ∩ [Y = 0] = {(1, 2), (2, 1), (1, 3), (3, 1)}2 . De cela on en déduit p1,0 = 1/9.
En continuant ainsi on trouve finalement :
HH Y
0 1 2
X
H
HH
0 1/9 1/9 1/36
1 1/9 5/18 1/9
2 1/36 1/9 1/9

Si on considère maintenant la variable aléatoire Y 0 égale au nombre de chiffres impairs. Là encore


Y 0 ,→ B (2, 1/2). On trouve aisément en utilisant que X + Y 0 = 2 le tableau :
HH Y 0
0 1 2
X
HH
H
0 0 0 1/4
1 0 1/2 0
2 1/4 0 0

On remarque donc que connaître la loi de X et de Y n’est pas suffisant pour connaître la loi du couple
( X, Y ).
2. On dispose d’une pièce équilibrée. On la lance une première fois. On note X la variable aléatoire qui vaut
1 si la pièce fait pile et 0 sinon. On fait alors un deuxième étape qui consiste à lancer deux fois la pièce si
on a fait pile à la première étape et une fois si on a fait face. On note Y le nombre de pile obtenu lors de
cette deuxième étape.
Ici, il est plus difficile de déterminer la loi de Y. On va juste chercher la loi conjointe de ( X, Y ).

Proposition 30.1.1.1023

Avec les notations précédentes, les événements ( X = x ) ∩ (Y = y) où ( x, y) décrit X (Ω) × Y (Ω)


forme un système complet d’événements. En particulier si X (Ω) = { x1 , . . . , xr } et Y (Ω) =
{y1 , . . . , ys } et que l’on note pour tout (i, j) ∈ [[ 1 ; r ]] × [[ 1 ; s ]], pij = P( X = xi , Y = y j ) alors

∑ pij = 1.
(i,j)∈[[ 1 ; r ]]×[[ 1 ; s ]]

Remarque : on le vérifie bien sur les deux exemples précédents.

438
1.2 Variables aléatoires indépendantes
Définition 30.1.2.1024

Soit X et Y deux variables aléatoires réelles définies sur un même espace probabilisé (Ω, P (Ω), P). Les deux
variables sont dits indépendantes si ∀( x, y) ∈ X (Ω) × Y (Ω) les événements ( X = x ) et (Y = y) sont
indépendants. C’est-à-dire si :

∀( x, y) ∈ X (Ω) × Y (Ω), P( X = x, X = y) = P( X = x ) × P(Y = y).

Remarque : Comme dans le cas des événements indépendants, l’indépendance sera la plupart du temps une
hypothèse qui découlera de la modélisation. Attention au fait que l’examen de la modélisation ne permet pas
de conclure au fait que des variables ne sont pas indépendantes.
Exemples :
1. Deux personnes tirent successivement et avec remise une boule dans une urne qui contient N boules
numérotées de 1 à N. On note Xi le nombre tiré par la i-ème personne (i ∈ {1, 2}). Les variables sont
indépendantes et
1
∀(k, k0 ) ∈ [[ 1 ; N ]] , P( X1 = k, X2 = k0 ) = 2 .
N
2. On reprend le même exercice mais cette fois ci, sans remise. Les variables ne sont plus indépendantes.
Remarque : On voit que si X et Y sont indépendantes, la connaissance des lois de X et Y permet de déterminer
la loi de ( X, Y ).

Proposition 30.1.2.1025

Avec les notations précédentes. Soit I et J deux sous-ensembles de R. On a :

P(( X ∈ I ) ∩ (Y ∈ J )) = P( X ∈ I ) × P(Y ∈ J ).

Démonstration

Corollaire 30.1.2.1026

Soit X et Y deux variables aléatoires réelles définies sur un même espace probabilisé (Ω, P (Ω), P).
On suppose que X et Y sont indépendantes. Soit f (resp. g) une fonction dont l’ensemble de définition
contient X (Ω) (resp. Y (Ω)). Les variables aléatoires f ( X ) et g(Y ) sont indépendantes.

1.3 Lois conditionnelles


Définition 30.1.3.1027

Soit X une variable aléatoire réelle définie sur l’espace probabilisé (Ω, P (Ω), P). Soit A ∈ P (Ω) un
événement tel que P( A) 6= 0. On définit la loi conditionnelle de X par A (ou loi de X conditionnée par A ou
encore loi de X sachant A) de la manière suivante.
— L’ensemble des valeurs est inclus dans X (Ω).
— Pour tout x ∈ X (Ω), la probabilité est la probabilité de ( X = x ) sachant A que l’on note PA ( X = x ).

Remarques :
1. C’est une loi de probabilité en particulier :

∑ PA ( X = x ) = 1.
x ∈ X (Ω)

2. L’ensemble des valeurs n’est pas toujours X (Ω) en entier (voir exemple 2).

439
3. La condition sera souvent définie comme la valeur d’une variable aléatoire.
Exemples :
1. On reprend l’exemple 1. La loi de X sachant (Y = 0) est donnée par :

x 0 1 2
P(Y =0) ( X = x ) 4/9 4/9 1/9

La loi de X sachant (Y = 1) est donnée par :

x 0 1 2
P(Y =1) ( X = x ) 2/9 5/9 2/9

2. On reprend l’exemple 2. Soit i ∈ [[ 1 ; N ]]. Pour tout k ∈ [[ 1 ; N ]] on a

P(X =i) (Y = k) = δik ,

où δik est le symbole de Kronecker qui vaut 1 si i = k et 0 sinon.


3. On considère une urne avec 4 boules noires. On en retire un nombre au hasard entre 0 et 4 (selon la loi
uniforme) que l’on remplace par des boules blanches. On tire par la suite 3 boules dans l’urne. On note Y le
nombre de boules blanches avant le tirage et X le nombre de boules blanches tirées. Pour tout k ∈ [[ 0 ; 4 ]],
la loi de X sachant [(Y = k) est alors H (4, 3, k/4). Pour faire les calculs il est plus simple de regarder la
couleur de la boule qui reste dans l’urne.
Remarque : si X et Y sont deux variables indépendantes, la loi conditionnelle de X sachant (Y = y) est la loi
de X.

1.4 Lois marginales


Définition 30.1.4.1028

Soit ( X, Y ) un couple de variables aléatoires réelles définies sur un espace probabilisé (Ω, P (Ω), P). Les lois
de X et de Y s’appellent les lois marginales du couple ( X, Y ).

On peut facilement calculer les lois marginales si on connaît la loi conjointe.

Proposition 30.1.4.1029

Soit ( X, Y ) un couple de variables aléatoires réelles définies sur un espace probabilisé (Ω, P (Ω), P).
On a :
?∀ x ∈ X (Ω), P( X = x ) = ∑ P( X = x, Y = y)
y ∈Y ( Ω )
?∀y ∈ Y (Ω), P (Y = y ) = ∑ P( X = x, Y = y)
x ∈ X (Ω)

Démonstration : Il suffit d’utiliser que les événements ( X = x ) (resp. (Y = y)) forment un système complet
d’événements.

Remarque : Dans la pratique, pour déterminer les lois marginales, il suffit de faire la somme des lignes (resp.
des colonnes) du tableau de la loi conjointe. Dans la pratique, cela peut permettre de vérifier les calculs d’une
loi conjointe.
Exemples :
1. On reprend l’exemple 1 précédent. On a
HH Y
0 1 2 X
X
HH
H
0 1/9 1/9 1/36 1/4
1 1/9 5/18 1/9 1/2
2 1/36 1/9 1/9 1/4
Y 1/4 1/2 1/4 1

440
2. On reprend l’exemple de l’urne avec 4 boules noires. On veut calculer la loi du couple ( X, Y ). On a
X (Ω) = [[ 0 ; 3 ]] et Y (Ω) = [[ 0 ; 4 ]] et, pour (i, j) ∈ [[ 0 ; 3 ]] × [[ 0 ; 4 ]], on a :

P ( X = i |Y = j )
P( X = i, Y = j) = P(Y = j) × P( X = i |Y = j) = .
5
On en déduit donc la loi de ( X, Y ) ainsi que les lois marginales :
HH X
0 1 2 3 Y
Y
H
HH
0 1/5 0 0 0 1/5
1 1/20 3/20 0 0 1/5
2 0 1/10 1/10 0 1/5
3 0 0 3/20 1/20 1/5
4 0 0 0 1/5 1/5
X 1/4 1/4 1/4 1/4 1

1.5 Fonction d’un couple de variables aléatoires réelle


Définition 30.1.5.1030

Soit ( X, Y ) un couple de variables aléatoires réelles définies sur un même espace probabilisé (Ω, P (Ω), P).
Soit u une fonction de R2 dans R. On suppose que X (Ω) × Y (Ω) est inclus dans l’ensemble de définition de
u. On définit une nouvelle variable aléatoire Z = u( X, Y ) en composant la fonction u avec les fonctions X et
Y. C’est-à-dire :
Z: Ω → R
ω → u( X (ω ), Y (ω )).

Exemple : On lance deux dés à 6 faces. On note X (resp. Y) le résultat du premier (resp. second) dé. Si on pose
u( x, y) = x + y alors S = u( X, Y ) = X + Y est la somme obtenue. Si on pose v( x, y) = Min( x, y) et Z = v( X, Y ),
la variable Z est le plus petit des deux.
Il est souvent difficile de calculer loi d’une variable aléatoire définie par une fonction de deux variables
aléatoire. En effet soit z ∈ Z (Ω) alors l’événement ( Z = z) est l’union des événements ( X = x ) ∩ (Y = y) où
( x, y) sont tels que u( x, y) = z. On a

Proposition 30.1.5.1031

Soit ( X, Y ) un couple de variables aléatoires réelles définies sur un même espace probabilisé
(Ω, P (Ω), P). Soit u une fonction de R2 dans R. On suppose que X (Ω) × Y (Ω) est inclus dans
l’ensemble de définition de u. On pose Z = u( X, Y ). On a :

∀z ∈ R, P( Z = z) = ∑ P( X = x, Y = y).
( x,y)∈ X (Ω)×Y (Ω)
u( x +y)=z

Remarque : En particulier, si z n’est pas dans l’image de u alors P( Z = z) = 0.


Cas particulier : loi de la somme de deux variables aléatoires
Soit X (resp. Y) une variable aléatoire réelle telle que X (Ω) = [[ 0 ; N ]] (resp. Y (Ω) = [[ 0 ; N 0 ]]). On pose
Z = X + Y. Dès lors Z (Ω) ⊂ [[ 0 ; N + N 0 ]]. De plus, pour tout k ∈ [[ 0 ; N + N 0 ]] on a :
P( Z = k) = ∑ P( X = i, Y = j)
(i,j)∈[[ 0 ; N ]]×[[ 0 ; N 0 ]]
i + j=k
k
= ∑ P(X = i, Y = k − i)
i =0
k
= ∑ P(X = i).PX=i (Y = k − i).
i =0

Il faut prendre garde au fait que PX =i (Y = k − i ) est nul si i < k − N 0 .

441
Supposons par exemple que X et Y soient indépendantes et suivent la loi U ([[ 0 ; N ]]). On a Z (Ω) ⊂ [[ 0 ; 2N ]]
et pour tout n ∈ [[ 0 ; 2N ]],
n
P( Z = n) = ∑ P ( X = i ) P (Y = n − i ) .
i =0

Dans la somme tous les termes valent 1/( N + 1)2 . On veut juste savoir combien il y a de termes. Cela revient
à trouver le nombre d’entiers i tels que 0 6 i 6 N et n − N 6 i 6 n. Cela revient à 0 6 i 6 n si n 6 N et
n − N 6 i 6 N si n > N. On en déduit que
 n+1

 si n 6 N

 ( N + 1)2
P( Z = n) =

 2N + 1 − n

 si n > N.
( N + 1)2

2 Moments
2.1 Espérance
Nous allons étudier les moments des couples de variables aléatoires.

Proposition 30.2.1.1032 (Théorème de Transfert)

Soit X et Y deux variables aléatoires définies sur un même espace probabilisé (Ω, P (Ω), P). Soit u
une fonction de deux variables dont l’ensemble de définition contient X (Ω) × Y (Ω). On a

E(u( X, Y )) = ∑ u( x, y) P( X = x, Y = y).
( x,y)∈(Ω)×Y (Ω)

Remarque : Cela peut-être très utile car il est souvent difficile voir impossible de déterminer la loi de u( X, Y )

Corollaire 30.2.1.1033

L’espérance est linéaire. Avec les notations précédentes, on a pour tout ( a, b) ∈ R2 ,

E( aX + bY ) = aE( X ) + bE(Y ).

Remarque : Ce corollaire s’utilise souvent pour calculer l’espérance d’une somme.


Exemple : On lance deux dés à 6 faces équilibrés et on note S la somme. Soit X1 (resp. X2 )le résultat du premier
dé (resp. du second dé). Les variables X1 et X2 suivent la loi U (6). D’où

7
E ( X1 ) = E ( X2 ) = .
2
On en déduit que
E(S) = E( X1 ) + E( X2 ) = 7.

2.2 Variance et covariance


Nous allons maintenant nous intéresser au cas de la variance. Soit X et Y deux variables aléatoires définies
sur le même espace probabilisé (Ω, P (Ω), P). On veut calculer V( X + Y ). On a

V( X + Y ) = E(( X + Y )2 ) − E( X + Y )2
= E( X 2 + 2XY + Y 2 ) − (E( X ) + E(Y ))2
= E( X 2 ) − E( X )2 + E(Y 2 ) + E(Y )2 + 2E( XY ) − 2E( X ).E(Y )
= V( X ) + V(Y ) + 2(E( XY ) − E( X )E(Y )).

442
Définition 30.2.2.1034

Soit X et Y deux variables aléatoires définies sur le même espace probabilisé (Ω, P (Ω), P). La covariance du
couple ( X, Y ) est :
Cov( X, Y ) = E( XY ) − E( X )E(Y ).

Proposition 30.2.2.1035

Avec les notations précédentes on a

Cov( X, Y ) = E(( X − E( X ))(Y − E(Y ))).

Démonstration

Remarque : La "vraie" définition de la covariance est Cov( X, Y ) = E(( X − E( X ))(Y − E(Y ))). L’égalité
Cov( X, Y ) = E( XY ) − E( X )E(Y ) est la formule de Huygens pour la covariance.

Proposition 30.2.2.1036

Avec les notations précédentes, Cov( X, Y ) = Cov(Y, X ). De plus Cov( X, X ) = V( X ).

Proposition 30.2.2.1037

Avec les notations précédentes, on a, pour tout ( a, b) ∈ R2 ,

V( aX + bY ) = a2 V( X ) + b2 V(Y ) + 2abCov( X, Y ).

En particulier pour a = b = 1 on a

V( X + Y ) = V( X ) + V(Y ) + 2Cov(Y, Y ).

Remarque : Ces formules nous disent que l’on peut imaginer la covariance comme un produit scalaire et que la
variance est alors le carré de la norme associée (la norme étant l’écart type). Il faut quand même faire attention
que c’est pas réellement exact car la covariance n’est pas définie. On peut avoir V( X ) sans que X soit nulle.

Théorème 30.2.2.1038

Avec les notations précédentes, si X et Y sont indépendantes,

E( XY ) = E( X )E(Y ).

D’où
Cov( X, Y ) = 0 et V( X + Y ) = V( X ) + V(Y ).

Démonstration : On a
   

E( X ).E(Y ) =  ∑ x.P( X = x ) ×  ∑ y.P(Y = y)


x ∈ X (Ω) y ∈Y ( Ω )

= ∑ xy.P( X = x ).P(Y = y)
( x,y)∈ X (Ω)×Y (Ω)

= ∑ xy.P( X = x, Y = y) car X et Y sont indépendantes


( x,y)∈ X (Ω)×Y (Ω)
= E( XY ).

443

Exemples :
1. On reprend l’exemple de la somme de deux dés. Les deux lancers sont indépendants d’où

35 35
V(S) = V( X1 ) + V( X2 ) = 2. = .
12 6

2. On considère une urne avec les nombres de 1 à N. On tire deux boules, on note X le premier numéro tiré
et Y le deuxième. Calculer Cov( X, Y ) selon que le tirage se fasse avec ou sans remise.
3. Soit ( X, Y ) le couple de variables aléatoires de loi conjointe ;

HH Y
H
0 1 2
X HH
0 1/30 11/30 1/30
1 6/30 5/30 6/30

1. Montrer que X et Y ne sont pas indépendantes


2. Calculer Cov( X, Y ).
Remarque : Comme on l’a vu dans les exemples précédentes, le lien entre l’indépendance de X et Y et la
covariance n’est qu’une implication :
— On a : (X et Y indépendantes) ⇒ Cov( X, Y ) = 0 et, par contraposée, Cov( X, Y ) 6= 0 ⇒ (X et Y ne sont
pas indépendantes).
— On n’a pas Cov( X, Y ) = 0 ⇒ (X et Y sont indépendantes).

Définition 30.2.2.1039

Avec les notations précédentes, on suppose que X et Y ne sont pas constantes. On appelle coefficient de
corrélation linéaire la grandeur :
Cov( X, Y )
ρ( X, Y ) = .
σ ( X ).σ (Y )

Remarque : Cette grandeur a l’avantage par rapport à la covariance que sa valeur absolue ne varie sous
homothétie. On a pour ( a, b) ∈ (R? )2 ,

Cov( aX, bY ) [Link]( X, Y )


ρ( aX, aY ) = = .
σ ( aX )σ (bY ) | ab|σ( X )σ(Y )

Proposition 30.2.2.1040

Avec les notations précédentes on a


|ρ( X, Y )| 6 1.

Démonstration : Soit λ ∈ R, on considère P(λ) = V( X + λ.Y ). On a

P(λ) = V( X ) + λ2 V(Y ) + 2λ.Cov( X, Y ).

On voit donc que P(λ) est un trinôme du second degré en λ. De plus, comme une variance est toujours positive,
il est toujours positif. On en déduit que son discriminant est négatif ou nul. D’où

∆ = 4Cov( X, Y )2 − 4V( X )V(Y ) 6 0 et donc Cov( X, Y )2 6 V( X )V(Y ).

On en déduit
|Cov( X, Y )| 6 σ( X )σ(Y ) et |ρ( X, Y )| 6 1.


444
Proposition 30.2.2.1041

Avec les notations précédentes on a :


1. si X et Y sont indépendantes alors ρ( X, Y ) = 0.
2. on a |ρ( X, Y )| = 1 si et seulement s’il existe ( a, b) ∈ R? × b tels que Y = aX + b.

Remarque : on voit que le coefficient de corrélation linéaire mesure bien la "dépendance" des deux variables.
Plus il est grand plus elles dépendent l’une de l’autre. En particulier dans le cas extrême où |ρ| = 1.
Démonstration :
1. Déjà vu.
2. — Commençons par montrer que : (il existe ( a, b) ∈ R? × b tels que Y = aX + b) ⇔ |ρ( X, Y )| = 1. On
pose donc Y = aX + b. Alors
Cov( X, aX + b) = E( aX 2 + bX ) − E( X ).( aE( X ) + b)
= aE( X 2 ) + bE( X ) − aE( X )2 − bE( X )
= V( X ).
D’autre part, σ ( aX + b) = | a|σ ( X ) d’où

σ ( X ).σ ( aX + b) = | a|σ ( X )2 = | a|V( X ).

On a bien |ρ( X, Y )| = 1.
— Montrons maintenant que : |ρ( X, Y )| = 1 ⇔ (il existe ( a, b) ∈ R? × b tels que Y = aX + b). Reprenons
les notations de la démonstration précédente. On pose P(λ) = V( X ) + λ2 V(Y ) + 2λ.Cov( X, Y ).
Comme |ρ( X, Y )| = 1 on a ∆ = 0. De ce fait, il existe une valeur α ∈ R tel que P(α) = V( X + α.Y ) = 0.
On en déduit que la variable aléatoire X + α.Y est constante égale à β. On en déduit que X = −α.Y + β
Or α 6= 0 car X n’est pas constante. Donc
1 β
Y= X+ .
α α


3 Généralisation à n variables
Nous allons essayer de généraliser certaines notions au cas non plus de deux variables aléatoires mais de n
variables aléatoires.

3.1 Variables aléatoires mutuellement indépendantes


Définition 30.3.1.1042

Soit (Ω, P (Ω), P) un espace probabilisé et X1 , . . . , Xn des variables aléatoires réelles. On dit qu’elles sont
mutuellement indépendantes si, pour tout ( x1 , . . . , xn ) ∈ X1 (Ω) × · · · × Xn (Ω), les événements ( X1 =
x1 ), . . . , ( Xn = xn ) sont mutuellement indépendants.

Remarque : Là encore, on ne démontrera que rarement que l’on considère des variables aléatoires mutuellement
indépendantes. Ce sera, la plupart du temps, une hypothèse qui découlera de l’expérience.

Proposition 30.3.1.1043

Avec les notations précédentes. Soit I1 , . . . , In des parties de R. On a


!
n
\ n
P ( Xi ∈ Ii ) = ∏ P( Xi ∈ Ii ).
i =1 i =1

445
Exemple : On lance n fois un dé à 6 faces équilibré. On note Xi le résultat obtenu au i-ème lancer. Les variables
ainsi obtenues sont indépendantes. On a par exemple
!
\n
1
P ( Xi > 5 ) = n .
i =1
3

Proposition 30.3.1.1044

Avec les notations précédentes, si X1 , . . . , Xn sont des variables aléatoires mutuellement indépen-
dantes alors toute sous-famille l’est aussi.

Démonstration : Par restriction des quantificateurs. 

Proposition 30.3.1.1045

Avec les notations précédentes, on suppose que X1 , . . . , Xn sont des variables aléatoires mutuellement
indépendantes.
1. Soit p ∈ [[ 1 ; n − 1 ]], f une fonction R p dans R et g une fonction de Rn− p dans R, alors
f ( X1 , . . . , X p ) et g( X p+1 , . . . , Xn ) sont des variables aléatoires indépendantes.
2. Soit f 1 , . . . , f n des fonctions de R dans R. Les variables aléatoires f 1 ( X1 ), . . . , f n ( Xn ) sont
mutuellement indépendantes.

3.2 Somme de n variables aléatoires


Dans toute ce paragraphe, on se fixe (Ω, P (Ω), P) un espace probabilisé et X1 , . . . , Xn des variables aléa-
toires réelles. On note alors S = X1 + · · · + Xn . Il est en général difficile de déterminer S nous allons voir que
cela peut se faire dans certains cas.
Proposition 30.3.2.1046

On a
n
E( S ) = ∑ E ( Xi ) .
i =1
De même on a
n n
V( S ) = ∑ V(Xi ) + ∑ Cov(Xi , Xj ) = ∑ V(Xi ) + 2 ∑ Cov(Xi , Xj ).
i =1 i6= j i =1 i> j

Démonstration : Par une récurrence immédiate sur n. 

Proposition 30.3.2.1047

Si on suppose de plus que les variables aléatoires sont mutuellement indépendantes on a


n
V( S ) = ∑ V ( Xi ) .
i =1

Démonstration : Par une récurrence immédiate sur n. 

Proposition 30.3.2.1048

On suppose maintenant que les variables Xi sont des variables aléatoires indépendantes de Bernoulli
et de même paramètre p. On a alors S ,→ B (n, P).

446
Espaces
préhilbertiens réels
31
1 Produit scalaire 447
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
1.2 Norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
2 Orthogonalité 451
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451
3 Bases orthogonales 453
3.1 Généralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
3.2 Produit mixte et produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455
3.3 Sous-espaces vectoriels orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456
3.4 Projecteurs orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458
3.5 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
4 Endomorphismes orthogonaux 461
4.1 Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461
4.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
4.3 Endomorphismes orthogonaux du plan euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
4.4 Automorphismes orthogonaux de l’espace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468

Dans ce chapitre nous allons voir comment on peut généraliser la notion de produit scalaire pour les espaces
vectoriels sur R.

1 Produit scalaire
1.1 Définitions
On se fixe un espace vectoriel E.

447
Définition 31.1.1.1049 (Rappel)

Une forme bilinéaire symétrique est une application bilinéaire f de E × E dans R telle que

∀(u, v) ∈ E2 , f (u, v) = f (v, u).

Définition 31.1.1.1050

Soit f une forme bilinéaire symétrique.


1. On dit que f est positive si ∀u ∈ E, f (u, u) > 0.
2. On dit que f est définie si ∀u ∈ E, f (u, u) = 0 ⇒ u = 0.

Remarques :
1. On ne peut définir positive que si le corps de base est R.
2. Il se peut que f (u, v) < 0 si u 6= v.

Définition 31.1.1.1051

On appelle produit scalaire sur E la donnée d’une forme bilinéaire symétrique définie positive.

Notation : On note souvent < u, v >, u.v ou (u|v) pour f (u, v)


Exemples :
1. Dans E = Rn . On appelle produit scalaire canonique le produit scalaire définie par
n
(u|v) = ∑ xi yi
i =1

où u = ( x1 , . . . , xn ) et v = (y1 , . . . , yn ). On vérifie que c’est bien un produit scalaire


Z b
2. Dans E = C 0 ([ a, b], R) (ou E = R[ X ]) la forme bilinéaire ( f | g) = f (t) g(t) dt est un produit scalaire.
a
Z 2π
1
3. Dans P l’ensemble des fonctions 2π-périodiques continues, ( f | g) = f (t) g(t) dt est un produit
2π 0
scalaire.
4. Dans E = Mn (R) la forme linéaire ( A| B) = tr (tAB) est un produit scalaire.
Remarque : La covariance d’un couple de variables aléatoires n’est pas un produit scalaire. En effet c’est
bien une forme bilinéaire positive mais elle n’est pas définie car si X est une variable aléatoire constante,
V( X ) = Cov( X, X ) = 0.
Exercice : Montrer que (u|v) = xx 0 − 2xy0 − 2yx 0 + 5yy0 où u = ( x, y) et v = ( x 0 , y0 ) est un produit scalaire sur
R2

Définition 31.1.1.1052

1. On appelle espace préhilbertien un espace vectoriel sur R muni d’un produit scalaire.
2. On appelle espace euclidien un espace préhilbertien de dimension finie.

Remarque : On appelle espace hilbertien (ou espace de Hilbert) un espace vectoriel E sur R muni d’un produit
scalaire qui est complet ce qui est une condition sur la convergence des suites d’élément de E. La condition
demandée est en particulier vérifiée sur E est de dimension finie.

448
Proposition 31.1.1.1053 (Inégalité de Cauchy-Schwarz)

Soit (|) un produit scalaire.


1. Si u et v sont dans E,
( u | v )2 6 ( u | u ).( v | v )
2. Dans l’inégalité précédente, on a égalité si et seulement u et v sont proportionnels.

Démonstration : Il suffit de considérer λ 7→ (u + λv|u + λv). Voir le cours sur les intégrales. 
Exemple : On retrouve ce qui a été vu sur les intégrales
Z b Z b  Z b

f (t) g(t) dt 6 f 2 (t) dt . g2 (t) dt .
a a a

1.2 Norme euclidienne


On considère un espace préhilbertien E.

Définition 31.1.2.1054

On appelle norme (euclidienne) l’application de E dans R+ définie par


q
N ( u ) = ( u | u ).

Notation : On note aussi ||u|| pour N (u).


Exemples :
3
p on considère R muni du produit scalaire usuel, la norme euclidienne est la norme usuelle ||u|| =
1. Si
x 2 + y2 + z2 .
Z b
2. Si on regarde E = C 0 ([ a, b]) et que l’on pose ( f , g) = f (t) g(t) dt, on a
a
s
Z b
N( f ) = f 2 (t) dt.
a

Proposition 31.1.2.1055 (Inégalité de Cauchy-Schwarz)

Soit u et v dans E,
(u, v) 6 ||u||||v||.
De plus il y a égalité si et seulement si u et v sont colinéaire et le coefficient de colinéarité est positif.

Proposition 31.1.2.1056 (Propriétés de la norme)

La norme euclidienne vérifie les propriétés suivantes :


1. Pour tout u dans E, N (u) = 0 ⇐⇒ u = 0
2. Pour tout u dans E et λ dans R, N (λu) = |λ| N (u).
3. Pour tout u et v dans E, N (u + v) 6 N (u) + N (v) (c’est l’inégalité triangulaire). De plus on a
N (u + v) = N (u) + N (v) si et seulement s’il existe k ∈ R+ tel que u = kv ou v = 0.

Démonstration :
1. OK

449
2. OK
3. Soit u et v deux vecteurs il suffit de montrer que ||u + v||2 6 ||u||2 + ||v||2 + 2||u||||v||. Or on sait que
||u + v||2 = (u + v, u + v)
= ||u||2 + ||v||2 + 2(u, v) (Linéarité et symétrie)
6 ||u||2 + ||v||2 + 2||u||||v|| (Cauchy-Schwarz)
Le cas d’égalité découle de celui qui précède.


Définition 31.1.2.1057 (Distance)

Soit u et v deux vecteurs. On appelle distance de u à v et on note d(u, v) la valeur :

d(u, v) = ||u − v||.

On définit ainsi une application


d: E2 → R+
(u, v) 7→ d(u, v)

On peut utiliser les propriétés de la norme pour définir les propriétés de la distance.

Proposition 31.1.2.1058 (Propriétés de la distance)

La distance d vérifie :
1. Pour tout (u, v) dans E2 , d(u, v) = 0 ⇐⇒ u = v
2. Pour tout (u, v, w) dans E3 , d(u, w) 6 d(u, v) + d(v, w).

Démonstration :
1. Évident
2. L’inégalité triangulaire affirme que

d(u, w) = ||u − w|| 6 ||u − v|| + ||v − w|| = d(u, v) + d(v, w).

Définition 31.1.2.1059

Un vecteur u est dit unitaire (ou normé) si ||u|| = 1.

Remarque : De manière plus générale on peut définir une distance sur un espace E comme une application

d : E2 → R +

qui vérifie que


1. d(u, v) = 0 ⇐⇒ u = v
2. Pour tout (u, v, w) dans E3 , d(u, w) 6 d(u, v) + d(v, w)
On voit ainsi qu’il existe des distance plus générale que celles que l’on considère ici. On peut par exemple,
regarder la distance triviale définie par

1 si u 6= v
∀(u, v) ∈ E2 , d(u, v) =
0 si u = v

450
Proposition 31.1.2.1060 (Identités de polarisation)

Soit u et v deux vecteurs :


1. ||u + v||2 = ||u||2 + ||v||2 + 2(u, v)
2. ||u − v||2 = ||u||2 + ||v||2 − 2(u, v)
3. ||u + v||2 − ||u − v||2 = 4(u, v)

Remarque : C’est égalité permettent de retrouver (u, v) en ne connaissant que les normes.

Proposition 31.1.2.1061 (Egalité du parallélogramme)

Soit u et v deux vecteurs,

||u + v||2 + ||u − v||2 = 2(||u||2 + ||v||2 ).

Remarque : Cette égalité a déjà été vue dans le cadre des complexes.

2 Orthogonalité
2.1 Définitions
Définition 31.2.1.1062

Soit u et v deux vecteurs de E. Ils sont donc orthogonaux si (u|v) = 0. On note alors u ⊥ v.

Remarque : La définition est symétrique car (u, v) = 0 ⇐⇒ (v, u) = 0.


Exemples :
1. Cela généralise l’orthogonalité dans R2 ou R3 . Par exemple u = (1, −1, 2, 0) et v = (1, −1, −1, 1) sont
orthogonaux.
Z 1
2
2. Dans R[ X ] muni du produit scalaire P(t) Q(t) dt. Les polynômes X et X − sont orthogonaux.
0 3

Proposition 31.2.1.1063 (Théorème de Pythagore)

Soit u et v deux vecteurs de E,

u ⊥ v ⇐⇒ ||u + v||2 = ||u||2 + ||v||2 .

Démonstration

Définition 31.2.1.1064

Soit A et B deux parties de E. On dit que A et B sont orthogonales si tout vecteur de A est orthogonal à tout
vecteur de B c’est-à-dire,
∀u ∈ A, ∀v ∈ B, (u|v) = 0.

Exemples :
1. Dans R3 les droites ∆1 = Vect(1, 1, 1) et ∆2 = Vect(1, −1, 0) sont orthogonales.
2. Dans R[ X ] muni du produit scalaire précédent, les espaces F = R1 [ X ] et G = Vect(−6X 2 + 6X − 1) sont
orthogonaux.

451
Définition 31.2.1.1065

Soit A une partie de E, on appelle orthogonal de A et on note A⊥ l’ensemble des vecteurs qui sont orthogonaux
à tous les vecteurs de A. On a
A⊥ = {u ∈ E | ∀v ∈ A, (u|v) = 0}.

Remarque : On a donc que A et B sont orthogonaux si et seulement si A ⊂ B⊥ (ce qui est aussi équivalent à
B ⊂ A⊥ ).

Proposition 31.2.1.1066

Avec les notations précédentes, A⊥ est un sous-espace vectoriel.

Démonstration

Exemples :
1. On a {0}⊥ = E et E⊥ = {0}.
  
a b
2. Dans E = M2 (R). Avec le produit scalaire tr (tAB), si on note E = | ( a, b) ∈ R2 . Un matrice
  0 a
α β
B= est dans l’orthogonal de E si et seulement si pour tout a et b, a(α − δ) + bβ = 0. C’est à
γ δ
dire α = −δ et β = 0. On a donc
  
⊥ α 0 2
E = | (α, γ) ∈ R .
γ −α

Exercices :
1. Montrer que si F est un sous-espace vectoriel de E, F ∩ F ⊥ = {0}.
Z 1
2. Dans R2 [ X ] muni du produit scalaire ( P| Q) = P(t) Q(t) dt. Déterminer Vect( X )⊥ .
0

Proposition 31.2.1.1067

Soit F et G deux sous-espaces vectoriels orthogonaux. Ils sont alors en somme directe. On note alors

F ⊕ G la somme

Démonstration

Définition 31.2.1.1068

Soit (u1 , . . . , u p ) une famille de vecteurs de E.


1. Elle est dite orthogonale si pour tout (i, j) dans [[ 1 ; p ]]2 avec i 6= j alors ui ⊥ u j .
2. Elle est dite orthonormale si elle est orthogonale et que tous les vecteurs sont unitaires. On a donc

∀(i, j) ∈ [[ 1 ; p ]]2 , (ui |u j ) = δij .

Exemples :
1. La base canonique est orthonormée pour le produit scalaire usuel.
2. Dans P, on pose f k : x 7→ cos(kx ). La famille ( f 0 , . . . , f p ) est orthonormée pour le produit scalaire
Z 2π
1
( f , g) = f (t) g(t) dt.
2π 0

452
ATTENTION

Dans E = R2 la base canonique n’est plus orthogonale pour le produit scalaire :

(u|v) = xx 0 + 2( xy0 + x 0 y) + 5yy0

Proposition 31.2.1.1069

Soit (u1 , . . . , u p ) une famille orthogonale de vecteurs non nuls. Elle est libre.

Démonstration

Remarque : En particulier une famille orthonormée est libre.

3 Bases orthogonales
On va vouloir travailler avec des bases, on va donc souvent se placer dans le cadre de la dimension finie
(c’est-à-dire la cas des espaces euclidiens).

3.1 Généralité
Dans toute la suite de ce paragraphe, on note E un espace euclidien.

Définition 31.3.1.1070

Soit E un espace euclidien. On appelle base othonormale (ou orthonormée) une base de E qui est une famille
orthonormale.

Remarque : Il suffit qu’une famille orthonormale ait le bon nombre de vecteurs (égal à la dimension de E) pour
être une base orthonormale.

Théorème 31.3.1.1071 (Procédé d’orthonormalisation de Gram-Schmidt)

Soit (e1 , . . . , e p ) une famille libre de vecteurs de E. Il existe une famille orthonormale ( f 1 , . . . , f p )
telle que, pour tout k ∈ [[ 1 ; p ]] , Vect(e1 , . . . , ek ) = Vect( f 1 , . . . , f k ).

Corollaire 31.3.1.1072

1. Un espace euclidien admet des bases orthonormales.


2. On peut compléter toute famille orthonormale en une base orthonormale.

Exemple : Dans E = R3 muni du produit scalaire usuel. On pose e1 = (1, 1, 1), e2 = (0, −4, 1) et e3 = (2, −1, 1).
Cette famille est libre. On va commencer par orthogonaliser cette famille.
— On prend donc v1 = e1 = (1, 1, 1).
— On cherche v2 . Il doit être orthogonal à v1 et appartenir à Vect(e1 , e2 ) = Vect(v1 , e2 ). On pose donc
v2 = e2 + av1 ∈ Vect(v1 , e2 ). On a alors (v2 |v1 ) = (e2 |v1 ) + a(v1 |v1 ). Si on veut que v2 soit orthogonal à
( e2 , v 1 ) −3
v1 il faut prendre a = − =− = 1. On pose donc v2 = e2 + v1 = (1, −3, 2).
( v1 | v1 ) 3

453
— On cherche v3 . Il doit être orthogonal à v1 et à v2 et appartenir à Vect(e1 , e2 , e3 ) = Vect(v1 , v2 , e3 ). On
pose donc v3 = e3 + a1 v1 + a2 v2 ∈ Vect(v1 , v2 , e3 ). On a alors

( v 3 , v 1 ) = ( e3 , v 1 ) + a 1 ( v 1 , v 1 ) + a 2 ( v 2 | v 1 ) = ( e3 , v 1 ) + a 1 ( v 1 , v 1 )

et
( v 3 , v 2 ) = ( e3 | v 2 ) + a 1 ( v 1 | v 2 ) + a 2 ( v 2 , v 2 ) = ( e3 | v 2 ) + a 2 ( v 2 , v 2 ) .
Si on veut que v3 soit orthogonal à v1 et à v2 il faut prendre

( e3 , v 1 ) 2 (e , v ) 8 4
a1 = − = − et a2 = − 3 2 = − = − .
( v1 | v1 ) 3 ( v2 | v2 ) 14 7

On en déduit que
1
v3 = (26, 1, −5)
21
Ensuite il ne reste plus qu’à normer v1 , v2 et v3 . On trouve alors

1 1 1
f 1 = √ (1, 1, 1), f 2 = √ (1, −3, 2) et f 3 = √ (26, 1, −5).
2 14 702

Démonstration : La démonstration suit le même principe que l’exemple à la différence prêt que l’on norme
e
les vecteurs au fur et à mesure. On pose f 1 = 1 . On suppose alors avoir construit ( f 1 , . . . , f k ) vérifiant les
||e1 ||
k
conditions. On pose alors vk+1 = ek+1 + ∑ ai f i où ai = −(ek+1 , f i ). C’est ici que l’on simplifie les formules en
i =1
normands au fur et à mesure.
v k +1
Ce vecteur n’est pas nul car ek+1 6∈ Vect( f 1 , . . . , f k ). On pose donc f k+1 = qui est un vecteur
||vk+1 ||
unitaire. De plus, par construction, pour tout i ∈ [[ 1 ; k ]], ( f k+1 , f i ) = (vk+1 , f i ) = 0. La famille ( f 1 , . . . , f k+1 )
est orthonormale. Elle est donc libre et de rang k + 1. Comme Vect( f 1 , . . . , f k+1 ) ⊂ Vect(e1 , . . . , ek+1 ) par
construction on a bien Vect( f 1 , . . . , f k+1 ) = Vect(e1 , . . . , ek+1 ) 
Remarques :
1. Il n’y a pas unicité de choix dans ce procédé, car à chaque fois on peut prendre ou f i ou − f i . Mais c’est le
seul degré de liberté.
2. En reprenant la démonstration du théorème on voit que si B est une base, il existe une base orthonormale
E telle que la matrice de passage de B à E soit triangulaire supérieure.
Z 1
Exercice : Soit E = Rn [ X ] muni du produit scalaire ( P, Q) = P(t) Q(t) dt. Si on considère la base canonique
−1
(1, X, . . . , X n ).
Si on applique le procédé d’orthonormalisation de Gram-Schmidt on obtient une famille de
polynôme Pn vérifiant
∀(i, j) ∈ [[ 0 ; n ]]2 , ( Pi , Pj ) = δij .
1 3 8
. De même P1 = X et P2 = (3X 2 − 1).
Déterminer P0 , P1 et P2 . Précisément on a P0 =
2 2 5
Ces polynômes sont colinéaires aux polynômes de Legendre. C’est un cas particulier des polynômes
orthogonaux.

Proposition 31.3.1.1073

Soit E un espace vectoriel euclidien, (e1 , . . . , en ) une base orthonormale. Pour tout vecteur u de E,

u= ∑(u, ei )ei .
i

Remarque : Cela signifie que pour connaitre les coordonnées d’un vecteur dans une base orthonormale il
suffit de faire le produit scalaire avec le vecteur de la base.

454
Proposition 31.3.1.1074
 
x1
 
Avec les mêmes notations, si on note U = MatE (u) =  ...  la matrice des coordonnées d’un
xn
 
y1
 
vecteur u et V = MatE (v) =  ...  la matrice des coordonnées d’un vecteur v.
yn
1. Le produit scalaire se calcule par (u, v) = ∑ xi yi = tUV.
i
r √
2. La norme norme se calcule par ||u|| = ∑ xi2 tUU.
i

Démonstration : On a u = ∑ xi ei et v = ∑ y j e j . On en déduit par bilinéarité que


i j

(u, v) = ∑ xi e j (ei , e j ) = ∑ xi yi .
i,j i


Remarque : Cette propriété n’est vraie que dans une base orthonormale. Sinon on a (u, v) = tU AV où
A = ((ei , e j )).

3.2 Produit mixte et produit vectoriel


On considère E un espace euclidien que l’on suppose orienté. On a vu que si B était une base on pouvait
définir detB comme étant l’unique forme n linéaire alternée valant 1 sur la base B. De plus, si B 0 est une autre
base on a alors :
det = det(B ) det .
B0 B0 B

Théorème 31.3.2.1075

Si B et B 0 sont deux bases orthonormées directes, detB0 (B ) = 1. De ce fait

det = det .
B0 B

Démonstration : On a vu que detB0 (B ) est le déterminant de la matrice de passage P de B 0 à B. Fixons les


notations, on pose
B = (e1 , . . . , en ) et B 0 = (e10 , . . . , en0 ).
On a alors
P = ((ei |e0j ))
On remarque alors que
P−1 = ((ei0 |e j )) = tP
On en déduit que
1
det( P) = det(tP) = det( P−1 ) = .
det P
Donc det( P) = ±1.
Maintenant detB0 (B ) > 0 car ce sont deux bases directes donc detB0 (B ) = 1 

Définition 31.3.2.1076

Soit E un espace euclidien orienté, on appelle produit mixte le déterminant prenant comme base de référence
une base orthonormée directe. On le note
[ u1 , . . . , u n ]

455
Exemples :
1. Si E est un espace vectoriel orienté de dimension 2, et u et v deux vecteurs, [u, v] est l’aire orientée du
parallélogramme.
2. Si E est un espace vectoriel orienté de dimension 3, et u, v et w trois vecteurs, [u, v, w] est le volume orienté.
3. Si E est un espace vectoriel orienté et f un endomorphisme, det f mesure la dilatation que procure f .
Vous avez vu en physique le produit vectoriel de deux vecteurs. Si E est un espace
 vectoriel
  de dimension

x x0
3 et B une BOND. On se donne deux vecteurs u et v de coordonnées respectives  y  et  y0 . Alors le
z z0
produit vectoriel u ∧ v a pour coordonnées
 
y y0
 z z0   
  yz0 − y0 z
 0 
 − y y0  =  −( xz0 − x 0 z) 
 z z 
 0
 xy0 − x 0 y
 y y 
z z0
 
α
On remarque que pour tout vecteur w de coordonnées  β , le produit mixte [u, v, w] vaut
γ

x x0 α
y y0 y y0 y y0
[u, v, w] = y y0 β =α −β +γ = ( u ∧ v | w ).
z z0 z z0 z z0
z z0 γ

On peut montrer que le produit vectoriel u ∧ v est l’unique vecteur ayant cette propriété ce qui permet d’en
avoir une définition intrinsèque.

Proposition 31.3.2.1077 (Propriétés du produit vectoriel)

1. L’application
E×E → E
(u, v) 7→ u ∧ v
est bilinéaire et antisymétrique.
2. Le vecteur u ∧ v est orthogonal à u et v.
3. On a u ∧ v = 0 si et seulement si les vecteurs u et v sont liés.
4. Si u et v sont deux vecteurs unitaires et orthogonaux alors (u, v, u ∧ v) est une base orthonornée
directe.

3.3 Sous-espaces vectoriels orthogonaux


Proposition 31.3.3.1078

Soit E un espace euclidien et F un sous-espace vectoriel de E.


1. Le sous-espace F ⊥ est un supplémentaire de F dans E.
2. On a dim F + dim F ⊥ = dim E.
3. On a ( F ⊥ )⊥ = F.
4. Si (e1 , . . . , e p ) est une base de F et u un vecteur de E. On a

u ∈ F ⊥ ⇐⇒ ∀i ∈ [[ 1 ; p ]] (u, ei ) = 0.

Démonstration :

456
1. Soit u ∈ F ∩ F ⊥ , on a u ⊥ u et donc u = 0. Il reste à montrer que F + F ⊥ = E. Soit (e1 , . . . , e p ) une
base orthonormée de F (que l’on peut obtenir en appliquant le procédé d’orthonormalisation de Gram-
Schmidt à une base de F). On peut la compléter en une base (e1 , . . . , en ) orthonormée de E. Si on pose
H = Vect(e p+1 , . . . , en ) on a H ⊂ F ⊥ et F + H = E. On en déduit que F + F ⊥ = E.
2. Cela découle de 1.
3. On peut montrer que F ⊂ ( F ⊥ )⊥ . En effet soit u ∈ F. Pour tout v ∈ F ⊥ on a (u, v) = 0 donc u ∈ ( F ⊥ )⊥ . Si
on note n = dim E et p = dim F on a

dim( F ⊥ )⊥ = n − (n − p) = p = dim F

On a donc F = ( F ⊥ )⊥ .


ATTENTION

Si F est un sous-espace vectoriel, on sait qu’il existe de nombreux sous-espaces supplémentaires. Par
contre il existe un unique supplémentaire qui soit orthogonal : c’est F ⊥ .

Exemples :
1. Dans R3 . On considère le plan vectoriel F = {( x, y, z) ∈ R3 | 2x + 3y − z = 0}. On sait alors que le vecteur
n = (2, 3, −1) est orthogonal à F et on a

F ⊥ = Vect(n).
2. Dans Mn (R) avec le produit scalaire défini ci-dessus. Si F = Vect( In ), F ⊥ = { A ∈ Mn (R) | tr ( A) = 0}.
Une partie de la proposition précédente se généralise aux sous-espaces vectoriels de dimension finie d’un
espace préhilbertien.

Proposition 31.3.3.1079

Soit E un espace préhilbertien et F un sous-espace vectoriel de dimension finie. Les espaces F et F ⊥


sont supplémentaires.

Démonstration : La démonstration précédente ne s’étend pas au cas où E n’est plus de dimension finie. On
a toujours F ∩ F ⊥ = {0}. Montrons de plus que F + F ⊥ = E. On procède par analyse synthèse. On considère
B = (e1 , . . . , e p ) une base orthonormée de F.
— Analyse : Soit w ∈ E et u ∈ F, v ∈ F ⊥ tels que u + v = w. Si on décompose u dans la base B :
u = λ1 e1 + · · · λ p e p . On a alors

∀i ∈ [[ 1 ; p ]] , (w|ei ) = (u|ei ) + (v|ei ) = λi .


p
On en tire que u = ∑ (w|ei )ei et v = w − u
i =1
p
— Synthèse : Soi w ∈ E. On pose u = ∑ (w|ei )ei et v = w − u. On a bien u ∈ F, u + v = w, de plus pour tout
i =1
i ∈ [[ 1 ; p ]], (v|ei ) = (w|ei ) − (u|ei ) = 0. Donc v ∈ F ⊥ .

Z 1
Exemple : Dans R[ X ]. On pose F = R0 [ X ] et ( P| Q) = P(t) Q(t)dt.
 Z 1  0

On a F ⊥ = Q ∈ R[ X ] | Q(t)dt = 0 = Vect( X − 1/2, X 2 − 1/3, X 3 − 1/4, . . .) et R[ X ] = F ⊕ F ⊥ .


0
Remarque : Le fait que ( F ⊥ )⊥ = F n’est plus vrai comme on va le voir dans l’exercice ci-dessous.
R1
Exercice : On pose E = C 0 ([0, 1]) muni du produit scalaire ( f | g) = 0 f (t) g(t)dt. On pose F = { f ∈ E | f (0) =
0}.
1. Soit f une fonction non nulle de E.

457
(a) Montrer qu’il existe α 6= 0 tel que f (α) 6= 0.
(b) Montrer qu’il existe ε > 0 tel que
[α − ε, α + ε] ⊂]0, 1[ et ∀ x ∈ [α − ε, α + ε], | f ( x )| > | f (α)|/2.
(c) Construire une fonction g de F telle que ( f | g) > 0.
2. En déduire F ⊥ .
3. Montrer que ( F ⊥ )⊥ 6= F

3.4 Projecteurs orthogonaux


Définition 31.3.4.1080

Soit F un sous-espace vectoriel de E de dimension finie. On appelle projection orthogonale sur F la projection p
sur F parallèlement à F ⊥ . Pour tout vecteur u de E, p(u) est l’unique vecteur de F vérifiant u − p(u) ∈ F ⊥ .

Proposition 31.3.4.1081

Soit F un sous-espace vectoriel de dimension finie et (e1 , . . . , e p ) une base orthonormée de F. Soit u
un vecteur de E le projeté orthogonal de u sur F est
p
∑ ( u | ei ) ei .
i =1

p
Démonstration : On voit pour commencer que v = ∑ (u, ei )ei appartient à F. Il reste à montrer que u − v est
i =1
dans F ⊥ c’est-à-dire qu’il doit être orthogonal à tous les vecteurs de F (il suffit de vérifier qu’il est orthogonal
aux vecteurs de la base de F). Pour tout k ∈ [[ 1 ; p ]] ,
!
p
(u − v, ek ) = u − ∑ (u, ei )ei , ek = (u, ek ) − (u, ek ) = 0.
i =1

Donc v est bien le projeté orthogonal de u sur F. 


Exemple : On considère F = R1 [ X ] dans E = R[ X ] munit du produit scalaire
Z 1
( P| Q) = P(t) Q(t)dt.
−1
On veut déterminer la projection orthogonale d’un polynôme P sur F. Pour cela on détermine une base
orthonormée ( Q0 , Q1 ) de F par le procédé d’orthonormalisation de Gramm-Schmidt. On obtient

1 3
Q0 = √ et Q1 = √ X
2 2
On en déduit que
p F ( P ) = ( P | Q0 ) Q0 + ( P | Q1 ) Q1 .
En particulier
1 3
pF (Xn ) = + (1 − (−1)n+2 ) X.
n + 1 2( n + 2)
Remarque : On voit dans l’exemple précédent que l’on a commencé par déterminer une base orthonormée
de F ce qui peut être assez pénible. On peut avoir recours à une autre méthode. Soit F = Vect(e1 , . . . , e p ) où
(e1 , . . . , e p ) n’est pas nécessairement orthonormée. Pour tout u de E le projeté orthogonal p F (u) de u sur F
vérifie que
∀i ∈ [[ 1 ; p ]] , (u − p F (u)|ei ) = 0
De ce fait si on note
p F ( u ) = x 1 e1 + · · · + x p e p
on a p inconnues que l’on peut déterminer avec les p équations.
Exercice : Dans E = R4 avec le produit scalaire usuelle. On considère e1 = (1, 1, 0, −1) et e2 = (2, 0, 1, 1). On
pose F = Vect(e1 , e2 ). Déterminer le projeté orthogonal de e4 sur F.

458
Définition 31.3.4.1082

Soit u un vecteur et F un sous-espace vectoriel de E. On appelle distance de u à F et on note d(u, F ) pour

d(u, F ) = Min||u − v||.


v∈ F

Remarque : Cela existe bien car {||u − v|| | v ∈ F } est une partie non vide de R+ qui est donc minorée (par 0).

Proposition 31.3.4.1083

Avec les notations précédentes, d(u, F ) = ||u − p(u)||.

Démonstration : Soit v ∈ F on a
||u − v||2 = ||(u − p(u)) + ( p(u) − v)||2
= ||u − p(u)||2 + || p(u) − v||2 d’après le théorème de Pythagore car u − p(u) ⊥ p(u) − v
> ||u − p(u)||2

Z 1
Exemple : Calculons d( X 3 , R1 [ X ]) dans R3 [ X ] muni du produit scalaire ( P, Q) = P(t) Q(t) dt.
0
On cherche p( X 3 ) le projeté orthogonal de X 3 sur R1 [ X ].
— Première méthode : On cherche aX + b tel que X 3 − aX − b ∈ R1 [ X ]⊥ . On a donc le système

  1 − a −b = 0

( X 3 − aX − b, 1) = 0 4 2
⇐⇒ ⇐⇒ a = 9/10 et b = −1/5.
( X 3 − aX − b, X ) = 0  1−a−b = 0

5 3 2
9 1
On trouve donc X 3 − P( X 3 ) = X 3 − X + et d( X 3 , R1 [ X ]) = ...
10 5

— Deuxième méthode : On cherche une base orthonormé de R1 [ X ]. On pose e0 = 1 et e2 = 3(2X − 1)
que l’on obtient par le procédé de Gram-Schmidt.
9 1
On en déduit que X 3 − p( X 3 ) = X 3 − ( X 3 , e1 )e1 − ( X 3 , e0 )e0 = X 3 − X + .
10 5

3.5 Hyperplans
Dans ce paragraphe, E désigne un espace euclidien de dimension n (on le supposera la plupart du temps
orienté). On rappelle qu’un hyperplan (vectoriel) H est un sous-espace vectoriel de dimension n − 1. De même
un hyperplan affine H est la donnée d’un élément Ω de E (vu comme un point) et d’un hyperplan vectoriel H
(la direction) et on a
−−→
H = {Ω + h | h ∈ H } = { M ∈ E | ΩM ∈ H }
Cela généralise ce que l’on sait faire avec les droites de R2 et les plans de R3 .

Définition 31.3.5.1084

Soit H un hyperplan affine de direction H, on appelle vecteur normal tout vecteur non nul de H ⊥ .

Remarque : Par définition, dim( H ) = n − 1 donc dim( H ⊥ ) = 1. Un vecteur normal est donc une base de H ⊥
et tous les vecteurs normaux sont colinéaires entre eux.
Exemples :
1. Dans E = R2 on considère D = {( x, y) ∈ R2 | x + 2y = 2}. C’est un hyperplan affine (ici une droite). La
direction H = {( x, y) ∈ R2 | x + 2y = 0} = Vect(2, −1). Un vecteur normal est donc n = (1, 2).

459
2. Dans E = R3 , on considère P = {( x, y, z) ∈ R3 | x + 2y − z = 1}. C’est un hyperplan affine, ici un plan.
La direction H = {( x, y, z) ∈ R3 | x + 2y − z = 0} = Vect(u, v) où u = (1, 0, 1) et v = (−2, 1, 0). Pour se
donner un vecteur normal, n, il faut trouver un vecteur orthogonal à u et à v. On peut le faire avec un
système ou utiliser le produit vectoriel vu en physique :

n = u ∧ v = (−1, −2, 1).

Proposition 31.3.5.1085

Soit H un hyperplan affine. Le choix d’un vecteur normal n définit une orientation de la direction H
en disant qu’une base (e1 , . . . , en−1 ) de H est directe si et seulement si (e1 , . . . , en−1 , n) est une base
directe de E.

Exemples :
1. Cas de R2
2. Cas de R3 Faire des dessins
Proposition 31.3.5.1086

Soit A un point de E et n un vecteur de E. On considère

ϕ: E → R
−−→
M 7→ AM.n

Pour tout λ ∈ R, la ligne de niveau Fλ = ϕ−1 ({λ}) = { M ∈ E | ϕ( M ) = λ} est un hyperplan affine


de vecteur normal − →n.

Démonstration : Notons H = (Vect−



n )⊥ . Déterminons un point de Fλ . On voit que

ϕ( A + x −

n ) = x−

n .−

n = x ||−

n ||2 .
λ
Il suffit donc de poser x = −
→ . Maintenant que l’on a trouvé M0 appartenant à Fλ . Pour tout M ∈ E
|| n ||2
−−→ → −−→ − −−−→ → −−−→ →
ϕ( M ) = AM.− n = AM0 . → n + M0 M.− n = λ + M0 M.−n.

On en déduit que
−−−→ → −−−→
M ∈ Fλ ⇐⇒ M0 M.−
n = 0 ⇐⇒ M0 M ∈ H ⇐⇒ M ∈ M0 + H.


Remarque : Réciproquement, tout hyperplan plan affine est une ligne de niveau de ce genre. Il suffit de prendre
pour −

n un vecteur normal à H et pour λ la valeur de ϕ( B) où B est un point de H .

Corollaire 31.3.5.1087

On considère un repère orthonormé (Ω, B ). Soit H un hyperplan affine, il existe des scalaires
λ1 , . . . , λn , µ tels que pour tout point M de coordonnées ( x1 , . . . , xn ),

M ∈ H ⇐⇒ λ1 x1 + · · · + λn xn = µ

On l’appelle l’équation cartésienne de H .

Démonstration : Il suffit de voir que H est une ligne de niveau. Ensuite


−−→ −
ΩM. →
n = µ ⇐⇒ λ1 x1 + · · · + λn xn = µ.


Exemples :

460
1. Cas de R2
2. Cas de R3

Proposition 31.3.5.1088

Soit H un hyperplan affine de E défini par A ∈ H et − →


n un vecteur normal. Pour tout point M de
E,
−−→ →
| AM.− n|
d( M, H ) = −
→ .
|| n ||

−−→
Démonstration : On sait que d( M, H ) = || HM || où H est le projeté orthogonal de M sur H . On a alors
−−→ → −→ → −−→ − −−→
| AM.−
n | = | AH.−
n + HM. →
n | = || HM ||.||−

n ||


Exemples :
1. Cas de R2
2. Cas de R3
Exercice : Déterminer l’équation des bissectrices des droites D1 : 2x + y = 3 et D2 : 3x − y = 1.

4 Endomorphismes orthogonaux
Dans ce paragraphe, E désigne un espace euclidien.

4.1 Endomorphismes orthogonaux


Définition 31.4.1.1089

On appelle isométrie vectorielle ou automorphisme orthogonal un endomorphisme f de E qui conserve la norme


(c’est-à-dire, ∀u ∈ E, || f (u)|| = ||u||).

Proposition 31.4.1.1090

Tout endomorphisme orthogonal est un automorphisme.

Démonstration : Comme E est de dimension finie, il suffit de montrer qu’il est injectif. Or si f (u) = 0 alors
|| f (u)|| = 0 ce qui implique que ||u|| = 0 puis u = 0.


Théorème 31.4.1.1091

1. Soit f une application de E dans lui-même qui conserve le produit scalaire :

∀(u, v) ∈ E2 , ( f (u), f (v)) = (u, v).

L’application f est linéaire et c’est un automorphisme orthogonal.


2. Réciproquement, tout automorphisme orthogonal préserve le produit scalaire.

Démonstration :

461
1. On montre d’abord que f préserve la norme. En effet, pour tout vecteur u,

|| f (u)||2 = ( f (u)| f (u)) = (u|u) = ||u||2 .


Montrons qu’elle est linéaire. Si (e1 , . . . , en ) est une base orthonormée alors ( f (e1 ), . . . , f (en )) l’est aussi.
De ce fait pour tout vecteur u :
f (u) = ∑( f (u)| f (ei ))ei = ∑(u|ei )ei .
Maintenant, il suffit de voir que u 7→ (u|ei ) est linéaire.
2. On suppose que f préserve la norme. Pour tout (u, v) ∈ E2 ,
1 
( f (u)| f (v)) = || f (u) + f (v)||2 + || f (u) − f (v)||2
4
1 
= || f (u + v)||2 + || f (u − v)||2
4
1 
= ||u + v||2 + ||u − v||2
4
= (u|v)


Définition 31.4.1.1092

On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F et parallèlement à F ⊥ . Si F est un
hyperplan on dit que c’est une réflexion.

Exemple : Les symétries orthogonales sont des endomorphismes orthogonaux. En effet soit s la symétrie
orthogonale par rapport à un sous-espace vectoriel F. Soit u un vecteur de E, il se décompose uniquement sous
la forme u = α + β avec α ∈ F et β ∈ F ⊥ . On a alors s(u) = α − β et

||s(u)||2 = ||α − β||2 = ||α||2 + || β||2 = ||u||2 .


En particulier l’identité et −Id sont des endomorphismes orthogonaux.
B Les projections orthogonales ne sont pas des endomorphismes orthogonaux car ce ne sont pas des
automorphismes (sauf si F = E).

Proposition 31.4.1.1093

Soit f un endomorphisme de E. Les trois assertions suivantes sont équivalentes :


i.) L’endomorphisme f est orthogonal.
ii.) L’image de toute base orthogonale par f est une base orthogonale.
iii.) L’image d’une base orthogonale par f est une base orthogonale.

Démonstration :
— i.) ⇒ ii.) On suppose que f est orthogonal. Soit (e1 , . . . , en ) une base orthonormale. Alors pour tout
(i, j) ∈ [[ 1 ; n ]]2
( f (ei ), f (e j )) = (ei , e j ) = δij .
Donc ( f (ei )) est bien une base orthonormale.
— ii.) ⇒ iii.) Evident.

— iii.) ⇒ i.) Soit (ei ) une base orthonormale dont l’image ( f (ei )) est encore orthonormale. Soit u = ∑ x i ei
i
un vecteur de E on a f (u) = ∑ xi f (ei ). Or, comme ( f (ei )) est une base orthonormale,
i

|| f (u)||2 = ∑ xi2 = ||u||2 .


i

Donc f est orthogonale.

462


Proposition 31.4.1.1094

L’ensemble des endomorphismes orthogonaux est un groupe pour la composition que l’on ap-
pelle groupe orthogonal et qui se note O( E). Cela signifie que si f et g sont des endomorphismes
orthogonaux alors f −1 et f ◦ g aussi.

Démonstration : Il suffit de voir que c’est un sous-groupe de GL( E) car tous les endomorphismes orthogonaux
sont des automorphismes. Pour cela il faut montrer que si f et g sont orthogonaux alors f −1 et f ◦ g aussi. En
effet soit u dans E, on sait que pour v = f −1 (u) on a

|| f (v)||2 = ||v||2 ⇐⇒ ||v||2 = || f −1 (v)||2 .

On en déduit que f −1 est orthogonal. De même soit u dans E,

|| f ( g(u))||2 = || g(u)||2 = ||u||2 .

D’où f ◦ g est orthogonal. 

Proposition 31.4.1.1095

Soit f un automorphisme orthogonal et F un sous-espace stable par f (c’est-à-dire que f ( F ) ⊂ F)


alors F ⊥ est aussi stable par f .

Démonstration : Soit u ∈ F ⊥ . On veut montrer que f (u) ∈ F ⊥ c’est-à-dire que pour tout vecteur v de F alors
( f (u), v) = 0. Commençons par remarquer que, comme f est un automorphisme, f ( F ) = F car le premier est
inclus dans le deuxième et ils ont la même dimension. De ce fait si v appartient à F il existe v0 dans F tel que
v = f (v0 ). On a alors
( f (u), v) = ( f (u), f (v0 )) = (u, v0 ) = 0.


4.2 Matrices orthogonales


Nous allons définir des matrices particulières qui seront les matrices des endomorphismes orthogonaux dans
une base orthonormée. Commençons par un petit calcul pour expliquer le phénomène. Soit f un endomorphisme
de E et B une base orthonormée de E. On note M = MatB ( f ). Maintenant on se donne deux vecteurs x et y de
E et on note X = MatB x et Y = MatB y. On a alors

( x, y) = tX.Y et ( f ( x ), f (y)) = t( MX ).( MY ) = tX tMMY.

Cela laisse imaginer que f sera orthogonal si et seulement si tMM = In .

Définition 31.4.2.1096

Soit M ∈ Mn (R). Les conditions suivantes sont équivalentes :


i.) La matrice M est inversible et M−1 = tM.
ii.) Les colonnes de M forment une base orthonormée.
iii.) Les lignes de M forment une base orthonormée.

Remarques :
1. Pour la condition i.) il suffit de vérifier que MtM = In ou que tMM = In .
2. Dans les conditions ii.) et iii.) on a identifié les colonnes ou les lignes de la matrice à Rn avec son produit
scalaire usuel.

463
Démonstration : Si on note M = ( aij ), Ci les colonnes de M et que l’on note (bij ) les coefficients de tMM. On a
n
∀(i, j) ∈ [[ 1 ; n ]]2 , bij = tCi Cj = ∑ aki akj = (Ci , Cj ).
k =1

On a donc que les colonnes de M forment un base orthonormée si et seulement si tMM = In .


De même les lignes de M forment une base orthonormée si et seulement si MtM = In .
On conclut en utilisant que
t
MM = In ⇐⇒ MtM = In ⇐⇒ M−1 = tM.


Définition 31.4.2.1097

Un matrice vérifiant les conditions ci-dessus s’appelle une matrice orthogonale. On note O(n) ou On (R)
l’ensemble des matrices orthogonales de Mn (K).

Remarque : On voit que M ∈ O(n) ⇐⇒ tM ∈ O(n).


Exemples :
1. Une matrice diagonale avec des éléments de {±1} sur la diagonale est orthogonale.
 
cos θ − sin θ
2. Les matrices A = sont orthogonales.
sin θ cos θ

Théorème 31.4.2.1098

Soit B une base orthonormée. Soit f ∈ L ( E) on a

f ∈ O( E) ⇐⇒ MatB ( f ) ∈ O(n).

Démonstration : Si on note B = (e1 , . . . , en ).


f ∈ O( E) ⇐⇒ l’image de B par f est une base orthogonale
⇐⇒ la famille ( f (ei )) est une famille orthonormale
⇐⇒ La famille Ci est orthonormale
⇐⇒ MatB ( f ) ∈ O(n)


Corollaire 31.4.2.1099

On a que O(n) est un sous-groupe de GLn (R) et pour toute base orthonormale,

O( E) → O(n)
f 7→ MatB ( f )

est un isomorphisme de groupe.

Proposition 31.4.2.1100

Soit M une matrice orthogonale. Son déterminant appartient à {±1}.

Démonstration : Il suffit de voir que tMM = In implique det( M )2 = 1. 


 
2 5
Remarque : Ce n’est pas une équivalence. Par exemple, la matrice . Son déterminant vaut 1 mais elle
1 3
n’est pas orthogonale.

464
Définition 31.4.2.1101

On appelle groupe spécial orthogonal (ou groupe des rotations) et on note SO(n) le sous-groupe de O(n)
constitué des matrices orthogonales de déterminant 1.

Remarque : On définit de même SO( E). Un élément de SO( E) est un automorphisme orthogonal direct (ou
une rotation) alors q’un élément de O( E) qui n’est pas dans SO( E) est un automorphisme orthogonal indirect.

Proposition 31.4.2.1102

Soit B une base orthonormée et B 0 une autre base. La base B 0 est orthonormée si et seulement si la
matrice de passage de B à B 0 est orthogonale.

4.3 Endomorphismes orthogonaux du plan euclidien


Dans tout ce paragraphe, E désigne un plan euclidien orienté c’est-à-dire un espace euclidien de dimension
2 orienté.    
cos θ − sin θ cos θ sin θ
Notation : Soit θ ∈ R on note R(θ ) = et S(θ ) = .
sin θ cos θ sin θ − cos θ
Remarque : On voit que R(θ ) et S(θ ) sont des éléments de O(2). De plus DetR(θ ) = 1 et donc R(θ ) ∈ SO(2)
alors que DetS(θ ) = −1.

Théorème 31.4.3.1103

Soit M une matrice de O(2). Il existe θ dans R tel que M = R(θ ) ou M = S(θ ).

 
a b
Démonstration : On note M = . Comme M est orthogonale, on a a2 + c2 = 1 (car « la colonne est
c d
normée ») et de ce fait il existe θ tel que a = cos θ et c = sin θ. De même, il existe ϕ tel que b = cos ϕ et d = sin ϕ.
Maintenant, en utilisant les deux colonnes sont orthogonales on obtient :

cos θ cos ϕ + sin θ sin ϕ = 0 ⇐⇒ cos(θ − ϕ) = 0


π
⇐⇒ θ − ϕ = [π ]
2
π
⇐⇒ ϕ = θ + [ π ].
2
π
— Si ϕ = θ + on a donc c = cos ϕ = − sin θ et d = sin ϕ = cos θ. On a donc M = R(θ ).
2
π
— Si ϕ = θ − on a donc c = cos ϕ = sin θ et d = sin ϕ = − cos θ. On a donc M = S(θ ).
2


Corollaire 31.4.3.1104

1. On a SO(2) = { R(θ ) | θ ∈ R}.


2. L’application de (R, +) dans (SO(2), ×) qui associe à θ la matrice R(θ ) est un morphisme
surjectif de groupe dont le noyau est 2πZ. En particulier, SO(2) est un groupe abélien.

Remarque : On peut aussi construire un isomorphisme de (U , ×) dans (SO(2), ×) en associant à z la matrice


R(arg z).

465
Proposition 31.4.3.1105

Soit f un endomorphisme de SO( E). Il existe un unique réel θ à 2π-près tel que dans toute base
orthonormée directe sa matrice soit R(θ ).

Démonstration : On sait que la matrice de f dans une base orthonormée directe B appartient à SO(2). Elle est
donc de la forme R(θ ). Maintenant si B 0 est une autre base orthonormée directe alors la matrice de passage P
de B à B 0 est aussi un élément de SO(2). Comme SO(2) est abélien,

MatB0 ( f ) = P−1 R(θ ) P = R(θ ) P−1 P = R(θ ).




Définition 31.4.3.1106

Avec les notations précédentes, on dit que f est une rotation d’angle θ ou que θ est une mesure de f .

Proposition 31.4.3.1107

Soit u et v deux vecteurs unitaires. Il existe une unique rotation r telle que r (u) = v.

Démonstration : Il suffit de travailler dans la base (u, u0 ) où u0 est choisit tel que cette base soit orthonormée
directe (il en existe un unique). Dès lors, dans cette base, comme v est un vecteur unitaire, il existe un unique θ à
2π-près tel que v = (cos θ )u + (sin θ )u0 . Dans cette base, un endomorphisme vérifiant f (u) = v s’écrit donc
 
cos θ ∗
.
sin θ ∗

La proposition en découle. 

Définition 31.4.3.1108

Si u et v sont deux vecteurs non nuls. On appelle mesure de l’angle orienté (u,ˆ v) une mesure θ de l’unique
rotation r telle que
r (u/||u||) = v/||v||.
On note (u,ˆ v) = θ [2π ].

Proposition 31.4.3.1109

1. Soit u, v et w trois vecteurs non nuls,

(u,ˆ v) + (v,ˆw) = (u,ˆw)[2π ] (Relation de Chasles)

2. Si u et v sont deux vecteurs non nuls et θ est une mesure de (u,ˆ v) alors

(u, v) = ||u||||v|| cos θ et Det(u, v) = ||u||||v|| sin θ.

Démonstration :
1. On peut supposer que les trois vecteurs sont unitaires. Ensuite si on note r1 et r2 les rotations telles que
r1 (u) = v et r2 (v) = w. On a (r2 ◦ r1 )(u) = w. Or si θ1 est une mesure de r1 et θ2 une mesure de r2 alors
θ1 + θ2 est une mesure de r2 ◦ r1 .

466
0
  Dans la base (u, u) utilisée
2. Là encore, on peut, par linéarité se ramener au cas où u et v sont unitaires. 
1 cos θ
précédemment qui est orthonormée directe, les coordonnées de u sont et celles de v sont .
0 sin θ
Il suffit alors de faire le calcul.

Exemple : Tout ceci s’applique au cas E = R2 mais aussi à tout plan euclidien. Par exemple, si on se donne
Z 1
E = R1 [ X ] avec ( P, Q) = P(t) Q(t) dt. Il faut de plus orienté E en choisissant une base orthonormée
0
√On voit que u =√1 est unitaire.
directe. √ De plus ũ = X − 1/2 est orthogonal à u. On prend la base (u, u0 ) où
0
u = 2 3( X − 1/2) = 2 3X − 3.
On peut alors chercher l’angle (1,ˆX ). On a vu u = 1 est unitaire. Par contre si v1 = X  a ||v1 ||2 = 1/3.
on√
√ 3/2
On pose donc v = 3X qui est unitaire. Maintenant les coordonnées de v dans (u, u0 ) sont . On en
1/2
déduit que l’angle cherché vaut π/6.

Proposition 31.4.3.1110

Soit f un automorphisme orthogonal indirect. C’est une réflexion.

Démonstration : On choisit une base orthogonale. On voit que la matrice de f est de la forme S(θ ). On en
déduit par le calcul que f 2 = Id car S(θ )2 = I2 .
Donc f est une symétrie orthogonale. On regarde le noyau de f − Id. Comme f n’est pas Id ni -Id (qui sont
des rotations) on en déduit que le noyau de f − Id est de dimension 1. C’est bien une réflexion.

Remarque : En reprenant les notations ci-dessus. On se place dans une base orthonormée directe (i,j) et on
note S(θ ) sa matrice. Si on cherche une équation de Ker ( f − Id) il suffit de résoudre :
 
((cos θ ) − 1) x + (sin θ )y = 0 sin(θ/2) (− sin(θ/2) x + cos(θ/2)y) = 0
⇐⇒
(sin θ ) x + (−(cos θ ) − 1)y = 0 cos(θ/2) (sin(θ/2) x − cos(θ/2)y) = 0

θ θ
Le vecteur u = cos i + sin j est une solution. On en déduit que f est une symétrie par rapport à Vect(u).
2 2

Proposition 31.4.3.1111

Soit deux vecteurs non nuls u et v et r, s les réflexions par rapport Vect(u) et Vect(v). La composée
s ◦ r est une rotation d’angle 2(u,ˆ v).

Démonstration : Il est clair que la composée de deux réflexions est une rotation. Pour déterminer l’angle de
cette rotation il suffit de calculer l’image d’un vecteur. Calculons (s ◦ r )(u).
D’abord on peut supposer que u et v sont unitaires. On a de plus r (u) = u. Il suffit donc de calculer s(u).
Maintenant, considérons les bases orthonormées directes B = (u, u0 ) et B 0 = (v, v0 ). On sait que la matrice de s
dans B 0 est S(0). On note θ une mesure de (u,ˆ v). De plus la matrice de passage de B à B 0 est R(θ ). Celle de B 0 à
B est donc R(−θ ) On en déduit que la matrice de s dans B est R(−θ )−1 S(0) R(−θ ) = R(θ )S(0) R(−θ ) = S(2θ ).
Les coordonnées de l’image de u dans (u, u0 ) sont donc (cos(2θ ), sin(2θ )). On en déduit bien que s ◦ r est
rotation d’angle 2θ.

Remarque : On peut faire les calculs dans O(2) en identifiant un vecteur ( x, y) avec le nombre complexe x + iy.
La matrice R(θ ) correspond alors à la multiplication par eiθ . La matrice S(θ ) à z 7→ eiθ z.

Corollaire 31.4.3.1112

Toute rotation peut s’écrire comme composée de deux réflexions.

467
4.4 Automorphismes orthogonaux de l’espace
Dans ce paragraphe E désigne un espace euclidien orienté de dimension 3. Là encore on va essayer de
classifier tous les éléments de SO( E) et de O( E) et donc de SO(3) et de O(3).
Commençons par une proposition sur les orientations.

Proposition 31.4.4.1113

Soit w un vecteur unitaire de E. Il existe une unique orientation du plan H = Vect(w)⊥ tel que pour
toute base orthonormée directe (u, v) de H, la base (u, v, w) soit directe dans E.

Remarques :
1. On dit alors que H est orienté par le vecteur w. On peut d’ailleurs procéder dans l’autre sens. Si on se
donne un plan H, pour l’orienter, il suffit de choisir un des deux vecteur unitaires de H ⊥ .
2. Dans la pratique si w est un vecteur unitaire, pour construire une base orthonormée directe, on prend un
vecteur u dans H. On sait alors que uVectw est aussi dans H et orthogonal à u. D’où (u, w, u ∧ w) est une
BOND. On note plutôt (u, −(u ∧ w), w) = (u, w ∧ u, w).

Théorème 31.4.4.1114

Soit f ∈ SO( E). Il existe une base orthonormée directe B = (u, v, w) telle que
 
cos θ − sin θ 0
MatB ( f ) =  sin θ cos θ 0 
0 0 1

où θ est un réel.

Avant de nous lancer dans la démonstration, commençons par un lemme

Lemme 31.4.4.1115

Soit f dans SO( E) tel que f 6= Id. Le sous-espace vectoriel F = Ker ( f − Id) est une droite vectorielle.

Démonstration du lemme : Commençons par montrer que F n’est pas réduit à 0.


On étudie l’endomorphisme f − λId. Notons χ(λ) son déterminant. On a donc

a11 − λ a12 a13


χ(λ) = a21 a22 − λ a23 .
a31 a32 a33 − λ

En particulier, en développant avec la règle de Sarrus on voit que χ est un polynôme de degré 3 dont le degré
dominant est −λ3 . De plus, comme χ(0) = Det f = 1
On en déduit qu’il existe λ0 > 0 tel que χ(λ0 ) = 0. Cela revient à dire que f − λ0 Id n’est pas injectif donc il
existe u0 6= 0 tel que ( f − λ0 Id)(u0 ) = 0 ⇐⇒ f (u0 ) = λ0 u0 .
Cependant, comme f est un automorphisme orthogonal, || f (u0 )|| = |λ0 |||u0 || = ||u0 || d’où |λ0 | = 1 et donc
λ0 = 1.
On a bien montré que F n’était pas réduit à {0}. Montrons maintenant que dim F = 1. On voit déjà que
dim F = 3 est impossible car f 6= Id. De plus si dim F = 2 alors f est la réflexion par rapport à F (il suffit de
voir que F ⊥ est stable mais pas invariante).

Démonstration du théorème : Soit w un vecteur unitaire qui engendre F = Ker f − Id. On a vu f laissait
stable H = F ⊥ . Par le même raisonnement que ci-dessus, on voit que f H est alors un élément de SO( H ). C’est
donc une rotation. 

468
Définition 31.4.4.1116

Soit w une vecteur non nul de E et θ un réel. On appelle rotation d’axe autour de w et d’angle θ, l’auto-
morphisme orthogonal laissant stable F = Vect(w) et tel que f H soit la rotation d’angle θ où H = F ⊥ . Si
B = (u, v, w0 ) est une base orthonormée directe avec w0 = w/||w||, la matrice de f dans la base B est
 
cos θ − sin θ 0
MatB ( f ) =  sin θ cos θ 0 
0 0 1

Remarques :
 
−1 0 0
1. La droite vectorielle F s’appelle l’axe de f . Remarque : Si l’angle vaut π et donc la matrice est  0 −1 0 ,
0 0 1
on dit que c’est un demi-tour.
2. Il faut faire attention que si on change w en −w la rotation change car le plan H est alors orienté dans
l’autre sens.
3. La plupart du temps on prendra w unitaire.
4. On voit donc que dans les automorphismes orthogonaux de l’espace il y a les rotations (qui sont les
éléments de SO( E)). Il y a aussi les réflexions. Mais, contrairement au cas du plan, il y en a d’autre. Par
exemple l’application u = −IdE est un élément de O( E) mais pas de SO( E) car det(u) = (−1)3 = −1.
Mais ce n’est pas une réflexion
 car aucun vecteur n’est invariant.  De fait, c’est
 la composée du demi-tour
−1 0 0 1 0 0
de matrice  0 −1 0  et de la réflexion de matrice =  0 1 0 .
0 0 1 0 0 −1

Proposition 31.4.4.1117

Soit w un vecteur unitaire, θ un réel et f la rotation d’angle θ autour de w. Pour tout vecteur u
orthogonal à w, on a
f (u) = (cos θ )u + (sin θ )(w ∧ u).

Démonstration : Il suffit de voir que, comme (u, w, u ∧ w) est une base orthonormée directe alors (u, w ∧ u, w)
De ce fait, la matrice de f dans cette base est
 
cos θ − sin θ 0
MatB ( f ) =  sin θ cos θ 0 
0 0 1
Le résultat en découle en regardant la première colonne. 
Exemples :
1. Soit w le vecteur w = (1, 2, 0). On cherche la matrice dans la base canonique de R3 de la rotation autour
de w et d’angle θ. Pour tout vecteur u = ( x, y, z) on peut le décomposer comme somme d’un vecteur
colinéaire à w et d’un vecteur qui lui est orthogonal (car F et F ⊥ sont en somme directe si F = Vect(w)).
On a
x + 2y 1
u= w + (4x − 2y, −2x − 3y, 5z).
5 5
1 1
Maintenant w ∧ (4x − 2y, −2x − 3y, 5z) = (10z, −5z, −10x + y). On a donc
5 5
x + 2y cos θ sin θ
f (u) = (1, 2, 0) + (4x − 2y, −2x − 3y, 5z) + (10z, −5z, −10x + y).
5 5 5
On peut alors en déduire la matrice ...
 
8 1 4
1
2. A l’inverse soit M =  −4 4 −7 . On vérifie que M est bien un matrice orthogonale et que son
9
1 8 4
déterminant vaut 1. L’endomorphisme f canoniquement associé est donc une rotation de R3 .

469
Pour déterminer l’axe il suffit de chercher les invariant c’est-à-dire le noyau de f − Id. On trouve w =
1
√ (3, −1, −1) en le prenant normé.
11
1
Maintenant on prend un vecteur orthogonal à w et normé. On prend u = √ (1, 3, 0). On a
10

7 5 11
cos θ = (u, f (u)) = et sin θ = ( f (u), w ∧ u) = Det(w, u, f (u)) = .
18 18

tr ( f ) − 1 7
On peut aussi remarquer que tr ( f ) = 1 + 2 cos θ. On retrouve bien cos θ = = .
2 18

Proposition 31.4.4.1118

Une rotation de E peut s’écrire comme composé de deux réflexions.

Remarque : Dans l’espace on ne peut pas parler de l’angle orienté de deux vecteurs car cela dépend « de
quel coté on regarde ». Cependant on peut définir un angle géométrique. Soit u et v deux vecteurs de E. On
sait d’après l’inégalité de Cauchy-Schwarz que |(u|v)| 6 ||u||||v|| donc il existe un unique θ ∈ [0, π ] tel que
(u|v) = ||u||||v|| cos θ. A partir de là, on peut voir que

||u ∧ v||2 = ||u||2 ||v||2 − (u|v)2

Il suffit en effet de faire les calculs dans une BOND où u = ( a, 0, 0) et v = (b, c, 0). On en déduit que

u ∧ v|| = ||u||||v|| sin θ.

Maintenant si on se donne trois vecteurs u, v et w et que l’on considère le parallélépipède porté par ces trois
−→ −→ −→
vecteurs. On notera u = AB, v = AC et w = AD. On sait que le volume est (base)× hauteur.
−→ −→
Or l’aire de la base est AB × AC × sin( AB, AC ) = ||u ∧ v||. De plus le vecteur u ∧ v est colinéaire au vecteur
−→ →
normal du plan (ABC). On en déduit que si − →n est un vecteur normal à (ABC), la hauteur vaut | AD.− n |. On en
déduit que le volume est
|(u ∧ v).w| = det(u, v, w).

470
Fonctions de deux
32
variables - Bonus
Ceci est un bonus, ce qui est ici n’est pas au programme de MPSI - c’est essentiellement
une mise en jambe pour la deuxième année
2
p Dans ce chapitre R est muni de la structure euclidienne usuelle. Pour u = ( x, y) on note donc ||u|| =
x + y . On notera (e1 , e2 ) la base canonique de R2 .
2 2

1 Généralités
1.1 Fonctions à deux variables
Définition 32.1.1.1119

On appelle fonction à deux variables, toute application d’une partie A de R2 dans R.

Proposition 32.1.1.1120

L’ensemble F ( A, R) est muni d’une structure d’espace vectoriel hérité de celle de R.

Exemple : La fonction f : ( x, y) 7→ ln( xy) est définie sur A = (R?+ )2 ∪ (R?− )2

Définition 32.1.1.1121

Soit f une fonction à deux variables définie sur A. Soit a = ( x0 , y0 ) un élément de A. On note

A x = {y ∈ R, ( x0 , y) ∈ A} et Ay = { x ∈ R, ( x, y0 ) ∈ A}.

On appelle application partielle en a les applications

f (•, y0 ) = f 1 : Ax → R f ( x0 , •) = f 2 : Ay → R
et
x 7→ f ( x, y0 ) y 7→ f ( x0 , y )

471
Remarques :
1. Il faut faire attention que même si a n’apparait pas dans les notations A x , Ay , f 1 et f 2 , ces notions en
dépendent.
2. Les applications f 1 et f 2 sont des applications à une variable.
Exemples :
1. Si on reprend f : ( x, y) 7→ ln( xy) définie sur A = (R?+ )2 ∪ (R?− )2 . Pour m = (2, 1) on a A x = Ay = R?+ et
f 1 : t 7→ ln t et f 2 : t 7→ ln(2t).
p
2. Si f : ( x, y) 7→ 1 − x2 − y2 . Elle est définie sur A = D (O, 1) = {( x, y) ∈ R2 , x2 + y2 6 1}. Pour
m = (1/3, 1/2) on a √ √ √ √
A x = [− 3/2, 3/2] et Ay = [−2 2/3, 2 2/3].
On a r r
( 3 8
f 1 : t 7→ , 1/2) = − t2 et f 2 : t 7→ − t2 .
t 4 9

1.2 Rudiments de topologie


Afin de définir les notions de limites pour les fonctions à deux variables, nous allons avoir besoin de définir
ce qui va remplacer les intervalles et les voisinages.

Définition 32.1.2.1122

Soit a un élément de R2 et r un réel positif. On appelle boule ouverte (resp. boule fermée, resp. sphère) de centre
a et de rayon r et on note B( a, r ) (resp. B( a, r ) resp. S( a, r )) les ensembles

B( a, r ) = {u ∈ R2 | ||u − a|| < r }, B( a, r ) = {u ∈ R2 | ||u − a|| 6 r } et S( a, r ) = {u ∈ R2 | ||u − a|| = r }.

Remarque : La terminologie vient de l’espace euclidien R3 mais ces notions sont utiles pour tout espace
euclidien, en particulier dans notre cas.

Définition 32.1.2.1123

Soit A une partie de R2 . On dit que A est une partie ouverte de R2 (ou que A est un ouvert de R2 ) si pour
tout point a de A il existe un réel strictement positif a tel que B( a, r ) ⊂ A.

Remarques :
1. Cette notion est fondamentale. Elle consiste à dire que, si A est un ouvert on peut toujours se « dépla-
cer » autour de tout élément de A mais en restant dans A.
2. Le r de la définition va bien évidemment dépendre de a.
Exemples :
1. L’ensemble vide et R2 en entier sont des ouverts.
2. Une boule ouverte B( a, r ) est un ouvert. En effet soit u ∈ B( a, r ). Si on note p = ||u − a|| < r. Il existe
ε ∈ R?+ tel que p + ε < r. De ce fait B(u, ε) ⊂ B( a, r ) car, d’après l’inégalité triangulaire, pour tout élément
v de R2 ,
||v − a|| = ||(v − u) + (u − a)|| 6 ||v − u|| + ||u − a||.
3. A l’inverse une boule fermé n’est pas un ouvert. En effet, si on prend u tel que ||u − a|| = r alors pour
ε u−a
tout ε il existe des éléments de B(u, ε) qui ne soient pas dans B( a, r ) par exemple u + .
2 r
4. Le complémentaire d’une boule fermé est un ouvert.
Exercice : Montrer qu’une intersection ou une union de deux ouverts est encore un ouvert.

472
Définition 32.1.2.1124

Soit A une partie de R2 et a un élément de R2 . On dit que a est un point adhérent à A si pour tout ε > 0, les
ensembles A et B( a, ε) ne sont pas d’intersection vide.
On notera A l’ensemble des points adhérents à A.

Remarques :
1. De manière évidente, tous les points de A sont des points adhérents à A.
2. Cela va permettre de définir la limite d’une fonction définie sur A. Si on reprend le cas des fonctions à une
variable. Si f était définie sur I =] a, b[ on pouvait définir lim f car a est « juste à coté » de A. La notion de
a
point adhérent est l’analogue.
3. Avec les notations de la définition, le point a est adhérent à A si tout ouvert contenant a rencontre A.
Exemples :
1. Si A = R2 \ {(0, 0)} alors A = R2 .
2. Si A =] − 1, 1[×R alors A = R2 .
3. Si A = Q2 alors A = R2 .

2 Fonctions continues
2.1 Limites
Définition 32.2.1.1125

Soit f une fonction de deux variables définies sur une partie A et a ∈ A. Soit ` ∈ R. On dit que f tend vers `
en a ou que la limite de f en a est ` et on note lim f = ` si
a

∀ε > 0, ∃η > 0, ∀u ∈ A, u ∈ B( a, η ) ⇒ | f (u) − `| < ε.

Remarque : Cette définition est l’analogue de celle pour les fonctions à une variables en remplaçant ] a − η, a + η [
par B( a, η ).

Proposition 32.2.1.1126

Avec les notations précédentes on a

lim f = ` ⇐⇒ lim( f − `) = 0.
a a

Remarque : Comme avec une variable, on se ramènera souvent à montrer qu’une limite est nulle ce qui peut
se faire avec des majorations.

Définition 32.2.1.1127

Soit f une fonction de deux variables définies sur une partie A et a ∈ A. On dit que f tend vers +∞ (resp.
−∞) en a ou que la limite de f en a est +∞ (resp. −∞) et on note lim f = +∞ (resp. lim f = −∞) si
a a

∀ M ∈ R, ∃η > 0, ∀u ∈ A, u ∈ B( a, η ) ⇒ f (u) > M (resp. ∀m ∈ R, ∃η > 0, ∀u ∈ A, u ∈ B( a, η ) ⇒ f (u) >< m).

Exemples :

473
1. Soit f = ( x, y) 7→ x2 + y. Elle est définie sur R2 . Calculons sa limite en (3, 2). On voit que f (3, 2) = 11. Or
on remarque que si η > 0,
q
( x, y) ∈ B((3, 2), η ) ⇐⇒ ( x − 3)2 + (y − 2)2 < η.
En particulier | x − 3| 6 η et |y − 2| 6 η. Maintenant f ( x, y) − 11 = x2 − 32 + y − 2. Si on se donne ε > 0
on sait qu’il existe ηx et ηy tels que
∀ x ∈ R, | x − 3| < ηx ⇒ | x2 − 32 | < ε/2 et ∀y ∈ R, |y − 2| < ηy ⇒ |y − 2| < ε/2.
Il suffit alors de poser η = Min(ηx , ηy ).
x+y
2. Soit f la fonction définie sur R2 \ {(0, 0} par f : ( x, y) 7→ . Cette fonction n’a pas de limite en
x 2 + y2
(0, 0). En effet, pour tout ε < 1 dans la boule de centre (0, 0) et de rayon ε il y a u = (ε/2, ε/2) qui vérifie
2
f (u) = > 2. Mais, dans cette même boule, il y a aussi v = (ε/2, −ε/2) qui vérifie f (v) = 0.
ε
Proposition 32.2.1.1128

Soit f une fonction définie sur A. Soit a = ( x0 , y0 ) ∈ A. On suppose que lim f = ` où ` ∈ R. Si


a
la première (resp. la deuxième) application partielle en a que l’on note f 1 (resp. f 2 ) est définie au
voisinage de x0 (resp. y0 ) alors lim f 1 = ` (resp. lim f 2 = `.).
x0 y0

Démonstration : Traitons le cas ` ∈ R. Pour tout ε > 0 il existe η > 0 tel que
∀u ∈ A, ||u − a|| < η ⇒ | f (u) − `| < ε.
p
Maintenant soit x tel que | x − x0 | < η on pose u = ( x, y0 ) et ||u − a|| = ( x − x0 )2 + (y0 − y0 )2 = | x − x0 |. De
ce fait, | f (u) − `| < ε. Comme f (u) = f ( x, y0 ) = f 1 ( x ) on a la propriété voulue. On peut faire de même pour f 2 .

Remarque : Les fonctions partielles peuvent ne pas exister. Par exemple si f : ( x, y) 7→ ln( x2 − y2 ). Elle est
définie sur A = {( x, y) ∈ R2 | | x | > |y|}. Il n’y a donc pas de deuxième application partielle en (0, 0).
B Ce n’est pas une équivalence. Par exemple si f : (x, y) 7→ x2 xy + y2
. On a que les deux applications partielles
1
en (0, 0) sont nulles. Cependant, on a pour tout x dans R? , f ( x, x ) = . De ce fait la limite de f en (0, 0) ne peut
2
pas être nulle.

Proposition 32.2.1.1129

Soit f une fonction définie sur A. Soit a ∈ A. On suppose que f a une limite finie en a. La fonction f
est bornée au voisinage de a ce qui signifie qu’il existe ε > 0 et M ∈ R tels que

∀u ∈ A ∩ B( a, ε), | f (u) 6 M.

Démonstration : On se donne α = 1. D’après la définition de la limite, il existe ε tel que


∀u ∈ A, u ∈ B( a, ε) ⇒ | f (u) − `| < 1.
Cela implique la propriété voulue en posant M = |l | + 1. 

2.2 Continuité
Définition 32.2.2.1130

Soit f une fonction définie sur A.


1. Soit a ∈ A. Si f admet une limite ` en a alors ` = f ( a) et on dit que f est continue en a.
2. Si f est continue en tout point a de A, on dit que f est continue. On note C ( A, R) l’ensemble des
fonctions continues sur A.

474
Exemple : La fonction f : ( x, y) 7→ x2 + y est continue sur R2 .
Remarque : Les théorèmes sur les opérations (somme, produit) sont encore vrais et se démontrent comme
précédemment.

Proposition 32.2.2.1131

L’ensemble C ( A, R) est un sous-espace vectoriel de F ( A, R). Il est de plus stable par produit c’est
donc une sous-algèbre.

Remarque : On a aussi des propriétés sur le quotient. Si f et g sont continues et si g ne s’annule pas alors f /g
est continue.
Exemple : Les fonctions p1 : ( x, y) 7→ x et p2 : ( x, y) 7→ y sont continues. En effet soit a = (α, β). On va montrer
que lim p1 = α en montrant que lim p1 − α = 0. Pour tout ε > 0, on pose η = ε. Dès lors soit u = ( x, y), si
a a
u ∈ B( a, ε) alors ||u − a|| < ε et on a
q
| p1 ( u ) − α | = | x − α | 6 ( x − α)2 + (y − β)2 = ||u − a|| < ε.

On procède de même pour p2 . On en déduit que tous les polynômes sont continus.

2.3 Fonctions à valeurs dans R2


On va étendre les notions précédentes au cas où f est définie d’une partie A de R2 dans R2 . Il suffit de
remplacer la valeur absolue dans la définition par la norme. Précisément on a

Définition 32.2.3.1132

Soit f une fonction de deux variables définies sur une partie A et à valeurs dans R2 .
1. Soit a ∈ A et ` ∈ R2 . On dit que f tend vers ` en a ou que la limite de f en a est ` et on note lim f = `
a
si
∀ε > 0, ∃η > 0, ∀u ∈ A, u ∈ B( a, η ) ⇒ || f (u) − `|| < ε.
2. Si f est définie en a et que f a une limite en a (nécessairement égale à f ( a)) alors on dit que f est
continue en a.
3. Si f est continue en tout point a de A on dit que f est continue. On note C ( A, R2 ) l’ensemble des
fonctions continues.

Proposition 32.2.3.1133

Soit f une fonction définie sur A et à valeurs dans R2 . Pour tout u de A on note f (u) = (α(u), β(u)).
On a alors
1. Soit a ∈ A. La fonction f est continue en a si et seulement si α et β le sont
2. On a
f ∈ C ( A, R2 ) ⇐⇒ (α ∈ C ( A, R) et β ∈ C ( A, R)).

Remarque : Cela signifie que l’on peut justifier la continuité en regardant composantes par composantes.
B Dans le cas d’une fonction de R2 dans R2 , il ne faut pas confondre les applications partielles qui sont
définie d’une partie de R dans R2 avec les applications composantes qui sont définies d’une partie de R2 dans
R.
Démonstration : On traite la première.
— ⇒ Il suffit de voir que pour tout u dans A,
q
|| f (u) − f ( a)|| = (α(u) − α( a))2 + ( β(u) − β( a))2 .

D’où |α(u) − α( a)| 6 || f (u) − f ( a)|| et | β(u) − β( a)| 6 || f (u) − f ( a)||. Si f est continue en a alors
|| f (u) − f ( a)|| tend vers 0 et |α(u) − α( a)| et | β(u) − β( a)| aussi donc α et β sont continues en a.

475
— ⇐ Il suffit de voir là encore que pour tout u dans A,
q
|| f (u) − f ( a)|| = (α(u) − α( a))2 + ( β(u) − β( a))2 .

Donc si |α(u) − α( a)| et | β(u) − β( a)| tendent vers 0 alors || f (u) − f ( a)|| aussi.

Exemple : La fonction ( x, y) 7→ (2x + 2y, xy − x2 ) est continue.

Corollaire 32.2.3.1134

1. L’ensemble C ( A, R2 ) est un sous-espace vectoriel de F ( A, R2 ).


2. Si f est une fonction de A dans R2 et a ∈ A. Si f est continue en a alors elle est bornée au
voisinage de a.

Démonstration : Il suffit de travailler composantes par composantes. 

2.4 Composition
On va montrer que la composée de deux fonctions continues est continues

Théorème 32.2.4.1135

Soit ( p, q, r ) trois entiers égaux à 1 ou 2. Soit A une partie de R p et f ∈ C ( A, Rq ). Soit B une partie
de R p et g ∈ C ( B, Rr ). On suppose que f ( A) ⊂ B afin de définir g ◦ f . Alors la fonction g ◦ f est
continue de A dans Rr .

Démonstration : Afin de traiter tous les cas nous noterons encore ||.|| pour |.|
Soit ε > 0. On sait que g est continue en f ( a) donc pour cet ε il existe η1 tel que

∀u ∈ B, u ∈ B( f ( a), η1 ) ⇒ || g(u) − g( f ( a))|| < ε.

De plus, f est continue en a donc pour cet η1 , il existe η2 tel que

∀v ∈ A, v ∈ B( a, η2 ) ⇒ || f (v) − f ( a)|| < η1 ⇒ f (v) ∈ B( f ( a), η1 ).

On en déduit donc en posant u = f (v) que si v est dans B( a, η2 ) alors || g( f (v)) − g( f ( a))|| < ε.
C’est-à-dire que g ◦ f est continue en a par définition.

Exemples :
1. La fonction f : ( x, y) 7→ sin( x + y) − cos( x2 + y2 ) est continue.
2. La fonction g : (u, t) 7→ (cos(ut), sin(ut)) est continue.

3 Calcul différentiel
Dans tout ce paragraphe on notera U un ouvert de R2 et on ne considérera que des fonctions définies sur U
et à valeurs dans R. C’est-à-dire des éléments de F (U, R).

476
3.1 Première dérivées partielles
Définition 32.3.1.1136

Soit f dans F (U, R) et a = (α, β) ∈ U.


1. Si la première application partielle f 1 en a est dérivable en α, on appelle première dérivée partielle en a
ou dérivée partielle en a par rapport à x le nombre f 10 (α). On le note

∂f f (α + h, β) − f (α, β)
( a) = D1 f ( a) = f x0 ( a) = lim .
∂x h →0 h

2. Si la deuxième application partielle f 2 en a est dérivable en β, on appelle deuxième dérivée partielle en a


ou dérivée partielle en a par rapport à y le nombre f 20 ( β). On le note

∂f f (α, β + h) − f (α, β)
( a) = D2 f ( a) = f y0 ( a) = lim .
∂y h →0 h

Remarques :
1. On peut bien donner un sens à la dérivabilité de f 1 (resp. f 2 ) car U est un ouvert et donc f 1 (resp. f 2 ) est
définie sur un intervalle contenant ]α − ε, α + ε[ (resp. ] β − ε, β + ε[).
2. On dit dans ce cas que f admet des dérivées partielles en a et pas que f est dérivable.
3. Pour déterminer si f admet des dérivées partielles et les calculer il faut regarder les fonctions partielles.
Cela revient à considérer l’une des deux variables comme une variable et l’autre comme une constante.
Exemples :
1. Soit f : ( x, y) 7→ ln( xy) sur (R?+ )2 . Elle admet des dérivées partielles et

∂f 1 ∂f 1
(α, β) = et (α, β) = .
∂x α ∂y β

2. Soit f une fonction définie de R+ sur R et g : ( x, y) 7→ f (y/x ) pour ( x, y) ∈ (R?+ )2 . On a

∂g y ∂g 1
(α, β) = − 2 f 0 (y/x ) et (α, β) = f 0 (y/x ).
∂x x ∂y x

3. Soit f la fonction définie sur R2 par



 xy
si ( x, y) 6= (0, 0)
( x, y) 7→ x 2 + y2
 0 si ( x, y) = (0, 0)

La fonction f admet des dérivées partielles qui sont nulles en 0 car les applications partielles sont nulles.
1
Par contre elle n’est pas continue. En effet, pour tout x, f ( x, x ) = d’où lim f n’existe pas.
2 (0,0)

B Comme on vient de le voir, l’existence des dérivées partielles en un point n’implique pas que la fonction
soit dérivable. Cela provient du fait que les dérivées partielles ne s’intéressent qu’à une direction privilégiée.

Définition 32.3.1.1137

Avec les notations précédentes, si f admet des dérivées partielles par rapport à x (resp. à y) en tout point a de
∂f ∂f ∂f ∂f
U on note (resp. ) la fonction définie de U dans R qui associe à a, ( a)(resp. ( a)).
∂x ∂y ∂x ∂y

On voit que dans la définition des dérivées partielles on a privilégié les « axes coordonnées ». On peut de
fait essayer de calculer la dérivée selon toutes les directions.

477
Définition 32.3.1.1138

Soit f dans F (u, R) et v un vecteur non nul. Pour a dans U on pose ϕv : t 7→ f ( a + tv) qui est définie sur
un voisinage de 0. On dit que f admet une dérivée partielle selon v en a si ϕv est dérivable en 0 et on note

f ( a + hv) − f ( a)
Dv f ( a) = ϕ0v (0) = lim .
h →0 h

Remarques :
∂f
1. On trouve aussi la notation ( a) pour Dv f ( a).
∂v
∂f ∂f
2. Les dérivées partielles ( a) et ( a) sont juste De1 f ( a) et De2 f ( a) où (e1 , e2 ) sont les vecteurs de la bases
∂x ∂y
canoniques.
3. Soit λ un réel non nul. On suppose que Dv f ( a) existe alors D(λv) f ( a) existe aussi et vaut λ.Dv f ( a). En
effet,
f ( a + hλv) − f ( a) f ( a + hλv) − f ( a) f ( a + h0 v) − f ( a)
D(λv) f ( a) = lim = lim λ = λ lim λ = λDv f ( a).
h →0 h h →0 λ.h h 0 →0 h0
Exemples :
1. Soit f : ( x, y) 7→ ln( xy) sur (R?+ )2 . Soit v = (1, 2). On a alors en a = (α, β),
ϕ a : t 7→ ln((α + t)( β + 2t)) = ln(αβ + tβ + 2tα + 2t2 ).
D’où
2α + β 1 1
Dv f ( a) = ϕ0v (0) = = + .
αβ α β
On peut remarquer dans ce cas que
Dv f ( a) = De1 f ( a) + 2De2 f ( a) car v = e1 + 2e2 .
Nous reverrons ce point plus tard.
2. Soit f la fonction définie sur R2 par
 2
 x
si y 6= 0
( x, y) 7→ y

x si y = 0

Étudions les dérivées en a = (0, 0)


— Si v ∈ Vect((1, 0) on a ϕv : t 7→ 0. D’où Dv f (0, 0) = 0.
— Si v = (α, β) ∈/ Vect(1, 0) on a
α2
ϕv : t 7→ f (tα, tβ) = t .
β
α2
On a donc Dv f (0, 0) = . Cependant la fonction n’est pas continue en 0 en effet si on tend vers
β
(0, 0) par x = t et y = t2 on a f ( x, y) = 1.

3.2 Fonctions de classe C 1


On a vu que l’existence des dérivées partielles n’était pas une bonne condition de régularité car cela
n’implique même pas a continuité. On va définir la condition C 1 qui consiste à rajouter la continuité aux
dérivées partielles.

Définition 32.3.2.1139

Soit f une fonction de F (U, R). On dit que f est de classe C 1 si elle admet des dérivées partielles en tout
∂f ∂f
point a de U et que les fonctions et sont continues sur U. On note C 1 (U, R) l’ensemble des fonctions
∂x ∂y
de classe C 1 .

478
Exemples :
1. Soit f : ( x, y) 7→ ln( xy). C’est une fonction de classe C 1 . En effet, les dérivées partielles existent et elles
sont continues.
 2
 x
si y 6= 0
2. Soit f : ( x, y) 7→ y Elle est de classe C 1 sur R × R? . Par contre elle n’est pas de classe C 1

x si y = 0
sur R2 . En effet, 
∂f  2x si y 6= 0
: ( x, y) 7→ y
∂x 
1 si y = 0
Elle n’est pas continue.

Proposition 32.3.2.1140

L’ensemble C 1 (U, R) est un sous-espace vectoriel de F (U, R).

Démonstration : Il suffit de vérifier la stabilité ce qui découle de ce qui a déjà été fait. 

Théorème 32.3.2.1141

Soit f une fonction de classe C 1 sur un ouvert U. Pour tout a = (α, β) ∈ U, il existe une fonction ε
qui tend vers 0 en a telle que

∂f ∂f
∀u = ( x, y) ∈ U, f (u) = f ( a) + ( x − α) ( a) + (y − β) ( a) + ||u − a||ε(u).
∂x ∂y

Remarques :
1. C’est un équivalent du théorème de Taylor-Young. A noter que l’hypothèses est que f est de classe C 1 et
pas juste dérivable comme dans le cas d’une variable.
2. On peut aussi écrire

∂f ∂f
∀ h = ( h1 , h2 ) , f ( a + h ) = f ( a ) + h1 ( a) + h2 ( a) + ||h||ε(h)
∂x ∂y

où lim ε(h) = 0.
h →0
3. Cela a une interprétation géométrique. Si on considère la surface S = {( x, y, z) ∈ R3 | ( x, y) ∈ U et z =
f ( x, y)}. On voit que le théorème permet de trouver l’équation du plan tangent. Son équation est

∂f ∂f
z = f ( a ) + h1
( a ) + h2 ( a ).
∂x ∂y
   
∂f ∂f
Dit autrement, les vecteurs 1, 0 ( a) et 0, 1 ( a) sont des vecteurs directeurs du plan tangent.
∂x ∂y
4. L’expression s’appelle développement limité de f à l’ordre 1 en a.
Démonstration : La fonction f étant définie sur un ouvert U. Il existe η1 tel que B( a, η1 ) ⊂ U. On peut donc
définir sur B(0, η1 ) \ {(0, 0)} la fonction

∂f ∂f
f ( a + h ) − f ( a ) − h1 ( a ) − h2 ( a )
∂x ∂y
ε : h 7→ .
||h||
Le but est de montrer que cela tend vers 0.
On écrit

∂f ∂f
f ( a 0 ) − f ( a ) − h1 ( a) f ( a + h ) − f ( a 0 ) − h2 ( a )
∂y
ε(h) = ∂x + où a0 = a + h1 e1 .
||h|| ||h||

479
∂f
Maintenant, f ( a0 ) − f ( a) − h1 ( a) = f 1 (α + h1 ) − f 1 (α) − f 10 (α), c’est donc, d’après la formule de Taylor-
∂x
∂f
f ( a 0 ) − f ( a ) − h1 ( a )
Young à l’ordre 1 négligeable devant h1 mais comme |h1 | 6 ||h|| on a bien que ∂x tend
||h||
vers 0.
On veut procéder de même pour l’autre mais il faut faire attention qu’il faut travailler avec la deuxième
∂f
f ( a + h ) − f ( a 0 ) − h2 ( a 0 )
∂y
application partielle en a0 et pas en a. On en déduit que tend vers 0. On peut alors
||h||
conclure en vérifiant que
∂f ∂f
h2 ( a 0 ) − h2 ( a )
∂y ∂y
||h||
∂f
tend vers 0 car est continue. 
∂y

Corollaire 32.3.2.1142

Une fonction de classe C 1 est continue.

Remarque : Cela permet de montrer qu’une fonction est continue mais ce n’est pas très utile car dans la
pratique, pour montrer que f est de classe C 1 il faut montrer que les deux dérivées partielles sont continues.

3.3 Composées
Nous allons voir comment on peut calculer les dérivées partielles d’une fonction composée.
Nous commençons par composer une fonction de R dans R2 avec une fonction de R2 dans R.

Proposition 32.3.3.1143

Soit f une fonction de classe C 1 définie sur un ouvert U. Soit ϕ une fonction dérivable d’un intervalle
I dans U. La fonction réelle F = f ◦ ϕ est dérivable et

∂f ∂f
∀t ∈ I, F 0 (t) = ( ϕ(t)) ϕ10 (t) + ( ϕ(t)) ϕ20 (t)
∂x ∂y

où ϕ1 et ϕ2 sont les composantes de ϕ.

F (t + h) − F (t) f ( ϕ(t + h)) − f ( ϕ(t))


Démonstration : On va essayer de calculer lim = lim .
h →0 h h →0 h
On sait qu’il existe un développement limité de f en ϕ(t) à l’ordre 1. C’est-à-dire qu’il existe une fonction ε
tendant vers 0 quand u tend vers ϕ(t) telle que

∂f ∂f
f (u) − f ( ϕ(t)) = ( ϕ(t))(u1 − ϕ1 (t)) + ( ϕ(t))(u2 − ϕ20 (t)) + ||u − ϕ(t)||ε(u).
∂x ∂y

Cela donne :

∂f ∂f 0
f ( ϕ(t + h)) − f ( ϕ(t)) ( ϕ(t))( ϕ1 (t + h) − ϕ1 (t)) ∂y ( ϕ(t))( ϕ2 (t + h) − ϕ2 (t)) || ϕ(t + h) − ϕ(t)||
= ∂x + + ε( ϕ(t + h)).
h h h h
∂f ∂f
Maintenant le premier terme tend vers ( ϕ(t)) ϕ10 (t) alors que le deuxième tend vers ( ϕ(t)) ϕ20 (t). Pour
∂x ∂y
|| ϕ(t + h) − ϕ(t)||
finir, le troisième tend vers 0 car est borné car cela tend vers || ϕ0 (t)|| et le terme en ε tend
h
vers 0 car ϕ est continue. 

480
Remarque : On peut retenir cette formule en posant x (t) pour ϕ1 (t) et y(t) pour ϕ2 (t). On a alors

F : t 7→ f ( x (t), y(t))

et
dF ∂ f dx ∂ f dy
= + .
dt ∂x dt ∂y dt
Exemples :
1. On reprend f : ( x, y) 7→ ln( xy). On pose ϕ : t 7→ (λt, µt). Dans ce cas, F : t 7→ ln(λt × µt) = ln(λµt2 )
d’où
2
F 0 (t) = .
t
Par la formule,
1 1 2
F 0 (t) = .λ + .µ = .
λt µt t

2. Soit f de classe C 1 . Si Ft 7→ f (cos t, sin t). On a

∂f ∂f
F 0 (t) = − sin t (cos t, sin t) + cos t (cos t, sin t).
∂x ∂y

Corollaire 32.3.3.1144

Soit f une fonction de classe C 1 sur U et ϕ : ( a, b) 7→ ( x, y) une fonction d’un ouvert V de R2 dans
U. On suppose que les composantes ϕ1 et ϕ2 admettent des dérivées partielles. Si on note F = f ◦ ϕ.
Elle admet des dérivées partielles et pour tout u = ( a, b) ∈ V,

∂F ∂f ∂ϕ ∂f ∂ϕ
(u) = ( ϕ(u)) 1 (u) + ( ϕ(u)) 2 (u)
∂a ∂x ∂a ∂y ∂a
et
∂F ∂f ∂ϕ ∂f ∂ϕ
(u) = ( ϕ(u)) 1 (u) + ( ϕ(u)) 2 (u)
∂b ∂x ∂b ∂y ∂b

Remarques :
1. Il suffit d’appliquer ce qui précède aux applications partielles.
2. On utilise la notation suivante qui permet de bien retenir la formule. On pose ϕ( a, b) = ( x ( a, b), y( a, b)).
On alors :

∂F ∂ f ∂x ∂ f ∂y
= +
∂a ∂x ∂a ∂y ∂a
et
∂F ∂ f ∂x ∂ f ∂y
= + .
∂b ∂x ∂b ∂y ∂b

Exemple : Un cas classique est celui du changement de variables en polaires. Si on prend encore f de classe C 1
sur (R?+ )2 . On pose x = r cos θ et y = r sin θ pour (r, θ ) ∈ R?+ ×]0, π/2[. Ce qui revient à poser

ϕ : (r, θ ) 7→ (r cos θ, r sin θ )

On obtient en posant F = f ◦ ϕ (on écrit parfois F (r, θ ) = f ( x, y)). On a

∂F ∂f ∂f
= cos θ + sin θ
∂r ∂x ∂y
et
∂F ∂f ∂f
= −r sin θ + r cos θ
∂θ ∂x ∂y
En particulier, si f : ( x, y) 7→ ln( xy) on obtient

∂F 2 ∂F 1
= et = − tan θ + .
∂r r ∂θ tan θ

481
3.4 Différentielle et gradient
Proposition 32.3.4.1145

Soit f une fonction de classe C 1 sur U. Soit a ∈ U.


1. Soit v = (v1 , v2 ) un vecteur non nul. La fonction f admet une dérivées selon le vecteur v et

∂f ∂f
Dv f ( a ) = ( a ) v1 + ( a ) v2 .
∂x ∂y

2. Avec les notations précédentes, la fonction notée d f a

d f a : v 7 → Dv f ( a )

est une forme linéaire que l’on appelle différentielle de f en a.

∂f ∂f
Démonstration : Il suffit de voir que f ( a + tv) − f ( a) = tv1 ( a) + tv2 ( a) + |t|||v||ε(tv) d’où
∂x ∂x
f ( a + tv) − f ( a) ∂f ∂f
lim = v1 ( a ) + v2 ( a ).
t →0 t ∂x ∂x

Remarques :
1. C’est ce que nous avions remarquer plus tôt. Pour calculer les dérivées d’une fonction selon un vecteur on
calcule la plupart du temps sa différentielle.
2. On a donc Dv f ( a) = d f a (v). Ne pas se mélanger les pinceaux...
Exemple : Soit f : ( x, y) 7→ cos( x2 − y2 ). On veut calculer D(1,2) f (2, −1). On calcule les dérivées partielles :

∂f ∂f
( x, y) = −2x sin( x2 − y2 ) et ( x, y) = 2y sin( x2 − y2 )
∂x ∂x
D’où
D(1,2) f (2, −1) = 1 ∗ (−2 sin(−3)) + 2 ∗ (2 sin(−3)) = 2 sin(−3).

Proposition 32.3.4.1146

−−→
Soit f une fonction de classe C 1 sur U. Soit a ∈ U. Il existe un unique vecteur noté grad f ( a) tel que
−−→
∀v ∈ R2 , Dv f ( a) = d f a (v) = (grad f ( a), v).

Démonstration : C’est juste la proposition qui dit que dans un espace euclidien toutes les formes linéaires sont
de la forme v 7→ (b, v) pour un unique vecteur v. 

Définition 32.3.4.1147

−−→
Avec les notations précédentes, le vecteur grad f ( a) s’appelle le gradient de f en a. Il se note aussi ∇ f ( a).
On a  
−−→ ∂f ∂f
grad f ( a) = ( a), ( a) .
∂x ∂y

 
−−→ 1 1
Exemple : Si f :7→ ln( xy). On a grad f (α, β) = , .
α β
Interprétation géométrique : On considère une fonction f de classe C 1 . Pour tout λ dans R, on appelle ligne
de niveau la courbe
Eλ {( x, y) ∈ U | f ( x, y) = λ}.

482
On considère une courbe paramétrée Γ tracée dans Eλ . Si on note ϕ : t 7→ ϕ(t) = ( x (t), y(t)) la fonction
d’un intervalle I dans U un paramétrage de Γ. On a donc, pour tout t dans I, F (t) = f ◦ ϕ(t) = λ. Dès lors si on
dérive :
∂f ∂f −−→
0 = F 0 (t) = ( ϕ(t)) x 0 (t) + ( ϕ(t))y0 (t) = D f ϕ0 (t) ϕ(t) = (grad f ( ϕ(t))| ϕ0 (t)).
∂x ∂y
En particulier, on voit que le gradient est orthogonal à la tangente. On dit que le gradient dirige la ligne de plus
grande pente.

3.5 Extremums
On peut définir les extremums comme dans le cas des fonctions à une variables.

Définition 32.3.5.1148

Soit f une fonction définie sur une partie A de R2 et à valeurs dans R. Soit a ∈ A.
1. On dit que a est un maximum (resp. minimum) (global) si : ∀u ∈ A, f (u) 6 f ( a) (resp. f (u) > f ( a)).
Dans ce cas on dit que a est un extremum (global).
2. On dit que a est un maximum (resp. minimum) local si :

∃ε > 0, ∀u ∈ A, (u ∈ B( a, ε) ⇒ f (u) 6 f ( a)) (resp. ∃ε > 0, ∀u ∈ A, (u ∈ B( a, ε) ⇒ f (u) > f ( a)))

Dans ce cas on dit que a est un extremum local

On a alors comme pour les fonctions définies sur R.

Proposition 32.3.5.1149

Soit f une fonction de classe C 1 définie sur un ouvert U. Soit a ∈ U. Si f est un extremum local alors
les dérivées partielles sont nulles en a.

Remarques :
1. Cela implique que la différentielle est nulle et que, de ce fait, les dérivées par rapport à tous les vecteurs
est nulle.
2. Comme dans le cas des fonctions définies sur R, il ne faut pas que a soit une borne. Cette hypothèse est
remplacée par le fait que U soit un ouvert.
3. Comme dans le cas des fonctions définies sur R, ce n’est pas une équivalence. Par exemple la fonction
f : ( x, y) 7→ x2 − y2 en (0, 0).
4. Pour déterminer des extremums, on cherche l’annulation des deux dérivées partielles, puis on regarde si
les solutions sont ou ne sont pas des extremums.
Démonstration : Il suffit de voir qu’un extremum est aussi un extremum des applications partielles. 
Exemple : Soit f : ( x, y) 7→ x2 + y2 − 2x − 4y. On voit que

∂f ∂f
= 2x − 2 et = 2y − 4.
∂x ∂y

On étudie en a = (1, 2). On pose f (1 + h1 , 2 + h2 ) = −5 + h21 + h22 . On en déduit que a est un minimim global.
Exercice : Étudier les extremums de f : ( x, y) 7→ x3 + y2 − 6( x2 − y2 ).

483
3.6 Dérivées partielles d’ordre 2
Définition 32.3.6.1150

Soit f une fonction de classe C 1 sur un ouvert U.


∂f
1. Si la fonction admet des dérivées partielles on note
∂x
   
∂2 f ∂ ∂f ∂2 f ∂ ∂f
= et = .
∂x2 ∂x ∂x ∂y∂x ∂y ∂x

∂f
2. Si la fonction admet des dérivées partielles on note
∂y
   
∂2 f ∂ ∂f ∂2 f ∂ ∂f
= et 2 = .
∂x∂y ∂x ∂y ∂y ∂y ∂y

3. Si les quatre dérivées partielles existent et sont continues on dit que f est de classe C 2 .

Remarques :
1. On peut évidemment définir de même des fonctions de classe C 3 , etc mais il y a toujours plus de dérivées
partielles.
2. On note C 2 (U, R) l’ensemble des fonctions de classe C 2 .
3. L’ensemble C 2 (U, R) est un sous-espace vectoriel de F (U, R).
Exemples :
∂f 1
1. Si f : ( x, y) 7→ ln( xy). On a déjà vu que = on a donc
∂x x
∂2 f 1 ∂2 f
2
= − 2 et = 0.
∂x x ∂y∂x

∂f 1
De même = on a donc
∂y y
∂2 f 1 ∂2 f
2
= − 2 et = 0.
∂y y ∂x∂y
∂f
2. Si f : ( x, y) 7→ x3 + 2x2 y2 − 3y2 . On a que = 3x2 + 4xy2 on a donc
∂x
∂2 f 2 ∂2 f
= 6x + 4y et = 8xy.
∂x2 ∂y∂x

∂f
De même = 4x2 y − 6y on a donc
∂y

∂2 f ∂2 f
= 8xy et = 4x2 − 6.
∂y2 ∂x∂y

∂2 f ∂2 f
On remarque que dans les deux cas précédents, = .
∂x∂y ∂y∂x

Théorème 32.3.6.1151 (Théorème de Schwarz)

Soit f une fonction de classe C 2 sur un ouvert. On a

∂2 f ∂2 f
= .
∂x∂y ∂y∂x

484
Démonstration : Ce théorème est admis. Un des démonstration consiste à montrer que

∂2 f f (α + h, β + h) − f (α, β + h) − f (α + h, β) + f (α, β) ∂2 f
= lim = .
∂x∂y h →0 h2 ∂y∂x

3.7 Quelques équations aux dérivées partielles


Une équation aux dérivées partielles et juste une relation entre les dérivées partielles d’une fonction. La
résoudre consiste à trouver toutes les fonctions définies sur un ouvert U vérifiant cette relation. Nous nous
contenterons de quelque exemples pour la plupart issus de la physique.

∂f
F Commençons par l’équation sur R2 : = 0. On cherche une fonction de classe C 1 sur R. Pour tout y ∈ R,
∂x
l’application partielle f 1 est constante car de dérivée nulle. On en déduit que pour tout y il existe ϕ(y) tel que
∀ x ∈ R, f ( x, y) = ϕ(y). De plus, ϕ est de classe C 1 car f l’est. Réciproquement toutes les fonctions de la forme

( x, y) 7→ ϕ(y)

pour ϕ de classe C 1 vérifient l’équation.

F On pose maintenant

∂f ∂f
−5 = x. (E)
∂x ∂y

x2
On peut remarquer ( x, y) 7→ est une solution. Comme c’est une équation linéaire, on est ramené à
2
résoudre

∂f ∂f
−5 = 0. (H)
∂x ∂y

On va faire un changement de variables en posant x = u + αv et y = u + βv pour α 6= β.


On voit que
ϕ: R2 → R2
(u, v) 7→ ( x, y)
 
βx − αy y − x
est une bijection de R2 dans lui même (la bijection réciproque est ( x, y) 7→ (u, v) = , ). De plus
β−α β−α
elle est de classe C 1 car polynomiale. Maintenant si f est une fonction de classe C 1 on pose F = f ◦ ϕ. On sait
alors que
∂F ∂ f ∂x ∂ f ∂y
= +
∂u ∂x ∂u ∂y ∂u
∂f ∂f
= +
∂x ∂y
et

∂F ∂ f ∂x ∂ f ∂y
= +
∂v ∂x ∂v ∂y ∂v
∂f ∂f
= α +β .
∂x ∂y

∂F
On voit donc qu’en prenant α = 1 et β = −5, l’équation (H) se ramène à . On a donc qu’il existe une
∂v
fonction ϕ de classe C 1 telle que
 
2 2 5x + y
∀(u, v) ∈ R F (u, v) = ϕ(u) et donc ∀( x, y) ∈ R , f ( x, y) = ϕ .
6

485
Donc les solutions de E sont de la forme :
 
x2 5x + y
( x, y) 7→ +ϕ .
2 6

F Equation des ondes :


On appelle équation des ondes en dimension 1 l’équation

∂2 f 1 ∂2 f
− = 0. (E)
∂x2 c2 ∂t2
C’est en particulier l’équation qui est vérifiée par une corde vibrante. Par exemple si on considère une corde
de longueur `. On note f ( x, t) la hauteur du point de la corde à l’abscisse x et à l’instant t. La grandeur c qui est
homogène à une vitesse.
On pose le changement de variables u = x + ct et v = x − ct
On voit que
ψ: R2 → R2
( x, t) 7→ (u, v)
 
2 u+v u−v
est une bijection de R dans lui même. La bijection réciproque est ϕ : (u, v) 7→ ( x, y) = , . De
2 2c
plus elle est de classe C 1 car polynomiale. On pose encore F = f ◦ ϕ et donc f = F ◦ ψ.
On obtient alors
 2 
∂2 f ∂2 F ∂2 F ∂2 F ∂2 f 2 ∂ F ∂2 F ∂2 F
= + 2 + et = c − 2 + .
∂x2 ∂u2 ∂u∂v ∂v2 ∂t2 ∂u2 ∂u∂v ∂v2

∂2 F
On en déduit que si f est une solution alors F vérifie = 0.
∂u∂v
∂F
On en déduit qu’il existe h de classe C1 sur R telle que = h(v) puis F : (u, v) 7→ H (v) + G (u) où H est
∂v
une primitive de h.
Finalement,
f : ( x, y) 7→ H ( x − ct) + G ( x + ct).
Réciproquement les fonctions de ce type vérifient l’équation.
Après on peut essayer de déterminer H et G en fonction des conditions initiales. Si par exemple on suppose
que les deux extrémités de la corde ne bouge pas. On a

∀t ∈ R, f (0, t) = f (`, t) = 0.

On en déduit que pour tout t, H (−ct) = − G (ct). Donc f : ( x, t) 7→ H ( x − ct) − H (− x − ct). De plus H est
2`-périodique.

486

Vous aimerez peut-être aussi