Nombres Complexes et Trigonométrie
Nombres Complexes et Trigonométrie
(MPSI)
2 Fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
1 Rappels 36
1.1 Relation d’ordre et inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2 Composition, monotonie et majoration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.4 Bijections et fonctions réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2 Fonctions logarithmes, exponentielles et puissances 42
2.1 La fonction logarithme népérien . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2 La fonction exponentielle . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3 Les fonctions exponentielle et logarithme de base a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.4 Fonctions puissances . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
1
3 Étude d’une fonction réelle 47
3.1 Périodicité, parité et symétrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.2 Limites et croissances comparées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.3 Branches infinies . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4 Fonctions circulaires réciproques 53
4.1 La fonction arcosinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.2 La fonction arcsinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.3 La fonction arctangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5 Fonctions hyperboliques 56
5.1 Fonctions hyperboliques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
6 Fonctions à valeurs complexes 58
6.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
6.2 La fonction t 7→ e ϕ(t) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4 Primitives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
1 Généralités 82
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
1.2 Primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2 Méthodes de calculs 84
2.1 Intégration par partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.2 Changement de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.3 Calculs classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
5 Équations différentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1 Généralités 90
1.1 Définition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1.2 Équations différentielles linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
2 Équation différentielle linéaire d’ordre 1 93
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
2.2 Résolution des équations différentielles linéaires homogènes d’ordre 1 . . . . . . . . . . . . . . . . . . . . . 93
2.3 Équation différentielle linéaire d’ordre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.4 Equation avec condition initiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.5 Raccordement . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2
2.6 Méthode d’Euler . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3 Équation différentielle linéaire d’ordre 2 à coefficients constants 97
3.1 Équation homogène . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.2 Équations avec second membre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.3 Equation avec des conditions initiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3
2.5 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
2.6 Convergence monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2.7 Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3 Relations de comparaison 143
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
3.3 Croissances comparées et équivalents classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4 Extension au cas des suites complexes 146
4.1 Définition et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.3 Popriétés des suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.4 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
11 Arithmétique de Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
1 Divisibilité dans Z 159
1.1 Diviseurs et multiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
1.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
1.3 Congruences dans Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2 Plus grand commun diviseur (PGCD) 161
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2.2 Algorithme d’Euclide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
2.3 Relation de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
2.4 Algorithme d’Euclide augmenté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
2.5 Nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
2.6 Résolution de l’équation au + bv = c. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
2.7 PGCD de plusieurs entiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
3 Le plus petit commun multiple (PPCM) 168
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
3.2 Lien avec le PGCD et nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
4 Nombres premiers 169
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
4.2 Décomposition en produit de facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
12 Limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 173
1 Limites 174
1.1 Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1.2 Voisinage et propriétés locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
1.3 Limite à droite et à gauche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
1.4 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
1.5 Caractérisation séquentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
1.6 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
1.7 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
1.8 Fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
4
2 Relations de comparaisons 183
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
2.3 Équivalents classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
2.4 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
14 Polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
1 Ensembles de polynômes à coefficients dans K 199
1.1 Construction et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1.2 Degré et valuation d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
1.3 Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2 Dérivation 204
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2.2 Dérivées successives et formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
3 Divisibilité et racines d’un polynôme 207
3.1 Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
3.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
3.3 Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
3.4 Ordre de multiplicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
3.5 Fonctions symétriques des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
3.6 Interpolation de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
4 Arithmétique dans K[ X ] 215
4.1 Plus grand commun diviseur (PGCD) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
4.2 Polynômes premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
4.3 Généralisation à une famille de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
4.4 Le plus grand commun multiple (PPCM) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
4.5 Propriétés du PGCD et du PPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5 Factorisation 219
5.1 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
5.2 Décomposition en produit de facteurs irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 220
5.3 Factorisation sur C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
5.4 Quelques applications de la factorisation sur C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
5.5 Factorisation sur R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
15 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1 Définitions 224
1.1 Nombre dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1.2 Interprétation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.3 Fonction dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.4 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.5 Dérivées des fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
2 Dérivées d’ordre supérieure 231
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
2.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
5
3 Accroissements finis 233
3.1 Extremums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
3.2 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
3.3 Inégalités des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
3.4 Application à la monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
3.5 Application aux prolongements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
6
2 Sous-espaces vectoriels 275
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
2.2 Sous-espace vectoriel engendré par une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
3 Familles de vecteurs 277
3.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
3.2 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
3.3 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
3.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
4 Somme de sous-espaces vectoriels 280
4.1 Défintions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
4.2 Somme directe et supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
4.3 Somme directe d’un nombre fini de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
5 Sous-espaces affines 283
5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
5.2 Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
5.3 Intersection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
21 Dénombrements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
1 Ensembles finis et cardinal 296
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
1.2 Propriété du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
1.3 Opérations et cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
2 Dénombrements classiques 301
2.1 Applications de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
2.2 Applications injectives de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
2.3 Parties à p éléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
7
4 Applications linéaires données dans une base 316
4.1 Caractérisation d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
4.2 Caractérisation des isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
4.3 Dimension de L ( E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
4.4 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
4.5 Formes linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
24 Probabilités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
1 Espace probabilisé 348
1.1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
1.2 Probabilités et espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
2 Probabilités conditionnelles 352
2.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
2.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
2.3 Formules sur les probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
3 Indépendance 355
3.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
3.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
8
25 Séries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
1 Généralités 359
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
2 Séries de références 361
2.1 Séries géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
2.2 Séries de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
2.3 Comparaison séries - intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
3 Séries à termes positifs 363
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
3.2 Théorème de comparaison pour les séries à termes positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
4 Séries absolument convergentes 366
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
4.2 Applications aux séries dont le terme général n’a pas un signe constant . . . . . . . . . . . . . . . . . . . 366
5 Représentation décimale des réels 367
26 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
1 Définitions 369
1.1 Motiviation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
1.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
1.3 L’espace vectoriel Mn,p (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
1.4 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
1.5 Produit dans Mn (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
1.6 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
1.7 Quelques matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
1.8 Calculs par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
2 Matrices et applications linéaires 379
2.1 Matrice d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
2.2 Application linéaire canoniquement associée à une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
2.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
2.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
2.5 Cas des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
3 Changements de bases 385
3.1 Matrices de changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
3.2 Changement de base des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
3.3 Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
4 Rang d’une matrice 390
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
4.2 Calcul du rang - Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
5 Applications aux systèmes linéaires 394
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
5.2 Determination de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
9
3 Lois usuelles 405
3.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
3.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
3.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
3.4 Retour sur l’inégalité de Bienaymé-Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
29 Déterminant . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418
1 Introduction 418
2 Applications multilinéaires 419
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
2.2 Expression d’une application p-linéaire sur un espace vectoriel de dimension finie . . . . . . . . . . . . 420
2.3 Applications symétriques, antisymétriques et alternées . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
3 Déterminant 422
3.1 Formes n-linéaires sur un espace vectoriel de dimension n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422
3.2 Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
3.3 Volume dans R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
3.4 Orientation d’un R-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
3.5 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426
3.6 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
3.7 Propriétés et calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
3.8 Développements suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
3.9 Déterminants classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432
4 Utilisation des déterminants 435
4.1 Commatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
4.2 Formule de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
10
31 Espaces préhilbertiens réels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
1 Produit scalaire 447
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
1.2 Norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
2 Orthogonalité 451
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451
3 Bases orthogonales 453
3.1 Généralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
3.2 Produit mixte et produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455
3.3 Sous-espaces vectoriels orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456
3.4 Projecteurs orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458
3.5 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
4 Endomorphismes orthogonaux 461
4.1 Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461
4.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
4.3 Endomorphismes orthogonaux du plan euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
4.4 Automorphismes orthogonaux de l’espace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468
11
Présentation
Voici les notes de cours de MPSI (programme de 2013). Ce sont des notes préliminaires. Il y a probablement
de nombreux oublis et coquilles. Je remercie Felix Faisant (MP 2016-2017) pour m’avoir signalé quelques erreurs.
12
Nombres Complexes
1
et trigonométrie
1 L’ensemble des nombres complexes 13
1.1 Définitions et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2 Interprétation géométrique des nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2 Module et argument 17
2.1 Module . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2 Ensemble des nombres complexes de module 1 et argument . . . . . . . . . . . . . . . . . . . 19
2.3 Exponentielle complexe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3 Applications à la trigonométrie 23
3.1 Quelques rappels de trigonométrie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2 Formules trigonométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.3 Linéarisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.4 Transformation de cos(nx ) et sin(nx ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.5 Transformation de Fresnel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.6 Sommes de cosinus et de sinus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4 Résolution d’équations dans C 28
4.1 Equation du second degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2 Racines n-ième d’un nombre complexe (n ∈ N? ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5 Géométrie plane 32
5.1 Applications géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2 Transformation du plan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Vous avez déjà étudié les nombres complexes en terminale. Nous allons revoir cette année. Il n’y aura pas
beaucoup de nouveautés dans ce chapitre.
13
√
des équations de degré 3, de degré 4. On voit alors apparaitre des notations comme − a. Ces nombres sont
alors qualifiés d’impossibles ou d’imaginaires. Ce n’est que plus tard, au XIXe siècle que les nombres complexes
comme nous les connaissons aujourd’hui sont formalisés. On découvre alors l’utilité de ces nombres pour traiter
des problèmes de géométrie plane.
Il existe un ensemble des nombres complexes noté C qui contient R. Il vérifie les propriétés suivantes :
1. Il est muni d’une addition (notée +) et d’une multiplication (notée ×) qui prolongent celles de
R et qui suivent les mêmes règles de calculs.
2. Il existe un élément noté i qui vérifie i2 = −1.
3. Tout élément de C s’écrit de manière unique de la forme z = a + ib où a et b sont des réels.
Cela s’appelle la forme algébrique de z.
Remarques :
1. On est resté volontairement flou sur les « règles de calculs ». Nous détaillerons cela plus précisément plus
tard dans l’année. On demande :
— L’addition et le produit sont associatifs : A écrire
— L’addition et le produit sont commutatifs : A écrire
— La multiplication est distributive par rapport à l’addition : A écrire
— L’addition admet un élément neutre, noté 0, qui vérifie que z + 0 = z. De plus, tout élément z à un
opposé z0 qui vérifie z + z0 = 0.
— La multiplication admet un élément neutre, noté 1, qui vérifie que z × 1 = z. De plus, tout élément
non nul z à un inverse z0 qui vérifie z × z0 = 1.
On dit alors que (C, +, ×) est un corps .
2. On déduit des règles précédentes que si z = a + ib et z0 = a0 + ib0 sont deux nombres complexes où a, b, a0
et b0 sont des réels alors,
z + z0 = ( a + ib) + ( a0 + ib0 ) = ( a + a0 ) + i (b + b0 )
et
Démonstration : On considère l’ensemble R2 des couples de réels ( a, b). On le munit des opérations suivantes :
Il suffit alors de vérifier que cet ensemble vérifie bien les axiomes voulus.
Pour commencer, il prolonge R en associe à tout réel l’élément ( a, 0). On voit que dans ce cas les opérations
ci-dessus sont celles de R.
On pose ensuite i = (0, 1). Il vérifie que i2 = (−1, 0). C’est ce que l’on voulait.
L’élément (0, 0) est un élément neutre pour l’addition dans le sens où pour tout ( a, b), (0, 0) + ( a, b) = ( a, b).
De même l’élément (1, 0) est un élément neutre pour la multiplication car (1, 0) × ( a, b) = ( a, b).
Tout élément ( a, b) admet un opposé qui est (− a, −b) et qui vérifie que ( a, b) + (− a, −b) = (0, 0) Tout
élément ( a, b) non nul admet un inverse ( a0 , b0 ) et qui vérifie que ( a, b) × ( a0 , b0 ) = (1, 0). Il suffit de remarquer
que
a −b
( a, b) × , = (1, 0).
a2 + b2 a2 + b2
14
Définition [Link]
Soit z un élément de C. On note z = a + ib où a et b sont des réels. On appelle partie réelle de z et on note
Re(z) le nombre a et on appelle partie imaginaire de z et on note Im(z) le nombre b.
On appelle imaginaire pur un nombre complexe dont la partie réelle est nulle. L’ensemble des imaginaires purs
se note iR.
Proposition [Link]
Les parties réelles et imaginaires sont compatibles à l’addition et à la multiplication par un réel.
Précisément si z et z0 sont deux nombres complexes et que λ est un réel.
Re(z + z0 ) = Re(z) + Re(z0 ), Im(z + z0 ) = Im(z) + Im(z0 ), Re(λz) = λRe(z) et Im(λz) = λIm(z).
Démonstration : Cela découle de l’unicité de l’écriture d’un nombre complexe sous la forme z = a + ib où a et
b sont des réels.
Définition [Link]
Démonstration :
1. Évident
2. On note z = a + ib et z0 = a0 − ib0 . On a donc z + z0 = ( a + a0 ) + i (b + b0 ) = ( a + a0 ) − i (b + b0 ). De plus
z + z0 = ( a − ib) + ( a0 − ib0 ) = ( a + a0 ) − i (b + b0 ).
z
3. Comme ci-dessus pour le produit. Pour le quotient, on remarque que z0 × 0 = z. On conjugue et on
z z z
z
obtient z0 × 0 = z et donc 0 = .
z z z0
4. Par récurrence.
15
Proposition [Link]
Définition [Link]
→ = zB − z A .
Remarque : Avec ces notations, si A et B sont deux points d’affixe complexe z A et z B alors z−
AB
Proposition [Link]
Démonstration :
1. On note z = x + iy avec x et y deux réels. On a donc z = x − iy. D’où M0 ( x, −y) est bien l’image de
M ( x, y) par la symétrie d’axe (Ox ).
2. On note de plus z0 = x0 + iy0 avec x0 et y0 deux réels. On obtient
z−−−→0 = z M0 − z M = z + z0 − z = z0 .
MM
−−→ −−−−→ −−−−→
Donc MM0 = OM(z0 ) et M0 est bien l’image de M par la translation de vecteur OM (z0 ).
16
2 Module et argument
2.1 Module
Définition [Link]
Soit z un nombre complexe. On appelle module de z et on note |z| le réel défini par
√
|z| = zz.
√
En particulier si z = a + ib avec a et b réels, |z| = a2 + b2 .
Remarques :
1. Cette définition a un sens, en effet, avec les notations précédentes, zz = ( a + ib)( a − ib) = a2 + b2 . C’est
donc on réel positif et on peut prendre sa racine carrée.
2. Il faut savoir écrire et utiliser la définition sous toutes ses formes. En particulier, on a
| z |2
zz = |z|2 et z = si z 6= 0.
z
3. Cette √notation est compatible avec la notation de la valeur absolue. En effet, si z est un réel, z = z et on a
| z | = z2 = | z |.
Proposition [Link] (Propriétés du module)
Démonstration :
1. Il suffit de voir que |z| = 0 ⇔ z = 0 ou z = 0 ⇔ z = 0.
2. Evident.
3. Par récurrence en utilisant ce qui précède.
4. Evident.
5. itou
Remarque : Dans les dernières formules on a égalité si et seulement si z est un réel positif (resp. de la forme iα
pour α ∈ R+ ).
F Méthode : Cela permet de calculer simplement la forme algébrique de l’inverse d’un nombre complexe (donné
sous forme algébrique). Par exemple
1 2 + 3i 2 + 3i
= = .
2 − 3i (2 − 3i )(2 + 3i ) 13
3−i
Exercice : Calculer la forme algébrique de .
1 + 4i
Proposition [Link] (Identités remarquables)
17
Proposition [Link]
−−−−−−−→
Soit z et z0 des nombres complexes, le module |z − z0 | est la norme euclidienne du vecteur M (z0 ) M (z)
où M (z) (resp. M (z0 )) est le point image de z (resp z0 ). C’est donc la distance euclidienne entre M(z0 )
et M (z).
p
Démonstration : Par définition en utilisant que |z| = ( x − x 0 )2 + (y − y0 )2 avec M(z) (resp. M(z0 )) le point
de coordonnées ( x, y) (resp. ( x 0 , y0 )).
Proposition [Link]
Démonstration :
— Démontrons la première. On remarque que
| z + z 0 |2 = (z + z0 )(z + z0 )
= zz + z0 z0 + 2Re(zz0 )
6 |z|2 + |z0 |2 + 2|z||z0 |
6 |z|2 + |z0 |2 + 2|z||z0 |
6 (|z| + |z0 |)2
√
On peut alors conclure en utilisant que X 7→ X est croissante.
— Il suffit d’appliquer l’inégalité précédente à z + z0 et −z0 . On obtient
| z | = | z + z 0 − z 0 | 6 | z + z 0 | + | − z 0 | = | z + z 0 | + | z 0 |.
On obtient donc
| z | − | z 0 | 6 | z + z 0 |.
Si on recommence avec z + z0 et −z0 on obtient alors
| z 0 | − | z | 6 | z + z 0 |.
Cela revient à
−|z + z0 | 6 |z| − |z0 |.
18
Remarques :
1. Si on considère les trois points O, M d’affixe z et N d’affixe z + z0 . On a OM = |z|, ON = |z + z0 | et
MN = |z0 |. On a donc l’inégalité triangulaire classique
ON 6 OM + MN.
2. On a vu que les partie réelles et imaginaires sont commodes pour calculer avec des sommes car Re(z + z0 ) =
Rez + Rez0 et pareil pour les parties imaginaires. Par contre, les calculs avec des produits étaient plus
compliqués. A l’inverse, calculer des modules pour les produits (et les puissances) est simple mais c’est
plus compliqué avec les additions.
Proposition [Link]
Dans la première inégalité triangulaire on a égalité si et seulement si |zz0 | = Re(zz0 ) c’est à dire
quand zz0 est un réel positif.
U = { z ∈ C | | z | = 1}.
Remarque : L’ensemble U est l’ensemble des nombres complexes dont le point image est sur le cercle de centre
O et de rayon 1 qui s’appelle le cercle trigonométrique.
Proposition [Link]
1
Remarque : Pour ce qui est de l’inverse, on remarque que si z est un élément de U, = z.
z
Proposition [Link]
z = cos(θ ) + i sin(θ ).
19
— si y < 0 : on pose θ = − ϕ. Dans ce cas, θ est strictement compris entre −π et 0. On a là encore l’égalité
voulue.
Remarque : Le réel θ a été construit dans ] − π, π ]. On aurait tout aussi bien le construire dans l’intervalle
[0, 2π [ ou dans tout intervalle de longueur 2π. Dans la pratique, on se contentera souvent d’une détermination
à 2π-près de θ.
Notation : Soit θ un réel on note
eiθ = cos θ + i sin θ.
Remarque : Cette notation peut-être justifiée de nombreuses manières. En voici une. Si on considère f définie
de R dans C par
f (θ ) = cos θ + i sin θ.
On peut la dériver et on trouve
Soit θ un réel,
eiθ + e−iθ eiθ − e−iθ
cos(θ ) = et sin(θ ) = .
2 2i
Proposition [Link]
Démonstration : Cela découle des formules d’addition des cosinus et des sinus (et cela permet donc de le
retrouver si on les a oubliées).
0
eiθ × eiθ = (cos(θ ) + i sin(θ )) × ((cos(θ 0 ) + i sin(θ 0 ))
= (cos(θ ) cos(θ 0 ) − sin(θ ) sin(θ 0 )) + i (cos(θ ) sin(θ 0 ) + cos(θ 0 ) sin(θ ))
= cos(θ + θ 0 ) + i sin(θ + θ 0 )
0
= ei (θ +θ ) .
La deuxième partie est évidente.
20
Proposition-Définition [Link]
Soit z un nombre réel non nul. Il existe des réels θ tels que
z = |z|eiθ .
Proposition [Link]
Soit z un nombre complexe non nul et θ0 un argument de z. L’ensemble des arguments de z est
Démonstration : Soit θ ∈ R. Le réel θ est un argument si et seulement si cos(θ ) = cos(θ0 ) et sin(θ ) = sin(θ0 ).
On en déduit donc que θ − θ0 est un multiple de 2π.
Soit A un réel non nul. Soit x et y deux réels, on dit que x et y sont congrus modulo A et on note x ≡ y[ A] si
x − y est un multiple entier du réel A.
Exemple : Les réels congrus à 1/2 modulo 1 sont {. . . ; −2, 5; −1, 5; −0, 5; 0, 5; 1, 5; 2, 5; . . .}
Remarque : D’après ce qui précède, l’argument d’un nombre complexe n’est donc défini qu’à 2π-près (ou
modulo 2π).
Notation : Si z est un nombre complexe non nul et θ un argument de z, on note
Par convention on appelle argument principal l’unique argument dans l’intervalle ] − π, π ]. Il est parfois noté
Arg.
Soit z un nombre complexe non nul. Si M (z) est son point image. Les arguments de z sont les mesures
−
→\ −−−−→
de l’angle orienté ( i , OM (z)).
Définition [Link]
Soit z un nombre complexe non nul. Il existe r dans R?+ (le module de z) et θ dans R (un argument de z) tel
que
z = r (cos(θ ) + i sin(θ )) = reiθ (forme trigonométrique).
Remarque : On pourrait inclure le cas du complexe nul z = 0 en posant r = 0 mais dans ce cas θ serait
quelconque et non pas défini à 2π-près. De ce fait, quand on voudra travailler avec des formes trigonométriques,
il faudra TOUJOURS traiter à part le cas de z = 0.
Exemples :
21
√ √ √ 1 1 √
1. Soit z1 = 3 + 3i. On a |z1 | = 9 + 9 = 3 2 d’où z1 = 3 2 √ + i√ = 3 2eiπ/4 .
2 2
2. Soit z2 = −2. On a z2 = 2eiπ .
Soit z un nombre complexe non nul et r1 , r2 deux réels strictement positifs et θ1 , θ2 deux réels. On a
z = r1 eiθ1 = r2 eiθ2 si et seulement si
r1 = r2 et θ1 ≡ θ2 [2π ].
Proposition [Link]
z1 = r1 eiθ1 et z2 = r2 eiθ2 .
On a alors
z1 r1
z1 .z2 = (r1 r2 )ei(θ1 +θ2 ) et = e i ( θ1 − θ2 ) .
z2 r2
Proposition [Link]
√
Remarque : Ces égalités ne sont vraies qu’à 2π-près. Par exemple si z = −1 − i = 2e5iπ/4 alors arg (z) =
5π/4. On a alors z2 = 2i. On voit que arg (z2 ) = π2 ≡ 10π
4 [2π ].
22
Définition [Link]
Proposition [Link]
Avec les notations précédentes, on voit que le module de ez est e x et que y est un argument de ez . En
particulier, ez n’est jamais nul. On définit ainsi une application
exp : C → C?
z 7→ ez .
Proposition [Link]
Remarque : On voit donc que l’application exponentielle transforme les additions en multiplications.
Proposition [Link]
Soit ω un nombre complexe non nul. Il existe z0 tel que ez0 = ω. On dit que l’application exponentielle
est surjective de C dans C? . De plus, si z0 vérifie ez0 = ω alors les nombres complexes z vérifiant
ez = ω sont les nombres de la forme z0 + 2kπi où k est un entier relatif.
3 Applications à la trigonométrie
3.1 Quelques rappels de trigonométrie
Revoyons rapidement quelques points sur les fonctions trigonométriques.
23
Proposition [Link]
θ 0 π/6 π/4
√ π/3
√ π/2
sin(θ ) 0 1/2 2/2 3/2 1
√ √
cos(θ ) 1 3/2 2/2 1/2 0
0,5
-4 -3 -2 -1 0 1 2 3 4 5 6 7
-0,5
-1
Définition [Link]
sin x
tan x = .
cos x
La fonction tangente est alors la fonction définie sur R \ {π/2 + kπ | k ∈ Z} qui associe à x le nombre tan x.
Proposition [Link]
θ 0 π/6
√ π/4 π/3
√ π/2
tan(θ ) 0 3/3 1 3 X
24
6
-Π Π 2Π
-2
-4
-6
Proposition [Link]
Soit a ∈ R.
Les solutions de l’équation cos x = cos a sont :
— S = { a + 2kπ | k ∈ Z} ∪ {− a + 2kπ | k ∈ Z} si a n’est pas un multiple entier de π.
— S = { a + 2kπ | k ∈ Z} si a est un multiple entier de π.
Les solutions de l’équation sin x = sin a sont :
π
— S = { a + 2kπ | k ∈ Z} ∪ {π − a + 2kπ | k ∈ Z} si a n’est pas de la forme a = + kπ avec k
2
entier.
π
— S = { a + 2kπ | k ∈ Z} si a est de la forme a = + kπ avec k entier.
2
Démonstration : Démontrons juste le premier point, les autres se démontrent de manière similaire. On sait
que la fonction cos est 2π-périodique, de ce fait il existe α ∈] − π, π [ tel que cos a = cos α. Il suffit de prendre
α = a + 2nπ où n est l’unique entier relatif tel que α soit dans ] − π, π [. Séparons deux cas.
— Si α est compris entre −π et 0. Alors on sait que α est l’unique solution de l’équation dans l’intervalle
] − π, 0[. En effet sur cette intervalle la fonction cosinus est strictement croissante et continue donc d’après
le théorème de la bijection notre équation n’a qu’une unique solution. Maintenant, la fonction est paire
donc −α est l’unique solution de l’équation dans l’intervalle ]0, π [. On conclut alors en utilisant que cos
est 2π-périodique.
— Si α est compris entre 0 et π. On procède de même.
Proposition [Link]
cos( a + b) = cos( a) cos(b) − sin( a) sin(b) et sin( a + b) = sin( a) cos(b) + sin(b) cos( a).
Remarque : Il faut ABSOLUMENT connaitre ces formules. En cas d’oubli, on peut les retrouver à l’aide de la
relation ei(a+b) = eia eib .
25
Corollaire [Link]
Corollaire [Link]
Soit a un réel,
cos(π/2 − a) = sin a et sin(π/2 − a) = cos( a).
Remarque : Ces formules sont importantes. Elles se retrouvent facilement sur un dessin.
y
sin(π/2 − a)
x
cos( a)
Remarque : Cela permet de « transformer » des cosinus en sinus (et réciproquement). En fonction des cas, on
utilisera cette méthode ou cos2 a + sin2 a = 1.
Proposition [Link]
Remarque : Ce sont juste les formules d’addition lues à l’envers. On peut aussi les retrouver en développant
les formules d’Euler.
26
Proposition [Link]
Remarques :
1. Pourquoi ne donne-t-on de formules pour sin p − sin q ?
2. Ces formules proviennent des formules précédentes en les lisant à l’envers et en remarquant que
p+q
a =
a+b = p 2
est équivalent à p−q
a−b = q b =
2
3.3 Linéarisation
F Méthode : On voit ci-dessus que l’on peut exprimer cos2 ( x ) et sin2 ( x ) comme combinaison linéaire (c’est-à-dire
sans puissances) de terme de la forme cos(kx ) et sin(kx ) où k est un entier naturel. Cela est vrai pour tout
terme de la forme cosm x sinn x où n et m sont des entiers. C’est la linéarisation. Voici comme on procède sur un
exemple :
1
cos4 ( x ) = (cos(4x ) + 4 cos(2x ) + 3) .
8
En récapitulant
— On écrit les cosinus et les sinus à l’aide des formules d’Euler.
— On développe avec le binôme de Newton. (voir plus loin)
— On regroupe avec les formules d’Euler
Exercice : Linéariser cos2 ( x ) sin3 ( x ).
En récapitulant
— On écrit que cos(nx ) = Re((cos x + i sin x )n ou sin(nx ) = Im((cos x + i sin x )n (en utilisant la formule de
(De) Moivre).
— On développe le terme de droite avec la formule du binôme de Newton. (voir plus loin)
— On ne garde que les termes réels pour un cosinus et que les termes imaginaires pour un sinus.
— On utilise éventuellement la formule cos2 ( x ) + sin2 ( x ) = 1 pour simplifier.
Exercice : Exprimer sin(4x ) sous la forme cos( x ) P(sin x ) où P est une fonction polynomiale.
Remarque : On peut appliquer cette méthode pour exprimer tan(nx ) en tant que fraction rationnelle en tan x. Il
sin(nx )
suffit d’écrire tan(nx ) = , d’utiliser la méthode précédente pour de diviser numérateur et dénominateur
cos(nx )
n
par cos x.
27
3.5 Transformation de Fresnel
Proposition [Link] (Transformation de Fresnel)
Soit a et b deux réels non tous nuls. Il existe A et ϕ tels que pour tout réel t,
Maintenant, comme ( a0 )2 + (−b0 )2 = 1 il existe ϕ tel que cos( ϕ) = ( a0 ) et sin( ϕ) = −b0 (ϕ est un argument
de a0 + ib0 ).
√
Exercice : Appliquer cette transformation à cos(t) − sin(t) et à cos(t) + 3 sin(t).
à des sommes des termes d’une suite géométrique. On suppose que t 6= 0[2π ].
En effet, !
n n
Cn = ∑ Re(eikt ) = Re ∑ (eit )k .
k =0 k =0
En utilisant la somme des termes d’une suite géométrique (qui sera revue au chapitre VI) on a donc
n
1 − e i ( n +1) t −2i sin((n + 1)t/2)e(n+1)it/2 sin((n + 1)t/2)enit/2
∑ (eit )k = 1 − eit
=
−2i sin(t/2)eit/2
=
sin(t/2)
k =0
Proposition [Link]
z2 = ω (E)
28
Démonstration :
— Si ω = 0 on a z2 = 0 implique z = 0 car, dans C, un produit n’est nul que si l’un des deux termes est nul.
— Si ω 6= 0, on peut poser ω = αeiϕ avec α ∈ R∗+ . Si on cherche z (qui n’est pas nul) sous la forme ρeiθ on a
2 √
ρ =α ρ= α
z2 = ω ⇐⇒ ⇐⇒
2θ = ϕ[2π ] θ = ϕ/2[π ]
√ √
Donc S = { αeiϕ/2 ; − αeiϕ/2 }.
Définition [Link]
Soit ω un nombre complexe non nul. Les deux solutions opposées de l’équation z2 = ω s’appellent les racines
carrées de ω.
ATTENTION
√
ne jamais utiliser la notation ω quand ω n’est pas un réel positif. En effet, dans ce cas, les racines
carrées sont des nombres complexes non réels. Il n’y a aucune manière intelligente (c’est-à-dire
compatible au produit) de choisir l’une plutôt que l’autre.
√ √
Exemple : Sip p positif, ses racines carrées sont ω et − ω. Si ω est un réel négatifs, ses racines
ω est un réel
carrées sont i |ω | et −i |ω |.
F Méthode : On a vu que la manière la plus simple de déterminer les racines carrées d’un nombre complexe est
de passer par sa forme trigonométrique. Cependant, il arrive que l’on veuille travailler avec des nombres dont
on ne connait pas de forme trigonométrique simple. On passe alors par la forme algébrique.
Traitons un exemple. On prend ω = 3 + 4i. On pose z = a + ib où a et b sont des réels. Dès lors
√
a2 + b2 = |z|2 = |ω | = 9 + 16 = 5 et a2 − b2 = Re(ω ) = 3.
ax2 + bx + c = 0 (E)
d’inconnue complexe x.
On note ∆ = b2 − 4ac le discriminant de l’équation (E).
b
— Si ∆ est nul, l’équation (E) admet une racine double x = − .
2a
— Si ∆ est non nul, on note δ une racine carrée de ∆. L’équation (E) admet alors deux solutions
−b + δ −b − δ
x1 = et x2 = .
2a 2a
29
Démonstration : Par mise sous forme canonique
Exemple : Résolvons l’équation
x2 − 2ix − 2 − i = 0.
On retrouve alors le cas classique de l’équation du second degré à coefficients réels :
ax2 + bx + c = 0 (E)
d’inconnue complexe x.
On note ∆ = b2 − 4ac le discriminant de l’équation (E).
b
— Si ∆ est nul, l’équation (E) admet une racine double x = − .
2a
— Si ∆ > 0. L’équation (E) admet alors deux solutions réelles
√ √
−b + ∆ −b − ∆
x1 = et x2 = .
2a 2a
2a
1 = tan(π/4) = cos(2 × (π/8)) = .
1 − a2
√ √
On en déduit que a vérifie l’équation
√ a2 + 2a − 1 = 0 dont les solutions sont a1 = −1 + 2 et a2 = −1 − 2. Or
a > 0 donc tan(π/8) = −1 + 2.
Exercice : Résoudre αx2 + 2αx − α2 − α − 1 = 0.
ax2 + bx + c = 0 (E)
d’inconnue complexe x.
Soit z1 et z2 deux nombres complexes (éventuellement confondus). Les nombres z1 et z2 sont les
racines de l’équation (E) si et seulement si
c b
z1 z2 = et z1 + z2 = − .
a a
Démonstration :
— ⇒ : Evident en utilisant les formules.
— ⇐ : Il suffit de remarquer que pour tout nombre complexe z,
Exemples :
30
1. Si on se donne deux nombres S et P. On considère le système
z1 + z2 = S
z1 z2 = P
Ses solutions sont les couples (α, β) où α et β sont les solutions de l’équation X 2 − SX + P = 0.
Si on cherche les couples (z1 , z2 ) vérifiant le système
z1 + z2 = 1
z1 z2 = 1
√
1± 3
on résout X 2 − X + 1 dont les solutions sont .
2
2. Soit θ un réel. On considère l’équation X 2 − 2 cos(θ ) X + 1 = 0. On peut voir que eiθ + e−iθ = 2 cos(θ )
(formule d’Euler) et eiθ e−iθ = 1 donc les solutions sont {eiθ , e−iθ }. On peut aussi le faire avec la méthode
classique. Il faut cependant faire attention à la rédaction.
Définition [Link]
Proposition [Link]
Démonstration
Proposition [Link]
ζ k = e2ikπ/n où k ∈ [[ 0 ; n − 1 ]] .
Démonstration : On remarque déjà que le nombre z = 0 n’est pas une racine n-ième de l’unité. Dès lors on
pose z = ρeiθ la forme trigonométrique de z.
zn = 1 ⇔ (ρeiθ )n = 1
⇔ ρn einθ = 1ei0
n
ρ =1
⇔
nθ = 0 [2π ]
ρ=1
⇔
θ = 0 [2π/n]
On en déduit que l’ensemble des solutions de zn = 1 est {ζ k | k ∈ Z}. Il suffit de voir que l’on peut
restreindre les valeurs de k. Par division euclidienne, on voit que pour tout entier k, il existe des entiers
q et r tels que k = qn + r avec r compris entre 0 et n − 1. Comme de plus, ζ qn+r = ζ r , on en déduit que
Un = {ζ k | k ∈ [[ 0 ; n − 1 ]]}. Il ne reste plus qu’à montrer que ces nombres sont deux à deux distincts.
Procédons par l’absurde. S’il existe k1 et k2 dans [[ 0 ; n − 1 ]] tels que ζ k1 = ζ k2 alors il existe un entier m tels que
2k1 π 2k π
= 2 + 2mπ
n n
31
d’où
k1 − k2 = nm.
or −(n − 1) 6 k1 − k2 6 n − 1. On en déduit que k1 − k2 = 0 et donc que k1 = k2 .
Proposition [Link]
Si n est au moins égal à 2, la somme des racines de l’unité est nulle : 1 + ζ 1 + · · · + ζ 1n−1 = 0.
Démonstration : Il suffit de faire le calcul et utilisant la somme des termes d’une suite géométrique.
Exercice : Calculer le produit des racines n-ième de l’unité.
Proposition [Link]
Démonstration
y
uζ
uζ 2
u
x
uζ 3
uζ 4
racine de z5 = eiπ/4
5 Géométrie plane
Nous avons déjà vu que les calculs de nombres complexes peuvent s’interpréter géométriquement. On peut
les utiliser en particulier pour les transformations du plan.
1. Soit z un nombre complexe non nul et M le point image de z. Le module de z est la distance
−
→\ −−→
OM et les arguments de z sont les mesures de l’angle ( i , OM ).
2. Soit z et z0 deux complexes distincts et M, M0 leur point image. Le module de z0 − z est la
−
→\ −−→
distance MM0 et les arguments de z0 − z sont les mesures de l’angle ( i , MM0 ).
32
Démonstration :
1. Par définition.
−−→
2. Le premier point a déjà été vu. Pour le deuxième, on translate de vecteur OM.
M0
arg(z0 − z)
−
→ M
j
−
→
i
Corollaire [Link]
Soit A et B deux points du plan d’affixe complexe a et b. Soit M un point du plan distinct de B
z−a
d’affixe z. On note u = .
z−b
AM
Le module de u est égal au rapport alors que les arguments de u sont les mesures de l’angle
BM
−−\
→ −→
( AM, BM).
|z − a| AM −
→ −−→
Démonstration : On a |u| = = . De même, arg (u) = arg (z − a) − arg (z − b) = ( i , AM ) −
|z − b| BM
−
→ −→ −−→ −→
( i , BM) = ( AM, BM). Ces égalités étant définies uniquement à 2π-près.
Corollaire [Link]
Soit −
→
u un vecteur du plan. La translation de vecteur − →u est la transformation du plan qui associe à tout point
0
−−→ 0 −→
M l’unique point M qui vérifie MM = u .
Si on note b l’affixe du vecteur −
→
u . La translation de vecteur −
→u est représentée par g : z 7→ z + b.
Remarque : Cette transformation est bien réversible. Son inverse est la translation de vecteur −−
→
u.
33
Définition [Link] (Homothétie)
Soit λ un réel non nul et Ω un point du plan. L’homothétie de centre Ω et de rapport λ est la transformation
−−→ −−→
plan qui associe à tout point M l’unique point M0 tel que ΩM0 = λΩM.
Si on note z0 l’affixe du point M0 . L’homothétie de centre Ω et de rapport λ est représentée par g : z 7→
z0 + λ ( z − z0 ).
Soit θ un réel et Ω un point du plan. La rotation de centre Ω et d’angle θ est la transformation plan qui associe
−−→ −−→ −−→
\ −−→
à tout point M l’unique point M0 tel que ||ΩM0 || = ||ΩM || et (ΩM, ΩM0 ) = θ [2π ] .
Si on note z0 l’affixe du point Ω. L’homothétie de centre Ω et d’angle θ est représentée par g : z 7→
z0 + eiθ (z − z0 ).
Exercice : Justifier la formule donnée par g. Trouver l’inverse de la rotation de centre Ω et d’angle θ.
On appelle similitude directe toute transformation du plan qui est représenté par une application de la forme
g : z 7→ az + b où a et b sont des complexes avec a non nul.
Proposition [Link]
Démonstration : Soit M1 , M2 , M3 et M4 des points deux à deux distincts. On note z1 , z2 , z3 et z4 leur affixe res-
pective. On considère une similitude directe représentée par l’application z 7→ az + b. On note alors M10 , M20 , M30
et M40 les images de M1 , M2 , M3 et M4 par la similitude et z10 , z20 , z30 et z40 leur affixe respective.
On en déduit donc que z20 − z10 = a(z2 − z1 ) et z40 − z30 = a(z4 − z3 ) d’où
z20 − z10 z − z1
= 2 .
z40 − z30 z4 − z3
Proposition [Link]
Soit f la similitude directe représentée par z 7→ az + b où a est un complexe non nul et b un complexe.
— Si a = 1 l’application est la translation de vecteur b.
b
— Si a 6= 1, on pose ω = . La représentation complexe de la similitude s’écrit alors z 7→
1−a
ω + a ( z − ω ).
34
Remarque : Le nombre ω est trouvé en résolvant l’équation g(z) = z.
Exemple : Soit z 7→ (1 + i )z − (2 + i ). Dans toute la suite on suppose a 6= 1.
Définition [Link]
Avec les notations précédentes. Le point Ω image de ω s’appelle le centre de la similitude. Il est stable (vérifie
f (Ω) = Ω). Le réel | a| s’appelle le rapport de la similitude et si θ est un argument de a, c’est une mesure de
l’angle de la similitude.
Proposition [Link]
Théorème [Link]
Soit M1 , M2 ,deux points distincts et M10 , M20 deux autre points distincts. Il existe une unique simili-
tude directe transformant M1 en M10 et M2 en M20 .
Démonstration : On cherche a et b deux nombres complexes dont le premier n’est pas nul vérifiant
0
z1 = az1 + b a(z1 − z2 ) = z10 − z20
0 ⇐⇒
z2 = az2 + b b(z2 − z1 ) = z2 z10 − z1 z20
Exercice : Soit M1 , M2 , M10 et M20 les points d’affixes respectives 1, i, −1 − 2i et 5 − 2i. Trouver l’unique
similitude qui transforme M1 en M10 et M2 en M20 . On précisera son rapport et son angle.
Remarque : On a vu que la conjugaison complexe correspondait à la symétrie d’axe (Ox ). Ce n’est pas une
similitude directe car elle change l’orientation des angles.
35
1
Fonctions usuelles
Rappels
2 36
1.1 Relation d’ordre et inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
1.2 Composition, monotonie et majoration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.3 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.4 Bijections et fonctions réciproques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2 Fonctions logarithmes, exponentielles et puissances 42
2.1 La fonction logarithme népérien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.2 La fonction exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3 Les fonctions exponentielle et logarithme de base a . . . . . . . . . . . . . . . . . . . . . . . . . . 44
2.4 Fonctions puissances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
Nous allons faire le point sur les fonctions usuelles déjà vues au lycée. Par la suite nous définirons les
fonctions circulaires réciproques. Dans tout ce chapitre I désignera un intervalle de R et les fonctions étudiées
seront à valeurs dans R sauf exprimés précisément.
1 Rappels
Voici quelques rapides rappels de la terminale qui nous seront utiles dans ce chapitre. Nous y reviendrons
dans l’année.
36
1.1 Relation d’ordre et inégalités
Théorème [Link]
L’ensemble R des nombres réels est muni d’une relation d’ordre noté 6 définie par x 6 y si et
seulement si y − x est positif. Cette relation est compatible avec les opérations de R à savoir :
1. Si x, y et z sont trois réels tels que x 6 y alors x + z 6 y + z.
2. Si x et y sont deux réels positifs (c’est-à-dire x > 0 et y > 0) alors xy est positif.
Nous reviendrons plus en détails sur ce point dans la suite du cours. Notons déjà quelques corollaires
Corollaire [Link]
1. Si x et y sont deux nombres réels tels que x 6 y alors −y 6 − x. En particulier, si x > 0 alors
− x 6 0.
2. (Règles des signes). Si x et y sont deux réels.
— Si x et y sont de même signe alors xy > 0.
— Si x est positif et y négatif (ou l’inverse) alors xy 6 0.
3. Si x, y et z sont trois réels. Si x 6 y et z > 0 alors xy 6 yz.
1 1
4. Si x, y sont deux réels strictement positifs. Si 0 < x 6 y alors 0 6 6 .
y x
Démonstration :
1. Il suffit d’ajouter − x − y des deux cotés.
2. — Il suffit de voir que si xy = (− x )(−y).
— Il suffit de voir que si x > 0 et y 6 0 alors xy = − x (−y).
3. En exercice.
4. En exercice.
Définition [Link]
Soit x un réel.
1. On appelle partie positive (resp. partie négative) de x le plus grand des deux réels x et 0 (resp. − x et 0).
On la note x + (resp. x − ). On a donc
+ x si x > 0 − − x si x > 0
x = et x = .
0 sinon x sinon
37
Proposition [Link] (Inégalité triangulaire)
Définition [Link]
On appelle intervalle de R une partie de R qui est soit R en entier soit est de la forme :
[ a, b] = { x ∈ R | a 6 x 6 b} [ a, b[= { x ∈ R | a 6 x < b}
] a, b] = { x ∈ R | a < x 6 b} ] a, b[= { x ∈ R | a < x < b}
] − ∞, b] = { x ∈ R | x 6 b} ] − ∞, b[= { x ∈ R | x < b}
[ a, +∞[ = { x ∈ R | a 6 x } ] a, +∞[ = { x ∈ R | a < x }
Remarque : En particulier, l’ensemble vide est un intervalle (il suffit de prendre a > b). De même les singletons
sont des intervalles.
Terminologie : Un intervalle de la forme [ a, b] (avec a 6 b) est appelé intervalle fermé. Un intervalle de la forme
] a, b[ (avec a 6 b) est appelé intervalle ouvert. Un intervalle de la forme ] a, b] ou [ a, b[ est appelé semi-ouvert ou
semi-fermé.
Proposition [Link]
Soit a et b deux réels. L’ensemble des réels x tels que | x − a| 6 b est un intervalle. Si b > 0 c’est
[ a − b, a + b].
a+b
Remarque : A l’inverse soit I = [ a, b]. Le milieu de l’intervalle est c = . Sa longueur est l = b − a. On a
2
alors
[ a, b] = { x ∈ R | | x − c| 6 l/2.}.
(b − a)/2
a c = ( a + b)/2 b
b−a
38
√
3. Résoudre x + x2 − 3x + 2 > 0. On travaille sur R\]1, 2[.
p p
x + x2 − 3x + 2 > 0 ⇐⇒ x2 − 3x + 2 > x
On voit en particulier que si x est négatif, l’inéquation est vérifié. Ensuite, si x est positif on est ramené (en
passant au carré) à x2 − 3x + 2 > x2 ⇐⇒ x 6 2/3. On a donc S =] − ∞, 2/3].
Soit f une fonction définie sur I et g une fonction définie sur une partie K. On suppose que pour tout x de I,
f ( x ) appartienne à K. On appelle alors composée de g et f et on note g ◦ f la fonction définie sur I par
g◦ f : I → R
x 7→ g( f ( x ))
Exemples :
1. Si on note f : x 7→ cos( x ) et g : x 7→ x2 . On a f ◦ g : x 7→ cos( x2 ) et g ◦ f : x 7→ (cos x )2 = cos2 x. On
utilise souvent cette dernière notation qui se confond moins avec la première.
1
2. Si f est une fonction qui ne s’annule pas sur I et g définie sur R? par X 7→ , la fonction g ◦ f est la
X
1
fonction .
f
Commençons par rappeler la définition d’une fonction croissante.
Remarques :
1. Cela signifie que quand f est croissante alors « les images sont dans le même sens que les éléments ».
2. Si f et g sont feux fonctions croissantes sur I alors f + g est croissante. Est-ce vrai pour f × g ?
Exemples :
1. La fonction x 7→ x2 est croissante sur R+ (mais pas sur R).
2. La fonction x 7→ 1/x est croissante sur R?∗ (mais pas sur R).
Exercice : Justifier que la composée de deux fonctions croissantes est croissante.
Définition [Link]
39
ATTENTION
Il est essentiel que le M (ou m) soit indépendant de x. Par exemple, on a que pour tout x de R,
x − 1 6 x mais cela ne signifie par que x 7→ x − 1 soit majorée. Par contre, on sait que pour tout réel
x, x2 − 1 > −4 donc x 7→ x2 − 1 est minorée.
Remarque : Pour montrer que f est bornée, il suffit de montrer que | f | est majorée.
1.3 Dérivation
Dans ce paragraphe, nous n’allons pas rentrer dans la théorie de la dérivation des fonctions (cela sera l’objet
d’un chapitre plus tard dans l’année). Nous allons nous conter de rappels les principes de calculs des fonctions
dérivées et l’utilisation pour étudier la monotonie et les tangentes.
Théorème [Link]
Soit f une fonction dérivable sur un intervalle I. Elle est croissante (resp. décroissante) si et seulement
si f 0 est positive (resp. négative) De plus si f 0 est strictement positive (resp. négative) alors f est
strictement croissante (resp. décroissante).
Remarque : Tous ces résultats seront prouvés dans le chapitre sur la dérivation.
Exemple : La fonction x 7→ x2 cos( x ) + sin( x ) est dérivable et sa dérivée est x 7→ 2x cos( x ) − x2 sin( x ) + cos( x ).
Soit f une fonction définie sur I et g une fonction définie sur une partie K. On suppose que pour tout
x de I, f ( x ) appartienne à K. Si f et g sont dérivables alors g ◦ f aussi et
( g ◦ f )0 = f 0 × g0 ◦ f
( g ◦ f )0 ( x ) = f 0 ( x ) × g0 ( f ( x )).
ATTENTION
Cette formule est importante. Une erreur standard est d’oublier le terme en f 0 ( x ).
Exemples :
1. La dérivée de x 7→ cos( x2 ) est −2x sin( x2 ).
2. La dérivée de x 7→ f (2x ) est x 7→ 2 f 0 (2x ).
40
Corollaire [Link]
0
1 1
1. Soit f une fonction dérivable sur I qui ne s’annule pas. La fonction est dérivable et =
f f
f 0
− 2.
f
f
2. Soit f et g deux fonctions dérivables sur I qui ne s’annulent pas. La fonction est dérivable et
g
0
f f 0 g − g0 f
= .
g g2
Soit I et J deux intervalles de R et f une application de I dans J. On dit que f est une bijection (ou que f est
une application bijective) si tout élément de J a un unique antécédent par f .
Exemples :
1. La fonction carrée de R+ dans lui même est bijective.
2. La fonction carrée de R dans R ne l’est pas.
Remarque : Pour définir une bijection il est important de préciser non seulement l’ensemble de départ mais
aussi l’ensemble d’arrivée... Nous y reviendrons plus en détails dans le chapitre suivant.
Définition [Link]
Soit f une bijection de I dans J. On appelle bijection réciproque de f l’application que J dans I qui associe à
tout élément de J son antécédent par f . Elle se note f −1 .
Proposition [Link]
Remarque : La première propriétés signifie que f ◦ f −1 est l’application identité de I qui associe à x dans I,
l’élément x lui-même.
41
Proposition [Link]
1
( f −1 ) 0 = .
f0 ◦ f −1
Soit f une fonction définie sur un intervalle I. Si f est continue et strictement monotone elle réalise
une bijection de I sur son intervalle image J.
Remarque : Nous restons pour le moment un peu flou sur l’intervalle J. Dans les exemples il sera aisé de le
déterminer.
Exemple : La fonction f : x 7→ x2 est continue et strictement croissante sur R+ . De plus f (0) = 0 et lim x2 =
x →+∞
+∞. On en déduit que f est une bijection de R+ dans R+ . Sa bijection réciproque est la fonction racine carrée.
La fonction logarithme népérien notée ln est l’unique primitive sur R?+ de la fonction x 7→ 1/x qui s’annule
en 1. On a donc pour tout réel strictement positif x :
Z x
dt
ln( x ) = .
1 t
42
Remarque : La fonction existe du fait que la fonction x 7→ 1/x est continue sur R?+ .
Proposition [Link]
Démonstration : Il suffit de fixer y est de considérer la fonction x 7→ ln( xy) − ln( x ) − ln(y).
Corollaire [Link]
Proposition [Link]
La fonction ln est continue sur R?+ , lim ln( x ) = −∞ et lim ln( x ) = +∞. On en déduit que ln
x →0 x →+∞
réalise une bijection de R?+ sur R.
Démonstration : La fonction ln est strictement croissante car sa dérivée 1/x est positive. Il suffit donc de
montrer qu’elle n’est pas majorée. Or pour tout entier naturel n, ln(2n ) = n ln(2) et ln(2) > ln(1) = 0. On en
déduit que lim ln( x ) = +∞. Maintenant, en utilisant que ln(1/x ) = − ln( x ) on trouve la limite en 0. On peut
x →+∞
conclure avec le théorème de la bijection.
x
0 1 2 3 4 5 6 7
La fonction exponentielle, noté exp est la fonction réciproque de la fonction logarithme népérien. Elle est définie
de R dans R?+ .
Proposition [Link]
43
En utilisant les propriétés de la fonction ln et les propriétés des réciproques on obtient
Proposition [Link]
1. La fonction exp est continue et dérivable sur R et elle est égale à sa dérivée.
2. Elle est strictement croissante, lim exp( x ) = 0 et lim exp( x ) = +∞.
x →−∞ x →+∞
3. On a exp(0) = 1.
exp( x )
4. Soit x et y deux réels et n un entier relatif : exp( x + y) = exp( x ) exp(y), exp( x − y) =
exp(y)
et exp(nx ) = exp( x )n .
Démonstration : A faire
x
-3 -2 -1 0 1 2 3
Définition [Link]
On aimerait de même définir une fonction x 7→ a x définie sur R et telle que pour tout entier n,
an = a × a × · · · × a .
| {z }
nfois
On va la chercher de la forme x 7→ exp(kx ) pour garder les propriétés de calculs des exponentielles.
En regardant la valeur pour x = 1 on voit que l’on doit prendre k = ln( a).
Définition [Link]
On appelle exponentielle de base a et on note expa la fonction telle que pour tout réel x, expa ( x ) =
exp( x ln( a)).
44
Remarque : La fonction exponentielle de base e est la fonction exponentielle.
Notation : Comme ci-dessus, on note expa ( x ) = a x .
Proposition [Link]
ATTENTION
a<1 a>1
x
-3 -2 -1 0 1 2 3
Définition [Link]
On appelle logarithme en base a et on note loga la fonction définie sur R?+ par
ln( x )
loga : x 7→ .
ln( a)
45
Proposition [Link]
Exemples :
1. Le logarithme de base 10 est appelé logarithme décimal. Il se note log Il est utile car log(10n ) = n. Il permet
donc de mesurer l’ordre de grandeur d’un nombre (dans une écriture décimale). On l’utilise par exemple
pour les échelles logarithmiques comme le pH où pH = − log[ H + ] avec [ H +] est la concentration en ions
hydrogènes exprimées en moles par litre.
De fait, si N est un nombre entier et si p est le nombre de chiffres de son écriture décimale alors 10 p−1 6
N < 10 p . De ce fait, p − 1 6 log( N ) < p. On en déduit que p est blog( N )c − 1
2. En informatique, on travaille souvent avec des puissances de 2. On utilise alors le logarithme de base 2 dit
logarithme binaire.
Exercice : Soit a > 0. Résoudre l’équation loga x = logx a.
Soit α un réel, on définit la fonction puissance de R?+ dans lui même par :
Remarque : Il ne faut pas confondre cette fonction puissance avec l’exponentielle de base a : x 7→ a x =
exp( x ln( a)).
Exemples :
1. Dans le cas ou α est un réel strictement positif on retrouve les classiques fonctions puissances : x 7→
x2 , x 7→ x3 , . . .. De fait c’est la restriction à R?+ que l’on retrouve.
2. Dans le cas où α est réel strictement négatif, là encore on retrouve les fonctions classiques : x 7→ x −1 =
1 1
, x 7 → x −2 = 2 , . . .
x x
3. Si α est nulle la fonction est constante.
Remarque : Par définition (à cause du ln) les fonctions puissances sont définies sur R?+ . Cependant, si α > 0,
quand on fait tendre x vers 0, x α tend vers 0 (ou 1 si α = 0). De ce fait, on peut « prolonger »la fonction à R+ . De,
plus si α ∈ N, on peut réexprimer cette fonction comme x α = x × · · · × x (α fois) et de ce fait, on peut prolonger
cette définition à R en entier.
Proposition [Link]
x α .x β = x α+ β , x α .yα = ( xy)α ( x α ) β = x αβ .
3. ln( x α ) = α ln( x ).
46
Proposition [Link]
Soit I un intervalle et u et v deux fonction définies et dérivables sur I. On suppose que u prend ses
valeurs dans R?+ . La fonction f : x 7→ u( x )v( x) est dérivable et sa dérivée est :
0 0 u0 ( x )
f : x 7→ v ( x ) ln(u( x )) + v( x ) f ( x ).
u( x )
ATTENTION
α = −1 α=2
α = 1/2
x
0 1 2 3 4
En particulier si α > 0, la fonction puissance tend vers 0 en 0 et peut être prolongée par continuité. Ce
prolongement sera dérivable en 0 si α > 1, sinon il y a une tangente verticale.
Notation : Soit n un entier naturel non nul, pour tout réel strictement positif, ( x1/n )n = x. De ce fait la fonction
√
x 7→ x1/n est la réciproque de la restriction à R?+ de x 7→ x n . On l’appelle la racine n-ième et elle se note x 7→ n x.
On remarquera que, si n est impair, la fonction réciproque peut-être définie de R dans R.
√ √ x
Exercice : Résoudre l’équation x x = x .
47
3.1 Périodicité, parité et symétrie
Définition [Link]
Exemple : Soit n ∈ N, la fonction f ( x ) = x n est paire si n est pair et impaire si n est impair.
Proposition [Link]
Proposition [Link]
∀ x ∈ R, α + x ∈ D f ⇔ 2α − x ∈ D f et ∀ x ∈ D f , f ( x ) = f (2α − x ).
∀ x ∈ R, α + x ∈ D f ⇔ 2α − x ∈ D f et ∀ x ∈ D f , f ( x ) = 2β − f (2α − x ).
y y
x x
α−h α α+h α−h α α+h
Remarque : Il n’est pas simple de retenir que si la courbe de f admet la droite d’équation x = α poux axe de
symétrie alors f (α + h) = f (α − h) et que si la courbe de f admet le point (α, β) pour centre de symétrie alors
f (α + h) + f (α − h) = 2β.
Définition [Link]
Soit f une fonction numérique et T un réel non nul. On dit que x est périodique de période T si :
— ∀ x ∈ D f , x + T ∈ D f et x − T ∈ D f
— ∀ x ∈ D f , f ( x + T ) = f ( x ).
On dit alors que T est une période de f .
Exemples :
48
1. La fonction x 7→ sin( x ) est périodique de période 2π. Elle est aussi périodique de période 4π.
2. La fonction tangente est périodique de période π.
3. La fonction x 7→ x − b x c est périodique de période 1.
Proposition [Link]
Soit f une fonction périodique de période T. La courbe C de f est invariante par translation de
vecteur ( T, 0).
Définition [Link]
Soit f une fonction numérique. On dit que f est périodique s’il existe une réel T non nul tel que f soit
périodique de période T.
Remarque : si f est une fonction périodique, alors elle admet une infinité de période. En effet si T est une
période alors 2T aussi et par extension tous les nombres de la forme nT pour n ∈ Z − {0}. On parlera - par abus
- de la période d’une fonction pour la plus petite période positive.
ln( x )b exp(bx )
lim x a | ln( x )|b = 0, lim = 0, lim | x | a exp(bx ) = 0 et lim = +∞.
x →0 x →+∞ xa x →−∞ x →+∞ xa
Remarques :
1. Les cas où a ou b sont négatifs peuvent se ramener ceux-ci en passant à l’inverse. D’autre part, on n’a
ln x
indiquer que les limites qui sont des formes indéterminées. Par exemple, lim = −∞ est évidente.
x →0 x
2. On peut dire pour raccourcir que l’exponentielle « l’emporte » sur les puissances et que ces dernières
« l’emportent » sur les logarithmes.
Démonstration :
exp(bx )
— Commençons par montrer lim = +∞.
x →+∞xa
exp(bx ) exp( x ) b
D’abord on voit que pour tout réel x, = . On est donc ramené à prouver que
xa x a/b
exp( x ) exp( x )
lim = +∞ où α = a/b est un réel positif. Si on note f : x 7→ . C’est une fonction
x →+∞ xα xα
dérivable. En calculant la dérivée, on voit qu’elle est croissante au voisinage de +∞. Il suffit donc de
montrer que la suite (un ) définie par un = f (n) tend vers +∞.
Or pour tout entier naturel n,
α
u n +1 e n +1 n α n
= n =e → e.
un e ( n + 1) α n+1
Dès lors il existe N tel que pour n > N, un+1 > 2un . Par récurrence on montre alors que pour n > N,
u n > 2n − N u N .
— Maintenant étudions lim | x | a exp(bx ) = 0. Il suffit de voir que
x →−∞
xa (− x ) a
| x a exp(bx )| = = .
exp(b(− x )) exp(b(− x ))
49
— Il suffit de faire le changement de variables x = et (ou t = ln x). En effet on sait que lim (et ) a |t|b = 0 et
t→−∞
que lim ln x = −∞ donc, par composition de limites,
x →0
On a
sin x cos x − 1 ln(1 + x )
lim =1 lim = −1/2 lim =1
x →0 x x →0 x2 x →0 x
exp( x ) − 1 (1 + x ) − 1
α
lim =1 lim = α.
x →0 x x →0 x
Démonstration : A part celle sur les cosinus, elles se démontrent en utilisant le limite du taux d’accroissement
à l’origine. Pour ce qui est de cosinus, on remarque que pour x non nul,
cos x − 1 −2 cos2 ( x/2) 1 sin( x/2) 2
= =− .
x2 x2 2 x/2
50
• Asymptote horizontale : Soit f une fonction. Si limx→+∞ f ( x ) = ` ∈ R (resp. limx→−∞ f ( x ) = ` ∈ R), on
dit que la courbe de f admet une asymptote horizontale d’équation y = ` en +∞ (resp. −∞). Dans ce cas, on a
−x
limx→±∞ f ( x ) − ` = 0. Par exemple, on considère la fonction f : x → e−e . Elle admet la droite y = 1 comme
asymptote en +∞ et la droite y = 0 comme asymptote en −∞
y
• Asymptote oblique : Soit f une fonction. On suppose cette fois que limx→±∞ f ( x ) = ±∞. On regarde alors
f (x) f (x)
. On suppose qu’il existe α ∈ R? un réel non nul tel que lim = α. On regarde alors la limite en ±∞
x x →±∞ x
de f ( x ) − αx. Deux cas se présentent.
— Si x 7→ f ( x ) − αx admet une limite finie β ∈ R. On dit que la droite y = αx + β est une asymptote oblique
en ±∞. On a alors
lim f ( x ) − (αx + β) = 0.
x →±∞
x2 − 6
Par exemple, on considère la fonction f : x 7→ . On calcule la limite de f ( x )/x et on trouve 1/2. On
2x − 1
calcule alors
1 x/2 − 6 1
f (x) − x = → .
2 2x − 2 4
1 1
D’où la courbe admet la droite d’équation y = x + comme asymptote en ±∞.
2 4
— Si x 7→ f ( x ) − αx n’admet pas de limite finie. C’est-à-dire que elle n’a pas de limite ou qu’elle a une
limite infinie. On dit que la droite d’équation y = αx est une direction asymptotique. Par exemple
f : x 7→ x + ln x.
51
y
f (x)
• Branche parabolique :Soit f une fonction. On encore que limx→±∞ f ( x ) = ±∞. On regarde alors .
x
f (x)
— Si lim = 0. On dit que la fonction f admet une branche parabolique de direction (Ox ). Par exemple
x →±∞ √ x
f : x 7→ x
f (x)
— Si lim = ±∞. On dit que la fonction f admet une branche parabolique de direction (Oy). Par
x →±∞ x
exemple f : x 7→ x2
52
y
De fait, la fonction x 7→ cos x est continue, elle est strictement décroissante sur [0, π ], cos(0) = 1 et
cos(π ) = −1. C’est donc bien une bijection de [0, π ] dans [−1, 1]. Sa fonction réciproque s’appelle Arccosinus :
1
Remarque : On notera Arccos x et non pas cos−1 ( x ) pour ne pas le confondre avec .
cos x
Terminologie : La dénomination vient du fait que l’arccosinus est la longeur de l’arc dont le cosinus est connu.
53
Proposition [Link] (Propriétés de la fonction Arccosinus)
Démonstration : Montrons que pour tout x ∈ [−1, 1], Arccos(− x ) = π − Arccos( x ). On sait que cos(Arccos(− x )) =
− x. De plus cos(π − Arccos( x )) = − cos(Arccos( x )) = − x. Ils ont le même cosinus et sont tous les deux dans
[0, π ] donc ils sont égaux.
ATTENTION
si x ∈ [−1, 1], Arccos( x ) est un antécédent de x par cos. Plus précisément c’est le seul antécédent
de x par cos qui est dans l’intervalle [0, π ]. Par exemple Arccos(cos(9)) 6= 9 mais 9 − 2π. En effet,
si on note a = Arccos(cos(9)). Par définition, a ∈ [0, π ] et cos( a) = cos(9). On peut alors trouver
facilement que a = 9 − 2π car cos(9 − 2π ) = cos(9) par 2π-périodicité de cos et 2π 6 9 6 3π donc
9 − 2πß[0, π ].
54
De fait, la fonction x 7→ sin x est continue, elle est strictement croissante sur [−π/2, π/2], sin(−π/2) = −1
et sin(π/2) = 1. C’est donc bien une bijection de [−π/2, π/2] dans [−1, 1]. Sa fonction réciproque s’appelle
Arcsinus :
Arcsin : [−1, 1] → [−π/2, π/2].
Exercices :
1. Soit x ∈ [−1, 1] calculer cos(Arcsinx ).
2. Calculer Arcsin(cos 7).
55
Proposition [Link] (Propriétés de la fonction Arctangente)
Proposition [Link]
Démonstration : A faire
5 Fonctions hyperboliques
5.1 Fonctions hyperboliques
Définition [Link]
e x + e− x
ch : x 7→ .
2
La fonction sinus hyperbolique notée sh est définie sur R par
e x − e− x
ch : x 7→ .
2
Remarque : Cette définition est analogue aux définitions de cos et sin via les formules d’Euler. Nous revien-
drons plus tard sur la signification du hyperbolique.
56
Proposition [Link]
ch 0 ( x ) = sh ( x ) et sh 0 ( x ) = ch ( x ).
-2 -1 1 2
-1
-2
-3
Démonstration : A faire
Proposition [Link]
Soit x un réel,
ch 2 ( x ) − sh 2 ( x ) = 1.
Démonstration : A faire.
Proposition [Link]
Définition [Link]
sh ( x ) e2x − 1
th : x 7→ = 2x .
ch ( x ) e +1
57
Proposition [Link]
1.0
0.5
-3 -2 -1 1 2 3
-0.5
-1.0
Définition [Link]
Avec les notations précédentes, on appelle partie réelle (resp. partie imaginaire) de f la fonction notée Re( f )
(resp. Im( f )) définie de I dans R par
Définition [Link]
Proposition [Link]
58
6.2 La fonction t 7→ e ϕ(t)
Proposition [Link]
Soit ϕ une fonction dérivable sur I et à valeurs dans C. La fonction f : t 7→ exp( ϕ(t)) est dérivable
et pour tout t de I,
f 0 (t) = ϕ0 (t) exp( ϕ(t)).
Démonstration
Corollaire [Link]
Soit ω un nombre complexe. On pose f : t 7→ eωt . Cette fonction est dérivable et vérifie :
59
Ensembles,
3
applications,
relations
d’équivalence et
relations d’ordre
1 Logique 61
1.1 Assertions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1.2 Ensemble, appartenance et inclusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
1.3 Prédicats et quantificateurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
1.4 Méthodes de démonstration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1.5 Principe de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
2 Les ensembles 68
2.1 Sous-ensembles d’un ensemble . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
2.2 Opérations dans P ( E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.3 Produit cartésien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3 Applications 71
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.2 Image directe et image réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
3.3 Applications injectives, surjectives et bijectives . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
3.4 Application réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.5 Familles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
4 Relations binaires 79
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.2 Relation d’équivalence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.3 Relation d’ordre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
60
1 Logique
1.1 Assertions
Définition [Link]
On appelle assertion une phrase mathématique qui est soit vraie soit fausse.
Exemple : La phrase « 3 > 1 » est une assertion (qui est vraie) et « 2 = 0 »est une assertion (qui est fausse)
Quand on se donne une ou plusieurs assertions, on peut construire de nouvelles assertions avec des
opérateurs logiques. La valeur logique (à savoir si elles sont vraies ou fausses) de ces dernières dépendent des
valeurs logiques des assertions dont on est parti.
Soit P une assertion, l’assertion non P est l’assertion qui est vraie si P est fausse et fausse si P est vraie.
P V F
non P F V
P V V F F P V V F F
Q V F V F Q V F V F
P ou Q V V V F P et Q V F F F
Remarques :
1. En mathématiques le ou est inclusif.
2. On note aussi ∧ pour et et ∨ pour ou.
Voici une proposition qui précise les liens entre les opérateurs et la négation.
Remarque : Les deux dernières assertions sont connues sous le nom de Lois de Morgan.
Démonstration : Le dire en français pour le comprendre et les tableaux de vérités pour le démontrer. Par
exemple pour la deuxième.
61
P V V F F
Q V F V F
(P ou Q) V V V F
non P F F V V
non Q F V F V
non (P ou Q) F F F V
(non P) et (non Q) F F F V
On remarque bien que les deux dernières lignes sont similaires.
Exemple : On choisit un nombre soit P l’assertion « le nombre est pair » et Q l’assertion « le nombre est divisible
par 3 ». Dès lors P et Q est « le nombre est divisible par 6 ». Le contraire est « le nombre n’est pas divisible par
6 », ce qui revient à « il n’est pas divisible par 2 » OU « il n’est pas divisible par 3 ».
P V V F F P V V F F
Q V F V F Q V F V F
P⇒Q V F V V P⇔Q V F F V
ATTENTION
1. En effet pour montrer qu’une assertion Q est vraie, on montrera qu’une assertion P0 est vraie ainsi que P0 ⇒ P1 , P1 ⇒ P2 , . . . ,
Pn−1 ⇒ Pn et Pn ⇒ Q.
62
Exercices :
1. (Cours) Montrer que P ⇒ Q est équivalente à Q ou (non P).
2. Établir la table de vérité de (( P ⇒ Q) et ( Q ⇒ R)) ⇒ ( P ⇒ R)
3. Établir la table de vérité de A ou (nonA).
Exemples :
1. Le théorème de Pythagore dit que si un triangle ABC est rectangle en A alors BC2 = AB2 + AC2 . C’est
une implication. Sa réciproque - qui est aussi vraie - dit que si BC2 = AB2 + AC2 alors le triangle ABC
est rectangle en A.
2. Soit n un nombre entier, on sait que si 6 divise n alors 2 divise n. Par contre la réciproque est fausse.
Proposition [Link]
Exemple : Nous voulons montrer que « pour toute fonction continue f de [0, 1] dans R, si f ne s’annule pas
alors f garde un signe constant ». Pour montrer cela on se fixe une fonction f continue de [0, 1] dans R arbitraire.
La contraposée de notre proposition est « si f change de signe alors f s’annule ». Or cette dernière proposition
est une conséquence directe du théorème des valeurs intermédiaires.
Un ensemble E est une collection d’éléments. On note x ∈ E (et on lit x appartient à E) pour dire que l’élément
x est un élément de l’ensemble E. On note x ∈/ E dans le cas contraire.
63
Exemple : On a 0 ∈ N et −1 ∈
/ N.
Définition [Link]
Soit E et F deux ensembles on dit que E est inclus dans F et on note E ⊂ F si et seulement si tous les éléments
de E sont aussi des éléments de F. On dit alors que E est un sous-ensemble (ou une partie) de F.
Soit E et F deux ensembles. Ils sont égaux s’ils ont les mêmes éléments c’est-à-dire si E est inclus
dans F et si F est inclus dans E.
On admettra qu’il existe un ensemble vide qui se note ∅. Il ne contient aucun élément et, de ce fait, est inclus
dans tous les ensembles.
Définition [Link]
∃ x ∈ E, P( x )
est vraie si P( x ) est vraie pour au moins une valeur que peut prendre la variable x.
64
Quantificateur universel
Définition [Link]
∀ x ∈ E, P( x )
est vraie si, P( x ) est vraie pour toutes les valeurs que peut prendre la variable x.
∃ f , ∃ x, f (x) =0 ∃ x, ∃ f , f (x) =0
∀ f , ∃ x, f (x) =0 ∀ x, ∃ f , f (x) =0
∃ f , ∀ x, f (x) =0 ∃ x, ∃ f , f (x) =0
∀ f , ∃ x, f (x) =0 ∀ x, ∃ f , f (x) =0
Négation de quantificateur
Commençons par un exemple.
Exemple : On dispose des boules dans une urne. Le contraire de « toutes les boules sont rouges » est « il y a au
moins une boule rouge » et non pas « toutes les boules ne sont pas rouges ». De même le contraire de « il y a
(au moins) une boule rouge » est « aucune boule n’est rouge » ce qui revient à « toutes les boules ne sont pas
rouges ».
Proposition [Link]
Exemples :
1. Dire qu’une fonction f ne s’annule pas revient à non (∃ x, f ( x ) = 0) ce qui est équivalent à ∀ x, f ( x ) 6= 0.
Ecrire de même de deux manière que f n’est pas la fonction nulle.
2. Soit E un ensemble et A, B deux parties de E. Que signifie ∀ x ∈ E, x ∈ A ⇒ x ∈ B ? Quel est le contraire ?
3. Le contraire de « f est croissante » n’est pas « f est décroissante ». Cela se quantifie par : ∃ x ∈ I, ∃y ∈
I, ( x > y) et f ( x ) < f (y).
65
On peut l’écrire avec des implications
n est impair ⇒ ∃k ∈ N, n = 2k + 1
⇒ ∃k ∈ N, n2 = (2k + 1)2
⇒ ∃k ∈ N, n2 = 2(2k2 + 2k) + 1
⇒ ∃K ∈ N, n2 = 2K + 1
⇒ n2 est impair.
La disjonction de cas
On veut démontrer l’implication P ⇒ Q. Pour cela on montre [( P et A) ⇒ Q] et [( P et nonA) ⇒ Q]
n ( n + 1)
Exemple : Soit n un entier naturel. Montrer que est un entier.
2
Analyse-Synthèse
On suppose que le problème que l’on veut démontrer. On essaye alors de trouver des informations sur le
résultat. On suppose alors ces informations pro montrer le problème initial. Il est important de bien séparer la
phase d’analyse de la phase de synthèse.
Exemple : Montrer que toute fonction de R dans R est somme d’une fonction paire et d’une fonction impaire.
Remarques :
66
1. Le principe de récurrence est intuitif. On suppose en effet que P(0) est vraie et que P(0) implique P(1).
De ce fait P(1) est vraie. Maintenant on suppose que P(1) implique P(2). De ce fait P(2) est vraie. Et
ainsi de suite. De fait, quand dans une rédaction on a envie d’écrire « et ainsi de suite » c’est que la bonne
rédaction est une récurrence.
2. Il est important de bien savoir rédiger une récurrence, en particulier la deuxième propriétés (qui s’appelle
hérédité). Il faut bien comprendre le sens des parenthèses. En effet
est stupide. En pratique, on fixe UN entier noté n et on suppose P(n) juste pour CET entier. Il reste alors à
montrer que P(n + 1) est vraie.
3. Il faut faire attention aux fausses récurrences où vous n’utilisez pas P(n) pour montrer P(n + 1). Ce n’est
logiquement pas faux mais cela montre que vous n’avez pas beaucoup de recul.
Exemples :
1. Montrons par récurrence que ∀n ∈ N, 2n > n + 1.
— Initialisation Pour n = 0, 1 = 20 > 0 + 1 est vrai.
— Hérédité Soit n une entier quelconque fixé. On suppose que 2n > n + 1. Dès lors
On voudrait donc avoir 3n2 > (n + 1)2 ⇔ 2n2 − 2n − 1 > 0. Une rapide étude de signe nous montre que
ce n’est vrai que pour n supérieur ou égal à 2. Il faut donc découper le problème en deux. On le montre à
la main pour n = 0 et n = 1 puis on fait la récurrence pour n > 2.
Il existe quelques variantes de la récurrence.
Proposition [Link]
Exemple : Soit (un ) la suite définie par u0 = 2, u1 = 1 et pour tout entier naturel un+2 = un+1 + 2un . Montrons
par récurrence que pour tout entier n, un = (−1)n + 2n .
A faire
Pour finir,
67
Proposition [Link] (Récurrence « forte »)
Remarque : La différence est que là, pour montrer P(n + 1), on suppose que P est vraie pour tous les entiers
inférieurs ou égaux à n et non plus que pour n.
Démonstration : Il suffit d’appliquer le principe de récurrence au prédicat : Q(n) : ∀k ∈ [[ n0 ; n ]] P(k).
Exemple : Montrons que tout entier naturel n supérieur ou égal à 2 peut s’écrire comme un produit de nombre
premier. On rappelle qu’un entier naturel est premier s’il n’est divisible que par lui-même et par 1.
— Initialisation Pour n = 2, C’est un nombre premier
— Hérédité Soit n une entier quelconque fixé. On suppose que tout entier compris entre 2 et n s’écrit comme
un produit de nombres premiers. On considère n + 1. S’il est premier c’est fini. S’il n’est pas premier,
il existe un diviseur d compris entre 2 et n. De même n/d est un entier compris entre 2 et n. Il suffit
d’appliquer l’hypothèse de récurrence à d et à n/d.
Par le principe de récurrence, tout entier naturel n supérieur ou égal à 2 peut s’écrire comme un produit de
nombre premier.
2 Les ensembles
Nous allons regarder les opérations que l’on peut faire avec les ensembles. Pour des problèmes de logiques
nous considérerons la plupart des temps des parties d’un grand ensemble qui sert d’univers.
Définition [Link]
F = { x ∈ E | P( x )}.
Remarque : C’est l’une des méthodes de décrire un ensemble. Il y en a essentiellement deux autres.
— Description « en extension » : cela consiste à donner la liste de tous les éléments de l’ensemble entre
accolades.
— Description paramètres : nous y reviendrons un peu plus loin, mais essentiellement cela consiste à donner
les éléments en fonction de paramètres. Par exemple :
{(2k, k + 1) | k ∈ N} ⊂ N2 .
Définition [Link]
On définit l’ensemble P ( E) qui est l’ensemble dont les éléments sont les parties de E.
Exemples :
1. Si E = {0, 1} alors P ( E) = {∅, {0}, {1}, {0, 1}}. Il faut bien faire attention à distinguer 0 qui est un
élément de E du singleton {0} qui est une partie de E.
2. Que vaut P (∅) ? et P (P (∅)) ?
68
2.2 Opérations dans P ( E)
Définition [Link]
A∪B
A B
A∩B A−B
A B A B
Remarque : La notation {E A est plus précise que A car elle indique dans quel "univers" on se situe.
Exercice : On pose E = R, A = [0, 3] et B =] − 1, 2[. Déterminer A ∪ B, A ∩ B, A, A − B et B − A.
Exercice : On pose E = R, F = N et A = {0, 1}. Déterminer {E A et {F A.
Proposition [Link]
69
Proposition [Link]
Notation : On généralise cela à un ensemble de parties. Si ( Ai )i∈ I sont des parties de E on note
[ \
Ai = { x ∈ E | ∃i ∈ I, x ∈ Ai } et Ai = { x ∈ E | ∀i ∈ I, x ∈ Ai }.
i∈ I i∈ I
Nous allons maintenant regarder le complémentaire d’une partie. Intuitivement cela correspond aux élé-
ments qui ne sont pas dans la partie que l’on regarde. Précisément on a :
Proposition [Link]
De plus, les liens entre le complémentaire et les réunions et intersections sont donnés par la proposition suivante.
Proposition [Link]
{E ( A ∪ B) = {E A ∩ {E B.
{E ( A ∩ B) = {E A ∪ {E B.
Soit E et F deux ensembles. On appelle produit cartésien de E et F, et on note E × F, l’ensemble dont les
éléments sont les couples ( x, y) où x est un élément de E et y un élément de F. On a donc :
E × F = {( x, y) | x ∈ E, y ∈ F }.
70
Notation : On notera E2 pour E × E.
Remarques :
1. On prendra garde que l’ordre compte dans un couple. L’élément (1, 2) ∈ R × R est différent de l’élément
(2, 1).
2. Il ne faut pas confondre le couple (1, 2) avec l’ensemble {1, 2}.
Exemple : On considère l’ensemble R × R. Ses éléments sont les couples de nombres réels. On peut donc
−
→ − →
représenter cet ensemble de la manière suivante. On considère le plan P et on le muni d’un repère (O, i , j ).
On associe alors à un point du plan son couple de coordonnées et réciproquement.
Voici une représentation de [0, 2] × [−1, 3].
Dessin
On peut aussi généraliser le produit cartésien à plus de deux ensembles.
Définition [Link]
3 Applications
3.1 Généralités
Définition [Link]
Soit E et F deux ensembles. Une application de E dans F est la donnée d’une partie Γ de E × F telle que pour
tout x dans E il existe un unique y dans F tel que ( x, y) ∈ Γ. La partie Γ s’appelle le graphe de l’application.
Remarques :
1. Cette définition correspond bien à la notion d’application vue en terminale. En effet, à tout élément x de E
on associe l’unique élément y de F tel que ( x, y) ∈ Γ.
2. Il faut retenir que l’on associe, par définition, à tout élément de l’ensemble de départ, un unique élément
de l’ensemble d’arrivé. Il faut aussi noter que l’ensemble de départ et d’arrivé font partie intégrante de la
définition.
Exemples :
1. L’application "carré" de R dans R qui associe à un nombre x son carrée. Son graphe est la parabole
d’équation y = x2 .
2. L’application de N dans [0; 1] qui associe à un entier n le nombre sin(n) si n est pair et cos(n) s’il est
impair.
3. Pour des ensembles finis on peut la représenter par des diagrammes :
71
E F
× ×
×
×
×
×
×
× ×
Terminologie :
— On note f : E → F une application de E dans F.
— Soit f : E → F, l’ensemble E s’appelle ensemble de départ et F s’appelle ensemble d’arrivé.
— Soit f : E → F. Si x est un élément de E, l’élément de F que l’on lui associe est noté f ( x ) et s’appelle
l’image de x par f .
— Si y est un élément de F, les éléments x de E tels que y = f ( x ) s’appellent les antécédents de y par f . Il
faut noter qu’un élément peut avoir zéro, un ou plusieurs antécédents.
— Soit f et g deux fonctions de E dans F. Elles sont égales si :
∀ x ∈ E, f ( x ) = g( x ).
— On note
f : E → F
x 7→ f (x)
IdE : E → E
x 7→ x.
4. La fonction partie entière de R dans R associe à tout réel x, l’unique entier p tel que p > x < p + 1. Son
graphe est :
-4 -3 -2 -1 0 1 2 3 4
-1
-2
-3
72
Définition [Link]
Soit E un ensemble et A une partie de E. On appelle fonction indicatrice de A (ou fonction caractéristique de
A) et on note 1 A (on trouve aussi χ A ) la fonction de E dans {0, 1} définie par
1A : E → {0, 1}
1 si x ∈ A .
x 7→
0 si x ∈
/A
Les fonctions indicatrices permettent de transformer les problèmes sur les ensembles en problèmes sur les
fonctions (et cetla peut-être utile).
Proposition [Link]
1 A∩ B = 1 A × 1B
f|A : A → F
x 7→ f ( x ).
∀ x ∈ A, f˜( x ) = f ( x ).
Exemples :
1. Soit [.] la fonction partie entière de R dans R. Sa restriction à l’intervalle [0; 1[ est la fonction constante
égale à zéro. Sa restriction à N est la fonction IdN .
2. Soit
f : ]0; +∞[ → R
x 7→ x ln x.
On veut prolonger f en 0. On sait que
lim x ln x = 0.
x →0+
f˜ : [0; +∞[ → R
x ln x si x > 0
x 7→
0 si x = 0.
Dessin
73
Définition [Link]
Exemples :
1. Soit f : R → R l’application définie par f ( x ) = cos( x ) et g : R → R l’application définie par g( x ) = x2 .
Alors f ◦ g est x 7→ cos( x2 ) et g ◦ f est x 7→ cos2 x. On voit que la composition n’est pas commutative.
2. Dessin avec des patates.
h ◦ ( g ◦ f ) = (h ◦ g) ◦ f .
f ( A) = {y ∈ F | ∃ x ∈ A, y = f ( x )} = { f ( x ) | x ∈ A}.
f # ( B ) = { x ∈ E | f ( x ) ∈ B }.
Remarques :
1. L’image directe d’une partie A par une application f : E → F est l’ensemble des images par f des éléments
de A. C’est une partie de F.
2. L’image réciproque d’une partie B par une application f est l’ensemble des antécédents par f des éléments
de B. C’est une partie de E.
Exemples :
1. Soit f : R → R définie par ∀ x ∈ R, f ( x ) = x2 + x. Soit A = [−3; 4] et B =]2, 6].On cherche f ( A) et f # ( B).
Dans ce cadre, nous pourrons plus tard utiliser des théorèmes du type du TVI. Essayons de la faire pour
le moment « à la main ». On peut remarquer que graphiquement on voit la solution à savoir :
74
Dessin
2. Un exemple avec des patates.
Proposition [Link]
Démonstration
Définition [Link]
Terminologie : Une application injective s’appelle une injection ; une application surjective s’appelle une
surjection ; une application bijective s’appelle une bijection.
Exemples :
1. Illustrons ces définitions avec des patates.
2. Illustrons maintenant cela avec des application de R dans R
— Une application est injective si son graphe coupe au plus une fois les droites horizontales. Par
exemple x 7→ e x .
— Une application est surjective si son graphe coupe toutes les droites horizontales. Par exemple
x 7→ x3 − x. On prendra garde à l’ensemble d’arrivée. Par exemple x 7→ x2 n’est pas surjective si elle
est considérée de R dans R mais elle le devient si on regarde de R dans R+ .
— L’application de R dans R qui associe x3 à x est bijective.
Proposition [Link]
75
— f bijective ⇔ ∀y ∈ F, ∃!x ∈ E, y = f ( x ).
La quantification de l’injctivité est moins immédiate. On a
Proposition [Link]
f injective ⇔ (∀( x, x 0 ) ∈ E × E, f ( x ) = f ( x 0 ) ⇒ x = x 0 ).
x 3 = x 03 ⇔ x 3 − x 03 = 0
⇔ ( x − x 0 )( x2 + xx 0 + x 02 ).
On suppose que x 0 est fixé et on étudie le trinôme x 7→ x2 + xx 0 + x 02 . Son discriminant est ∆ = −3x 02 .
— si x 0 6= 0 alors ∆ < 0 et ∀ x ∈ R, x2 + xx 0 + x 02 6= 0.
— si x 0 = 0 alors ∆ = 0 et la racine double de x2 = 0 est x = 0.
On a bien
x 3 = x 03 ⇒ x = x 0 .
Proposition [Link]
Démonstration :
1. On suppose que f et g sont injectives et on veut montrer que g ◦ f l’est aussi. Soit x et x 0 tels que
g ◦ f ( x ) = g ◦ f ( x 0 ). On a g( f ( x )) = g( f ( x 0 )) donc f ( x ) = f ( x 0 ) car g est injective. De plus f étant aussi
injective f ( x ) = f ( x 0 ) implique que x = x 0 .
Exercice : Montrer que Soit E, F et G trois ensembles ainsi que f : E → F et g : F → G.
1. Si g ◦ f est injective alors f aussi.
2. Si g ◦ f est surjective alors g aussi.
76
3.4 Application réciproque
Définition [Link] (Application réciproque)
Soit E et F deux ensembles et f une bijection de E dans F. La bijection réciproque de f est l’application de F
dans E qui associe à tout élément de E son unique antécédent. On la note f −1 .
Remarques :
1. Il est nécessaire que f soit bijective. En effet si f n’est pas injective on peut "avoir le choix" entre plusieurs
antécédents et si f n’est pas surjective on peut trouver des éléments de F qui n’ont pas d’antécédents.
2. Pour tout x de E on a f −1 ( f ( x )) = x. Cela signifie que f −1 ◦ f = IdE . De même f ◦ f −1 = IdF .
Exemples :
1. La fonction ln : R?+ → R est l’application réciproque de exp : R → R?+ .
√
2. La fonction :R+ → R+ est l’application réciproque de la restriction de x 7→ x2 à R+ .
Remarque : dans la plupart des cas, on ne sait exprimer l’application réciproque. C’est de ce fait une "nouvelle"
application.
Exercice : Soit f la fonction définie par :
f : R − {3} → R − {2}
2x + 3
x 7→ .
x−3
Montrer que f est bijective et trouver sa bijection réciproque.
Quelques propriétés des applications réciproques maintenant.
Proposition [Link]
Corollaire [Link]
77
Proposition [Link]
( g ◦ f ) −1 = f −1 ◦ g −1 .
Démonstration : On remarque d’abord que g ◦ f est bijective car elle est injective et surjective. De plus on a :
∀y ∈ F, f # ({y}) = { f −1 (y)}.
f # ( A ) = f −1 ( A ).
C’est à dire que l’image réciproque de A par f est aussi l’image directe de A par f −1 .
3.5 Familles
Définition [Link]
Soit E et I deux ensembles. Une famille d’éléments de E indexées par I est une application de I dans E.
C’est-à-dire que pour tout élément i de I on se donne un élément xi de E. On note ( xi )i∈ I la famille.
Remarques :
1. Une famille indexée par N s’appelle une suite.
2. La donnée d’une famille ( xi )i∈ I d’éléments de E indexée par I permet de se donner une partie de E notée :
{ x i | i ∈ I }.
Définition [Link]
78
Définition [Link]
Soit E un ensemble, on appelle partition de E la donnée d’une famille ( Ai )i∈ I de parties de E telles que :
1. elles "recouvrent" l’ensemble E : [
Ai = E
i∈ I
2. elles sont deux à deux disjointes : soit i et j deux éléments disjoints de I alors Ai ∩ A j = ∅.
Remarques :
1. La définition précédente signifie pour pour chaque x dans E il existe un unique i dans I tel que x ∈ Ai .
2. Dans certains ouvrages on demande de plus à une partition que les ensembles Ai soient distincts de
l’ensemble vide. Cela n’est qu’un point de détail.
Exercices :
1. Écrire la deuxième condition à l’aide de quantificateurs
2. Donner toutes les partitions en ensembles non vides de {0, 1} puis de {0, 1, 2}.
4 Relations binaires
4.1 Généralités
Définition [Link]
Terminologie :
— L’ensemble Γ s’appelle le graphe de la relation
— Soit x et y deux éléments de E. On note xRy si ( x, y) ∈ Γ. On dit alors que x et y sont en relation.
Exemples :
1. On peut définir une relation en prenant Γ = ∅. Dans ce cas aucun élément n’est en relation avec un autre
(ce n’est pas passionnant).
2. On peut définir une relation en prenant Γ = E × E. Dans ce cas tout élément est en relation avec tout autre
élément (ce n’est pas passionnant non plus).
3. Sur R. On peut définir la relation binaire définie par xRy si et seulement si x et y sont de même signe.
Quel est son graphe ?
Soit E un ensemble. Une relation d’équivalence sur E est une relation binaire qui vérifie les condition suivante :
1. Elle est réflexive c’est-à-dire : ∀ x ∈ E, xRx.
2. Elle est symétrique c’est-à-dire : ∀( x, y) ∈ E2 , xRy ⇒ yRx.
3. Elle est transitive c’est-à-dire : ∀( x, y, z) ∈ E3 , xRy et yRz ⇒ xRz.
Remarque : Pourquoi demander la symétrie alors que cela semble découler de la réflexivité et de la transitivité ?
Notation : Les relations d’équivalences se notent ∼, ', ∼
=, ≈, ≡. Dans la suite nous les noterons '.
Exemples :
1. Soit E un ensemble. La relation d’égalité définie par xRy ⇔ x = y est une relation d’équivalence.
2. Dans R. La relation de congruence modulo un réel A vu au chapitre des nombres complexes est une
relation d’équivalence.
79
3. Soit Z l’ensemble des entiers relatifs et N un entier non nul. On définit la relation xRy ⇔ x − y est
divisible par N. Vérifions que c’est une relation d’équivalence. On note alors x ≡ y[ N ].
Définition [Link]
Cx = { y ∈ E | y ' x }.
2. On appelle classe d’équivalence de E pour la relation ', toute partie A de E telle qu’il existe un élément
x de E dont c’est la classe d’équivalence. Les éléments x dont c’est la classe d’équivalence s’appellent les
représentants de A.
Exemples :
1. Si on reprend l’égalité sur E. Les classes d’équivalences sont les singletons.
2. Si on reprend la congruence modulo N. Les classes d’équivalence sont de la forme {n + kN | k ∈ Z}.
Proposition [Link]
Démonstration
Remarque : La dernière assertion signifie que les classes d’équivalence définissent une partition de E.
Soit E un ensemble. Une relation d’ordre sur E est une relation binaire qui vérifie les condition suivante :
1. Elle est réflexive c’est-à-dire : ∀ x ∈ E, xRx.
2. Elle est antisymétrique c’est-à-dire : ∀( x, y) ∈ E2 , xRy et yRx ⇒ x = y.
3. Elle est transitive c’est-à-dire : ∀( x, y, z) ∈ E3 , xRy et yRz ⇒ xRz.
La donnée de E et de la relation d’ordre s’appelle un ensemble ordonnée.
( x1 , y1 ) 6 ( x2 , y2 ) ⇔ ( x1 < y1 ) ou [( x1 = y1 ) et ( x2 6 y2 )].
80
Définition [Link]
Soit ( E, 6) un ensemble ordonné. On dit que l’ordre est total ou que E est totalement ordonnée si pour tout
couple ( x, y) de E × E, x 6 y ou y 6 x.
Si l’ordre n’est pas total on dit qu’il est partiel.
Exemples :
1. L’ordre classique dans R est un ordre total.
2. L’inclusion dans P ( E) est un ordre partiel dès que E a au moins deux éléments.
Définition [Link]
∀ a ∈ A, a 6 x.
∀ x ∈ A, x 6 a.
Exemples :
1. L’ensemble [0, 1] est bornée. Il admet 1 comme majorant mais aussi π. Son plus grand élément est 1.
2. L’ensemble ] − e, +∞[ est minoré mais n’est pas majoré. −e est un minorant, −50 aussi. Par contre il n’y a
ni plus grand élément, ni plus petit élément.
3. L’ensemble Q n’est pas borné.
Proposition [Link]
81
1 Généralités
Primitives
4 82
1.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
1.2 Primitives usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
2 Méthodes de calculs 84
2.1 Intégration par partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
2.2 Changement de variables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
2.3 Calculs classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
Nous allons revoir les notions principales déjà vues en terminale sur les primitives. Nous verrons aussi la
méthode du changement de variables pour calculer les primitives.
Dans tout ce paragraphe I désigne un intervalle de R.
1 Généralités
1.1 Définition
Définition [Link]
Soit f une fonction définie sur I. On dit qu’une fonction F est une primitive de f sur I si et seulement si F et
dérivable et F 0 = f .
Théorème [Link]
Démonstration : Ce théorème est admis pour le moment. Sa démonstration sera obtenue dans le chapitre sur
l’intégration.
Remarque : On peut trouver des fonctions non continues qui admettent des primitives. Si on prend par
exemple
2 1
x sin si x 6= 0
F : x 7→ x
0 sinon
82
On vérifie que cette fonction est dérivable mais sa dérivée
1 1
2x sin − cos si x 6= 0
f : x 7→ x x
0 sinon
Proposition [Link]
Soit f une fonction définie sur I admettant une primitive F sur I. L’ensemble des primitives de f sur
I sont les fonctions de la forme
x 7→ F ( x ) + C.
Démonstration : On voit de manière évidente que ces fonctions sont bien des primitives de f . Réciproquement,
si G est une primitive de f alors la fonction F − G est de dérivée nulle. Or I est un intervalle donc F − G est
constante.
Remarques :
1. Le fait qu’une fonction de dérivée nulle sur un intervalle set constante sera démontré par la suite.
2. Il est essentielle d’être sur un intervalle. Par exemple, si on considère f : x 7→ 1/x sur R? . On a x 7→ ln | x |
comme primitive mais aussi
ln x + 1 si x > 0
x 7→
ln(− x ) + 2 si x < 0
Notation : ZAvec les mêmes notations, si a est un élément de I. On notera l’unique primitive de f qui s’annule
x
en a : x 7→ f (t) dt.
a
De même, pour désigner une primitive de f , on notera
Z x
f (t) dt.
83
Fonction Primitive Intervalle
x n +1
x n (n ∈ N) R
n+1
x n +1
x n (n ∈ Z, n < −1) R?+ ou R?−
n+1
x α +1
x α (α ∈ R \ {−1}) sur R?+
α+1
1/x ln | x | R?+ ou R?−
ln | x | x ln | x | − x R?+ ou R?−
ex ex R
cos x sin x R
sin x − cos x R
ch x sh x R
sh x ch x R
tan x − ln | cos x | ] − π/2 + kπ, π/2 + kπ [
cotanx ln | sin x | ]kπ, (k + 1)π [
th x ln | ch x | R
1/(cos2 x ) tan x ] − π/2 + kπ, π/2 + kπ [
1/(sin2 x ) −cotantx ]kπ, (k + 1)π [
1/( ch 2 x ) th x R
1/( sh 2 x ) −1/ th x R?+ ou R?−
1/(1 + x2 ) arctan x R
1 1+x
1/(1 − x2 ) ln ] − ∞, −1[ ou ] − 1, 1[ ou ]1, +∞[
√ 2 1−x
1/ 1 − x2 arcsin x ] − 1, 1[
1 √ √ √
√ (h ∈ R? ) ln | x + x2 + h| R si h > 0; ] − ∞, − −h[ et ] −h, +∞[ sinon
h + x2
Remarques :
1. La primitive de ln se retrouve à l’aide d’une intégration par parties.
2. Ne pas confondre a x avec x a .
Exemple : On a ∀ x ∈ R?+ ,
Z x
1 1
dt = ln2 ( x ).
t ln(t) 2
2 Méthodes de calculs
Les méthodes de calculs de primitives sont les mêmes que les méthodes pour calculer les intégrales. La seule
différence est dans la gestion des constantes. Nous alternerons donc entre les deux visions.
84
Proposition [Link]
Soit u et v deux fonctions dérivables sur I = [ a, b] dont les dérivées sont continues. On a
Z b Z b
u0 v = [uv]ba − uv0 .
a a
Définition [Link]
Soit f une fonction définie sur un intervalle I. On dit qu’elle est de classe C 1 si elle est dérivable et que sa
dérivée est continue.
Exemple : On a Z x Z x
∀ x ∈ R, tet dt = xe x − et dt = xe x − e x .
85
Théorème [Link]
Remarques :
1. Cette formule peut se lire dans les deux sens nous allons le voir sur deux exemples.
2. Il n’est pas nécessaire que ϕ soit bijective.
Exemples :
Z 7
1. Calculons −2 cos7 t sin t dt. On pose u = cos t. C’est le sens de l’exemple précédent. Cela consiste
3
à lire la formule ci-dessus de gauche à droite. La fonction t 7→ cos t est de classe C 1 sur [3, 7] et on a
du = − sin t dt. D’où
Z 7 Z cos(7)
7 cos8 (7) − cos8 (3)
−2 cos t sin t dt = 2u7 du = .
3 cos(3) 4
Z 1 p
2. Calculons 1 − u2 du. On pose u = cos t. Cette fois-ci on va lire l’égalité de la proposition de la droite
−1
vers la gauche. Là encore t 7→ cos t est de classe C 1 sur R. De plus du = − sin t dt. Le changement des
bornes est un peu plus subtil. En effet on doit « inverser »le changement de variables. Ici on doit trouver
a et b tel que cos( a) = −1 et cos(b) = 1. De fait on choisit les antécédents que l’on veut. Je vais prendre
a = π et b = 0. On a alors
Z 1 p Z 0p
1 − u2 du = 1 − cos2 t(− sin t) dt
−1 π
Z π
= sin t sin t dt
0
Z π
1 − cos(2t) dt
=
0 2
π sin(2t) π
= −
2 4 0
π
= .
2
Remarque : On peut aussi se servir du changement de variables pour trouver des primitives. Il faudra alors
faire attention aux bornes. Essayons par exemple, en reprenant l’exemple ci-dessus de déterminer la primitive F
Z xp
√
de u 7→ 1 − u2 sur [−1, 1] qui s’annule en 0. On a F ( x ) = 1 − u2 du. On pose là encore le changement
0
de variables u = cos t On trouve alors
Z arccos( x) π √
sin(2 arccos x ) π x 1 − x2
F(x) = − sin t sin t dt = − arccos x + = − arccos x + .
π/2 2 4 2 2
Notons d’ailleurs que cette fonction est, par construction, de classe C 1 sur [−1, 1] comme primitive de
fonction continue contrairement à ce que l’arccosinus pourrait faire croire.
Exercices :
1. Refaire le calcul du deuxième exemple en prenant −π pour antécédent de −1.
ln t
2. Déterminer une primitive de t 7→ .
t
86
Utilisation de changements de variables affines
1. Parité : Si f est une fonction paire définie sur un intervalle I. On peut utiliser le changement de variable
u = −t. On trouve alors que pour tout x dans I,
Z x Z −x Z 0
f (t) dt = − f (−u) du = f (u) du.
0 0 −x
Z x Z x
On en déduit que f (u) du = 2 f (u) du.
−x 0
De même si f est impaire,
Z x Z −x Z 0
f (t) dt = − f (−u) du = − f (u) du.
0 0 −x
Z x
On en déduit que f (u) du = 0.
−x
2. Fonctions périodiques : Soit f une fonction périodique de période T. En posant u = t + T on trouve que
pour tout ( a, b),
Z b Z b+ T Z b+ T
f (t) dt = f (u − T ) du = f (u) du.
a a+ T a+ T
On en déduit que pour tout a,
Z a+ T Z T Z 0 Z T Z a+ T Z T
f− f = f+ f+ f− f = 0.
a 0 a 0 T 0
3. Transformation en une intégrale sur [0, 1] : Soit f une fonction continue. Si on pose t = a + (b − a)u. On
obtient Z b Z 1
f (t) dt = (b − a) f ( a + (b − a)u) du.
a 0
Z x Z x
∀ x ∈ R, sin5 t. cos2 t dt = sin t.(1 − cos2 t)2 cos2 t dt
Z x
= sin t.(cos2 t − 2 cos4 t + cos6 t) dt
1 2 1
= − cos3 x + cos5 x − cos7 x.
3 5 7
Si p et q sont pairs : la méthode précédente ne fonctionne plus. On va linéariser.
87
1
Calculs des primitives des fonctions de la forme t 7→
at2 + bt + c
Soit ( a, b, c) trois réels (avec a 6= 0 sinon on sait faire). On veut calculer une primitive (ou une intégrale) de
1
t 7→ 2 en se plaçant sur un intervalle I où at2 + bt + c ne s’annule pas.
at + bt + c
Il y a trois cas :
— Si at2 + bt + c a deux racines réels distinctes (discriminant strictement positif) que l’on note α et β. On
peut le factoriser
at2 + bt + c = a(t − α)(t − β).
Par la suite, on chercher A, B tels que
1 A B
∀t ∈ I, = +
a(t − α)(t − β) t−α t−β
On peut les déterminer en mettant tout au même dénominateur ou en multipliant par (t − α) pour
déterminer A et par (t − β) pour déterminer B. Cette méthode sera justifiée un peu plus tard dans le
chapitre sur les fractions rationnelles.
Par exemple, calculons sur I = [0, 1]
Z x
dt
2
.
2t − 2t − 4
On factorise et on obtient
1 1
∀t ∈ I, 2 = .
2t − 2t − 4 2(t + 1)(t − 2)
On cherche alors A, B tels que
1 A B
∀t ∈ I, = + .
2(t + 1)(t − 2) t+1 t−2
On trouve A = −1/6 et B = 1/6. On a donc
Z x Z x Z x
dt 1 dt dt 1 x−2
= − = ln .
2t2 − 2t − 4 6 t−2 t+1 6 x+1
— Si at2 + bt + c a deux racines complexes conjuguées (discriminant strictement négatif). On fait la mise
Z
du
sous forme canonique et on se ramène à par un changement de variables.
Z x
1 + u2
dt
Calculons par exemple . On a
t2 − 4t + 6
Z x Z x
dt dt
2
=
t − 4t + 6 ( t − 2)2 + 2
Z x
1 dt
=
2 t−2 2
√ +1
2
t−2
On pose alors u = √ et on obtient :
2
Z x Z ( x −2) / √2 √ √
dt 1 2 du 2 x−2
= = arctan √ .
t2 − 4t + 6 2 u2 + 1 2 2
Z 1
dt
Exercice : Calculer
0 t2 + t + 1
Remarques :
88
1. Cette méthode est très importante. Elle permet de calculer toutes les primitives des fractions ration-
nelles (voir plus loin).
2. On peut gérer le dernier cas comme le premier en passant dans C. En effet, on peut aussi se ramener
à des primitives du type
Z x
dt
t−α
avec α ∈ C. Il suffit alors d’utiliser (ou de redemonter) le lemme suivant
Lemme [Link]
1
Soit α = u + iv ∈ C avec v 6= 0. La fonction t 7→ est continue sur R et admet donc des
(t − α)n
primitives sur R. De plus
1 1
Z x si n 6= 1
dt − n + 1 ( x − α ) n −1
n
= 1 x−u
(t − α)
2 2
ln(( x − u) + v ) + i arctan si n = 1
2 v
1 t−α
=
t−α | t − α |2
t−α
=
( t − u )2 + v2
t−u v
= 2 2
+i
(t − u) + v ( t − u )2 + v2
t−u 1 1
= +i
( t − u )2 + v2 v ((t − u)/v)2 + 1
Il ne reste qu’à intégrer.
89
Équations
5
différentielles
1 Généralités 90
1.1 Définition et exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
1.2 Équations différentielles linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
Une équation différentielle est une équation reliant les valeurs d’une fonction aux valeurs de ses déri-
vées. Les équations différentielles sont très utilisées en physique (principe fondamental de la dynamique,
électromagnétisme, radioactivité...).
Dans tout ce chapitre, nous nous intéresserons à des fonctions définies sur un intervalle I (non réduit à un
point) et à valeurs dans K = R ou C.
1 Généralités
1.1 Définition et exemples
Nous allons donner une définition générale de ce que nous entendrons par équation différentielles. Dans la
pratique nous nous intéresserons seulement à des cas très particuliers.
90
Définition [Link]
Soit n un entier non nul. On appelle équation différentielle d’ordre n, la donnée d’une application F définie sur
une partie de R × Kn . On note alors l’équation :
Remarque : Dans la pratique on travaille uniquement avec n = 1 (équation différentielle du premier ordre :
y0 = F (t, y)) et n = 2 (équation différentielle du second ordre : y00 = F (t, y, y0 )).
Définition [Link]
Soit I un intervalle de R et y(n) = F (t, y, y0 , . . . , y(n−1) ) une équation différentielle. On appelle solution de
l’équation différentielle sur I toute fonction f définie et suffisamment dérivable sur I telle que pour tout t dans
I,
y(n) (t) = F (t, y0 (t), . . . , y(n−1) (t)).
Remarques :
1. Il est important de noter que résoudre une équation différentielle n’a de sens que sur un intervalle fixé. Si
on considère par exemple l’équation
1
y0 = .
x
On sait que sur R?+ les solutions sont x 7→ ln x + K où K ∈ R. Alors que sur R?− les solutions sont
x 7→ ln(− x ) + K où K ∈ R. De plus il est essentiel d’être sur un intervalle et non sur une partie de R
quelconque car les équations différentielles correspondent à la « propagation » d’un phénomène. Si on
travaille par exemple sur R? ce que l’on va trouver pour les nombre négatifs ne sera pas lié à ce que l’on
va obtenir pour les nombres positifs.
2. Il faut avoir conscience, que l’on ne sait résoudre de manière exacte qu’un très petit nombre d’équations
différentielles. Nous n’étudierons que deux cas très particuliers. Dans la pratique, on a recours à de
méthode approchée via des simulations numériques sur ordinateurs.
Exemples :
1. y0 = 0
2. yy0 = 2
3. y000 + sin(y) = 0.
4. La désintégration radioactive : Si on considère un échantillon d’un élément radioactif. Si on note N (t) le
nombre d’atomes présent dans l’échantillon à l’instant t, alors :
mz00 = −mg.
mx 00 = −kx.
mx 00 = −kx − λx 0 .
mx 00 + λx 0 + kx = A sin(ωt).
91
1.2 Équations différentielles linéaires
Soit n un entier non nul et I un intervalle. Un équation différentielle linéaire d’ordre n est une équation de la
forme :
a n ( t ) y ( n ) + · · · + a1 ( t ) y 0 + a0 ( t ) y = b ( t ) ,
où les a0 , a1 , . . . , an et b sont des fonctions définies sur I. Les fonctions a0 , . . . , an s’appellent les coefficients
de l’équation différentielle et la fonction b s’appelle le second membre.
Exemples :
1. Une équation différentielle linéaire d’ordre 1 s’écrit donc
a1 ( t ) y 0 + a0 ( t ) y = b ( t ).
2. Une équation différentielle linéaire d’ordre 2 s’écrit donc
a2 (t)y00 + a1 (t)y0 + a0 (t)y = b(t).
Remarque : On ne demande pas aux fonctions ai d’être linéaire... L’équation y00 + cos(t)y0 − et y = sin t est
linéaire mais sin(y0 ) = 2y ne l’est pas.
Définition [Link]
a n ( t ) y ( n ) + · · · + a1 ( t ) y 0 + a0 ( t ) y = b ( t ) (E)
Elle est dite homogène si b est la fonction nulle. De manière générale, l’équation différentielle linéaire homogène
obtenue en prenant b = 0 pour second membre (et en conservant les mêmes coefficients) s’appelle équation
différentielle linéaire homogène associée.
Soit ( E) une équation différentielle linéaire d’ordre n définie sur un intervalle I et ( H ) l’équation
homogène associée.
1. L’ensemble S H des solutions de ( H ) est un sous-espace vectoriel de F ( I, K).
2. S’il existe une solution f 0 de ( E) on a SE = { f + f 0 | f ∈ S H }. On dit alors que SE est un
espace affine de direction S H . C’est-à-dire
f ∈ SE ⇐⇒ ( f − f 0 ) ∈ S H .
Démonstration
Proposition [Link] (Principe de superposition)
et
a n ( t ) y ( n ) + · · · + a1 ( t ) y 0 + a0 ( t ) y = b − 2( t ). (E2 )
Soit f 1 une solution de (E1 ) et f 2 une solution de (E2 ). Alors f 1 + f 2 est solution de l’équation :
92
2 Équation différentielle linéaire d’ordre 1
2.1 Généralités
Définition [Link]
a1 ( t ) y 0 + a0 ( t ) y = b ( t ).
y 0 + a ( t ) y = b ( t ).
Pour cela, il suffit de diviser par a1 (t) en ayant pris soin de découper l’intervalle de définition aux éventuelles
racines de a1 .
Théorème [Link]
Soit I un intervalle et a : I → R une fonction continue sur I. Les solutions de l’équation différentielle
y0 + a(t)y = 0 sont les fonctions f définies sur I par :
Remarques :
1. Le fait que a soit continue assure l’existence des primitives A.
2. Modifier une primitive A par une autre primitive de la forme B(t) = A(t) + C revient à modifier la
constante λ.
3. On peut retrouver la formule par le calcul suivant.
y0 = ay → y0 = − ay
y0
→ = −a
y
Z x 0 Z x
y
→ =− a
y
→ ln(y) = − A( x ) + K
→ y = λ.e− A(t) .
Attention, le calcul précédent n’est pas rigoureux et ne constitue pas une preuve du théorème.
Démonstration : On commence par vérifier que les fonctions x 7→ λ.e− A(t) sont bien des solutions.
Maintenant, soit f une solution de l’équation différentielle. On considère la fonction g définie par :
93
1. Considérons l’équation y0 = 0. Les solutions sont les fonctions définies sur R par t 7→ λ avec λ ∈ R.
2. Considérons l’équation y0 = y. Les solutions sont les fonctions définies sur R par t 7→ λet avec λ ∈ R.
2
3. Considérons l’équation y0 = ty. Les solutions sont les fonctions définies sur R par t 7→ λet /2 avec λ ∈ R.
y
4. Considérons l’équation y0 = . Les solutions sont les fonctions définies sur R?− ou R?+ par t 7→ λx avec
t
λ ∈ R.
2y
5. Considérons l’équation y0 = . Les solutions sont les fonctions définies sur R?− ou R?+ par t 7→ λt2 avec
t
λ ∈ R.
y0 + a(t)y = 0. (H)
y0 + ty = t (E)
y0 + ty = 0. (H)
De plus on remarque que la fonction constante égale à 1 est solution de (E). On en déduit que :
2 /2
SE = {t 7→ 1 + λe−t | λ ∈ R }.
La plupart du temps, il ne sera pas aussi simple de trouver une solution particulière. On a alors recours à la
méthode dite de la variation de la constante.
Le principe est de chercher une solution particulière de la forme :
f : t 7 → λ ( t ) e− A(t)
D’où
f solution de E ⇐⇒ ∀t ∈ I, f 0 (t) + a(t) f (t) = b(t)
⇐⇒ ∀t ∈ I, λ0 (t)e− A(t) − λ(t) a(t)e− A(t) + a(t)λ(t)e− A(t) = b(t)
⇐⇒ ∀t ∈ I, λ0 (t) = b(t)e A(t) .
On en déduit donc
94
Proposition [Link]
y0 + a(t)y = b(t)
Remarque : On peut supprimer la constante si on fait varier la borne « en bas »de l’intégrale.
Exemples :
1. On veut résoudre
y0 + y = cos x (E)
y0 + y = 0. (H)
S H = { x 7→ λe− x | λ ∈ R}.
f : x 7→ λ( x )e− x où λ : R → R,
Il ne reste plus qu’a trouver une primitive de e x cos x. Pour cela on remarque que
∀ x ∈ R, e x cos x = Re e(1+i)x .
On en déduit que la fonction x 7→ 12 (cos x + sin x )e− x est une solution particulière et que
1 −x
SE = x 7→ (cos x + sin x + λ)e | λ ∈ R .
2
y0 + y = 1 + cos x (E)
y0 + y = 0. (H)
95
On voit que la fonction constante égale à 1 est solution de y0 + y = 1. On sait de plus que x 7→ 12 (cos x +
sin x )e− x est solution de y0 + y = cos x. On en déduit que
1
x 7→ 1 + (cos x + sin x )e− x
2
est une solution particulière de (E). Donc on a
1 −x
SE = x 7→ 1 + (cos x + sin x + λ)e | λ ∈ R .
2
xy0 + y = x cos x.
y0 + a( x )y = b( x )
avec a et b des fonctions continues sur un intervalle I. Soit t0 dans I et y0 dans K. Résoudre l’équation avec
la condition initiale y(t0 ) = y0 revient à trouver toutes les fonctions f dérivables sur I, solution de l’équation
différentielle et vérifiant que f (t0 ) = y0 .
Remarque : On dira alors que l’on cherche à résoudre le problème de Cauchy :
0
y + a( x )y = b( x )
y ( t0 ) = y0 .
Théorème [Link]
Le problème de Cauchy
y0 + a( x )y = b( x )
y ( t0 ) = y0 .
a une unique solution donnée par
Z t
t 7→ b(u)e A(u)
du e− A(t) + y0 e A(t0 )− A(t) .
t0
2.5 Raccordement
On peut se poser la question de la résolution d’une équation différentielle
a0 y 0 + a1 y = b
sur un intervalle I où a0 s’annule. Le principe est alors de résoudre l’équation sur chaque sous-intervalle de I
où a0 ne s’annule pas et d’essayer ensuite de recoller les solutions. Il n’y a plus de résultats généraux. Traitons
un exemple.
Exemples :
1. Résolvons l’équation (E)
ty0 − 2y = 0
sur R. On pose I+ =]0, +∞[ et I− =] − ∞, 0[. On va résoudre l’équation sur chacun de ses intervalles. On
pose (E’) l’équation
2
y0 − y = 0.
t
96
2
Un primitive de t 7→ − sur I+ ou I− est A : t 7→ −2 ln |t|. On en déduit que les solutions sont
t
S± = {t 7→ λt2 }.
Soit f une éventuelle solution de (E) sur R, sa restriction à R+ et à R− vérifie l’équation. On en déduit
qu’il existe λ+ et λ− tels que
? λ+ t2 si t > 0
∀t ∈ R , f (t) =
λ− t2 si t < 0
Comme de plus, f doit être dérivable donc continue, on a f (0) = 0.
Réciproquement toutes ces fonctions sont solutions de l’équation sur R.
2. Résolvons maintenant l’équation (E)
ty0 − y = t2
(· · · )
On en déduit que les solutions sont
S± = {t 7→ λt + t2 }.
Soit f une éventuelle solution de (E) sur R, sa restriction à R+ et à R− vérifie l’équation. On en déduit
qu’il existe λ+ et λ− tels que
? λ+ t + t2 si t > 0
∀t ∈ R , f (t) =
λ− t + t2 si t < 0
Là encore, on doit avoir f (0) = 0. Mais cette fois, la fonction n’est dérivable que si λ− = λ+ .
Exercice : Résoudre sur ]0, +∞[ l’équation, t ln(t)y0 + y = 0.
où a, b et c sont des constantes complexes avec a 6= 0 et f une fonction définie sur un intervalle I. L’équation
homogène associée est alors
Remarque : Nous allons chercher les solutions dans F ( I, C). Cependant, nous verrons comment « revenir » à
R quand les constantes sont réelles.
Lemme [Link]
Démonstration
97
Définition [Link]
X 2 + aX + b = 0.
Démonstration : On peut commencer par remarquer que ce sont des solutions de manière évidente. Reste à
montrer que ce sont les seules. On va se ramener au cas d’une équation d’ordre 1. On considère α une solution
de l’équation (que ∆ soit nul ou non).
Soit f ∈ F (R, C) on considère g : t 7→ f (t)e−αt et donc f : t 7→ g(t)eαt . On caclule alors les dérivées de f en
fonction de celles de g et on trouve que pour tout t dans R :
f (t) = g(t)eαt , f 0 (t) = [αg(t) + g0 (t)]eαt , f 00 (t) = [α2 g(t) + 2αg0 (t) + g00 (t)]eαt .
On a alors
δ
— Si ∆ 6= 0. Dans ce cas 2aα + b = ± 6= 0 où δ vérifie que δ2 = ∆. Les solutions de ( F ) sont de la forme
a
t 7→ λe−δt/a .
98
Exemple : Résolvons l’équation y00 + iy0 − y = 0. L’équation caractéristique est X 2 + iX − 1 = 0. Le discriminant
vaut ∆ = 3 d’ou √ √
−i + 3 −i + 3
α1 = et α2 = .
2 2
Les solutions sont donc de la forme
√ √
t 7→ λeα1 t + µeα2 t = (λe 3t/2
+ µe− 3t/2
)e−it/2 .
Très souvent (en physique par exemple) on s’intéresse au cas où a, b et c sont des réels et on cherche les
solutions réelles de l’équation différentielle.
Avec les notations précédentes, suppose que a, b et c sont des réels. On note ∆ = b2 − 4ac le
discriminant de l’équation caractéristique. On a alors
— Si ∆ > 0 : on note α1 et α2 le deux racines réelles de l’équation caractéristique. On a
Démonstration :
— Les deux premiers cas sont les mêmes que dans C.
— Pour le troisième, on cherche d’abord les fonctions à valeurs complexes qui vérifient (H). Si on note α ± iβ
les deux racines conjuguées. Les solutions sont alors de la forme
Or elle est réelle, elle est donc égale à sa partie réelle qui est
t 7→ eαt (Re(λ) cos( βt) − Im(λ) sin( βt) + Re(µ) cos( βt) + Im(µ) sin( βt)) .
99
3. On considère l’équation y00 − 2y0 + 2y = 0. Son équation caractéristique est X 2 − 2X + 2 = 0. On voit que
1 − i et 1 + i sont racines simples. Les solutions sont de la forme :
4. Ce genre d’équations apparaissent en physique. Prenons par exemple un mobile attaché à un ressort.
On note f (t) la position relative du mobile par rapport au point d’équilibre (c’est-à-dire l’allongement
du ressort). On note k > 0 la constante de raideur du ressort et m la masse du mobile. On suppose que
l’on étire le ressort à la situation initiale (c’est-à-dire f (0) = 1) et que l’on le lâche sans vitesse initiale
(c’est-à-dire f 0 (0) = 0).
— La cas sans frottements : Dans ce cas, le principe fondamental de la dynamique (ou deuxième loi
de Newton) affirme que
m f 00 (t) = −k f (t).
Autrement dit, la fonction f vérifie l’équation différentielle :
k
y00 + y=0
m
√
k/m > 0. L’équation caractéristique est X 2 + k/m = 0. Ses racines sont ω = i k/m et ω =
où√
−i k/m. On en déduit qu’il existe des constantes λ et µ telles que pour tout t ∈ R,
√ √
f (t) = λ cos k/mt + µ sin k/mt .
√
En utilisant alors que f (0) = 1 et f 0 (0) = 0 on en déduit que f (t) = cos k/mt .
— La cas avec frottements : Dans ce cas, on suppose de plus que le mobile est soumis à une force de
frottement qui est inversement proportionnelle à la vitesse. Il existe une constante C > 0 telle que la
force soit −C f 0 (t). Dès lors, le principe fondamental de la dynamique (ou deuxième loi de Newton)
affirme que
m f 00 (t) = −C f 0 (t) − k f (t).
Autrement dit, la fonction f vérifie l’équation différentielle :
k
y00 + Cy0 + y = 0.
m
où a, b et c sont des constantes complexes et d une fonction définie sur un intervalle I. On est, par le théorème de
structure ramené à chercher des solutions particulières. On sait trouver des solutions particulières dans certain
cas.
100
Théorème [Link]
Soit
x 7→ c( x ) λ
Une constante 0
cos x i
e x cos x 1+i
Exemples :
1. On considère l’équation
L’équation caractéristique est X 2 − 3X + 2 = ( X − 1)( X − 2). On voit que 1 est racine. On peut chercher
une solution de la forme f : x 7→ axe x .
On trouve
S = { x 7→ (− x + λ)e x + µe2x | (λ, µ) ∈ R2 }.
En fait, il n’est pas nécessaire de mettre le b car il s’annule dans les calculs.
2. On considère l’équation
1−i x
x 7→ − e (cos(2x ) + i sin(2x )).
8
En prenant la partie réelle, on obtient que :
1
x 7→ − (cos(2x ) − +2 sin(2x ))e x
8
est une solution particulière de (E).
1
S = { x 7→ − (cos(2x ) − +2 sin(2x ))e x + λe x + µe3x | (λ, µ) ∈ R2 }.
8
3. Résoudre y00 + y0 + y = cos2 x
101
3.3 Equation avec des conditions initiales
On se donne (E) une équation différentielle linéaire du second ordre à coefficients constants :
Proposition [Link]
Soit t0 ∈ I et y0 , y00 dans K. Il existe une unique solution f de (E) qui vérifie que f (t0 ) = y0 et
f 0 (t0 ) = y00 .
Démonstration : Ce théorème est admis. Donnons quand même une idée de la preuve. On se place dans le cas
où K = C et où les deux racines de l’équations caractéristiques sont distinctes. Commençons déjà par justifier
qu’il existe une solution f 0 de l’équation ( E). Afin de simplifier les notations, on voit que quitter à diviser
par a qui n’est pas nul on peut supposer que a = 1. Ensuite, on note α et β les racines dans C de l’équation
caractéristique. On remarque alors que pour toute fonction y,
0
(y − αy)0 − β(y0 − αy) = y00 − (α + β)y0 + αβy = y00 + by0 + cy.
Or on sait qu’il existe des solutions z0 de l’équation z0 − βz = d(t). De plus l’équation y0 − αy = z0 a elle aussi
des solutions. On en déduit qu’il existe bien (au moins une) fonction f 0 vérifiant ( E).
On peut alors dire que
SE = { f 0 + h | h ∈ S H }
où (H) est l’équation homogène associée. On en déduit qu’il suffit alors de montrer que pour tout t0 ∈ I et tout
z0 , z00 dans C, il existe une unique solution h de ( H ) vérifiant
102
Nombres entiers,
6
sommes et produits
1 Les ensembles N et Z 103
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
1.2 Division euclidienne dans N . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
1.3 Principe de récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2 Suites classiques 105
2.1 Suites arithmétiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
2.2 Suites géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2.3 Suites artithmético-géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
2.4 Suites récurrentes linéaires d’ordre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3 Calculs de sommes et produits 108
3.1 Les signes ∑ et ∏ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108
3.2 Sommes classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
1 Les ensembles N et Z
1.1 Généralités
Définition [Link]
On appelle ensemble des entiers naturels (resp. relatifs) et on note N (resp. Z) l’ensemble :
103
Théorème [Link] (Admis)
L’ensemble N muni de son ordre naturel qui est total vérifie les propriétés suivantes :
1. Toute partie non vide de N admet un plus petit élément.
2. L’ensemble N n’est pas majoré.
3. Toute partie non vide majorée admet un plus grand élément.
Remarque : Toutes ces propriétés correspondent à l’intuition que l’on a sur les entiers naturels. De fait cela
permet de définir l’ensemble N car on peut prouver qu’il n’existe qu’un seul ensemble qui vérifie cela.
Corollaire [Link]
Démonstration : Cela découle du théorème précédent. Démontrons par exemple que toute partie non vide et
minorée de Z admet un plus petit élément. Soit A une partie minorée de Z et m un minorant de A. On considère
à = {n − m | n ∈ A}.
Par construction c’est une partie non vide de N. Notons d son plus petit élément et posons a = m + d. On
voit d’abord que a est un minorant de A. En effet pour tout n de A,
n − m > d ⇔ n > d + m = a.
De plus a est un élément de A car d est un élément de Ã. On en déduit que a est le plus petit élément de A.
Le reste est identique.
Remarques :
1. Une propriété essentielle des entiers est que si on considère un entier n naturel, il y a un entier (appelé
le successeur) qui est « juste après ». Pour cela il suffit de considérer l’ensemble A = {m ∈ N | m > n}.
Cet ensemble n’est pas vide car N n’est pas majoré. Il admet donc un plus petit élément. C’est n + 1. En
particulier, on a :
x > n ⇔ x > n + 1.
On a une propriété identique dans Z.
2. De même si on considère un entier naturel n non nul, il existe un entier (appelé prédécesseur) qui est
« juste avant » et de même dans Z sans l’hypothèse différent de 0.
Notation : Soit a et b deux entiers relatifs on note
[[ a ; b ]] = {n ∈ Z | a 6 n 6 b}.
Soit a et b deux entier naturels avec b 6= 0. Il existe n dans N tel que a < nb.
Démonstration : On considère l’ensemble A = {nb | n ∈ N}. On veut montrer que cet ensemble n’est pas
majoré par a. Supposons par l’absurde que A est majorée. Dans ce cas il admet un plus grand élément que l’on
peut noter Nb pour N ∈ N. Alors ( N + 1)b est dans A et ( N + 1)b > Nb ce qui contredit que Nb est le plus
grand élément de A.
On en déduit donc que A n’est pas majoré. De ce fait il existe n dans N tel que nb > a.
104
Théorème [Link] (Division euclidienne)
Soit a et b deux entiers naturels avec b non nul. Il existe un unique couple (q, r ) dans N2 qui vérifie :
a = qb + r et 0 6 r < b.
Démonstration : On considère A = {nb | n ∈ N} ∩ [[ 0 ; a ]] . Cet ensemble n’est pas vide car il contient 0. De
plus il est majoré par a. On en déduit qu’il existe un plus grand élément. On le note qb. On pose aussi r = a − qb
de telle sorte que a = qb + r.
Maintenant, a majore A, de ce fait, qb 6 a d’où r > 0. D’autre part, (q + 1)b n’est pas dans A (car il est
strictement supérieur à qb). On en déduit que
Exemples :
1. La division de 17 par 5 est 17 = 3 × 5 + 2.
2. On voit que a est divisible par b si et seulement si r est nul.
Remarque : Voir le cours d’informatique pour l’implémentation de ce calcul.
Démonstration : On considère l’ensemble A = {n ∈ N | P(n) est fausse}. Supposons par l’absurde que cet
ensemble ne soit pas vide. Dans ce cas il admet un plus petit élément N qui ne peut pas être 0 car 0 ∈ / A. On a
alors que N − 1 ∈/ A et de ce fait P( N − 1) est vraie. D’après la deuxième hypothèses, P( N ) est alors aussi vraie
ce qui est absurde. On peut donc conclure que A est vide et c’est ce que l’on voulait.
2 Suites classiques
2.1 Suites arithmétiques
Définition [Link]
Une suite (un ) à valeur complexe est une suite arithmétique s’il existe un complexe r tel que
∀n ∈ N, un+1 − un = r.
Remarque : Pour montrer qu’une suite est une suite arithmétique, on pourra calculer un+1 − un .
105
Proposition [Link]
un = u p + (n − p)r.
un = u0 + nr.
Une suite (un ) à valeur complexe est une suite géométrique s’il existe un complexe r tel que
∀n ∈ N, un+1 = run .
u n +1
Remarque : Pour montrer qu’une suite est une suite géométrique, on pourra calculer après avoir montré
un
que la suite ne s’annule pas...
Proposition [Link]
un = r n− p u p .
u n = u0 r n .
Une suite (un ) à valeur complexe est une suite arithmético-géométrique s’il existe des nombres complexes a et
b tels que
∀n ∈ N, un+1 = aun + b.
u0 = 7 et ∀n ∈ N, un+1 = −2un + 3.
106
2.4 Suites récurrentes linéaires d’ordre 2
Définition [Link]
Une suite (un ) à valeur complexe est une suite récurrente linéaire d’ordre 2 (homogène) s’il existe des nombres
complexes a, b et c tels que
∀n ∈ N, aun+2 + bun+1 + cun = 0.
Remarque : Si a = 0, la suite est alors arithmético-géométrique. Dans toute la suite on supposera donc a 6= 0.
Définition [Link]
Nous allons déterminer la terme général de ces suites. L’idée est la même que pour les équations différen-
tielles d’ordre 2 à coefficients constants. On va d’abord chercher des suites géométriques qui vérifient la même
relation de récurrence.
Dans toute la suite on se fixe a, b et c trois complexes. On note P = aX 2 + bX + c et on note (F) la relation :
∀n ∈ N, aun+2 + bun+1 + cun = 0.
Proposition [Link]
Soit α ∈ C.
1. On a P(α) = 0 ⇐⇒ la suite (αn ) vérifie la relation (F).
2. Si α 6= 0. On a P(α) = P0 (α) = 0 ⇐⇒ les suites (αn ) et (nαn ) vérifient la relation (F).
Démonstration :
1. On a
la suite (αn ) vérifie la relation (F) ⇐⇒ ∀n ∈ N, aun+2 + bun+1 + cun = 0
⇐⇒ ∀n ∈ N, aαn+2 + bαn+1 + cαn = 0
⇐⇒ ∀n ∈ N, αn P(α) = 0
⇐⇒ P(α) = 0
Pour la dernière équivalence, le sens ⇒ s’obtient en prenant n = 0.
2. Il suffit de procéder par double implication. Le fait que α 6= 0 sert pour le sens ⇐.
On en déduit le théorème suivant
Théorème [Link] (Cas complexe)
∀n ∈ N, un = λαn + µβn .
2. Si ∆ = 0. On note α la racine double qui est non nulle. Alors ((αn ), (nαn )) vérifient (F) et pour
toute suite (un ) vérifiant cette relation est de la forme, il existe (λ, µ) ∈ C2 tels que
∀n ∈ N, un = (λ + nµ)αn .
107
2
Exemple√: Si on considère√ la suite de Fibonnacci ( f n ). On trouve que les solutions de X − X − 1 = 0 sont
1+ 5 1− 5
ϕ= et ϕ0 = . Donc il existe λ et µ tels que ∀n ∈ N, f n = λϕn + µϕ0n . En résolvant le système
2 2
pour n = 0 et n = 1 on obtient
√
5
λ =
λ+µ = 0 λ+µ = 0 5 √ .
⇐⇒ ⇐⇒
λϕ + µϕ0 = 1 µ( ϕ0 − ϕ) = 1
1 5
µ = =−
( ϕ0 − ϕ) 5
Donc √ √ !n √ !n !
5 1+ 5 1− 5
∀n ∈ N, f n = − .
5 2 2
Lemme [Link]
Soit (un ) et (vn ) deux suites qui vérifient (F). Si u0 = v0 et u1 = v1 alors (un ) = (vn ).
108
Définition [Link]
si ( ai )i∈ I est une famille de nombres indexée par un ensemble fini I on note ∑ ai la somme des nombres et
i∈ I
∏ ai leur produit. Dans le cas où I = [[ 1 ; n ]] on a donc
i∈ I
n n
∑ a i = a1 + a2 + · · · + a n et ∏ a i = a1 × a2 × · · · × a n .
i =1 i =1
Soit n un entier, ( ai )i∈ I , (bi )i∈ I deux familles indexées par un ensemble fini I et λ un nombre. On a
∑(ai + bi ) = ∑ ai + ∑ bi et ∑(λ × ai ) = λ × ∑ ai .
i∈ I i∈ I i∈ I i∈ I i∈ I
n n +1 n −1 n −1
∑ a i = ∑ a i −1 = ∑ a i +1 = ∑ a n − i .
i =1 i =2 i =0 i =0
Remarque : Il ne faut pas hésiter (au moins au brouillon) à revenir à l’écriture en extension avec des points de
suspensions pour vérifier ces formules.
Proposition [Link]
Soit I et J deux ensembles finis. Soit ( ai )i∈ I et (b j ) j∈ J deux familles de nombres complexes.
! !
∑ ai × ∑ bj = ∑ ai b j .
i∈ I j∈ J (i,j)∈ I × J
En particulier
!2
n n
∑ ai = ∑ ai a j = ∑ a2i + ∑ ai a j .
i =1 2 i =1 2
(i,j)∈[[ 1 ; n ]] (i,j)∈[[ 1 ; n ]]
i6= j
Proposition [Link]
b
u a + ub
∑ u i = ( b − a + 1) × 2
.
i=a
109
Remarques :
1. Cette formule peut se retenir en disant que la somme vaut
Proposition [Link]
Définition [Link]
n n n n ( n + 1)
1. Pour tout entier n, = 1, = n et = .
0 1 2 2
2. Pour tout couple d’entiers (n, p),
n+1 n n
= + (Formule de Pascal).
p+1 p p+1
110
Démonstration
Soit ( a, b) ∈ C2 . On a n
n k n−k
∀n ∈ N, ( a + b) = ∑ n
a b .
i =0
i
Démonstration
Corollaire [Link]
Démonstration : On applique la formule du binôme avec a = b = 1 pour la première égalité puis avec a = −1
et b = 1 pour la seconde.
On peut aussi généraliser l’identité remarquable a2 − b2 = ...
Proposition [Link]
Démonstration
Somme téléscopique
Commençons par un exemple :
Exemple : si (un )n∈N est une suite alors
5
∑ ( u k +1 − u k ) = ( u 6 − u 5 ) + ( u 5 − u 4 ) + ( u 4 − u 3 ) + ( u 3 − u 2 ) + ( u 2 − u 1 ) = u 6 − u 1 .
k =1
Proposition [Link]
111
Démonstration : Par les décalages d’indices.
Exemple : On va calculer la somme des carrés (la somme des cubes se traite de manière identique). On remarque
que pour tout entier i,
(i + 1)3 − i3 = 3i2 + 3i + 1.
On en déduit que
n n n n
∑ (i + 1)3 − i3 = 3 ∑ i2 + 3 ∑ i+ ∑ 1.
i =0 i =0 i =0 i =0
D’où
n
n(n + 1)(2n + 1)
∑ i2 = 6
.
i =0
Exercice :
1. Rappeler la formule de Pascal pour les coefficients binomiaux.
n
i
2. En déduire ∑ .
i= p
p
Produit téléscopique
De manière identique on a
Proposition [Link]
si (un )n∈N est une suite de nombres non nuls, alors pour tout entier n,
n
u k +1 u
∏ u k
= n +1 .
u0
k =0
Proposition [Link]
Remarque : il est simple de se souvenir de la formule de la somme des cubes car on trouve le carré de la
somme des n premiers entiers.
Démonstration : Cela se démontre par récurrence. On peut les retrouver de proches en proche en utilisant le
calculs fait ci-dessus avec un télescopage.
u0 ∈ C et ∀n ∈ N, un+1 = un + αn
112
. Dans certains cas, si (αn ) n’est pas trop compliquée on peut retrouver le terme général. En effet, par télescopage :
n −1 n −1
∀ n ∈ N ? , u n − u0 = ∑ u k +1 − u k = ∑ α k .
k =0 k =0
Par exemple, si
u0 = 3 et ∀n ∈ N, un+1 = un + n + 2n
. On a
n −1
n ( n − 1 ) 1 − 2n n ( n − 1)
∀n ∈ N? , un − 3 = ∑ n + 2n = 2
+
1−2
=
2
+ 2n − 1.
k =0
On a donc
n ( n − 1)
+ 2n + 2.
∀n ∈ N, un =
2
On voit que la formule est encore vérifiée pour n = 0.
Sommes doubles
On peut travailler avec des sommes « sur des tableaux à deux dimensions ».
Soit n, m deux entiers naturels non nuls. Soit ( aij ) une famille de nombres indexés par [[ 1 ; n ]] ×
[[ 1 ; m ]].
On a
n m m n
∑ aij = ∑ ∑ aij = ∑ ∑ aij .
(i,j)∈[[ 1 ; n ]]×[[ 1 ; m ]] i =1 j =1 j =1 i =1
Soit n un entier naturel non nul. Soit ( aij ) une famille de nombres indexés par [[ 1 ; n ]]2 .
On a
n m n j
∑ aij = ∑ ∑ aij = ∑ ∑ aij .
16 i 6 j 6 n i =1 j = i j =1 i =1
113
Systèmes linéaires
7
Dans tout ce chapitre nous désignerons par K les ensembles de nombres R et C. Notre but est de résoudre
des systèmes d’équations linéaires. Les solutions d’un système à p inconnue sera une partie de K p . C’est pour
cette raison que nous allons commencer par étudier (rapidement) l’ensemble K p ainsi que sa structure.
1 L’ensemble K p
1.1 Définitions
Définition [Link]
Soit p ∈ N? , on rappelle que K p est le produit cartésien K × · · · × K (p fois). C’est-à-dire que K p est
l’ensemble des p-uplets d’éléments de K. On appellera les éléments de K p des vecteurs.
Remarques :
1. On pourrait à la limite définir aussi K0 . La meilleure méthode consiste alors à le définir comme étant un
l’ensemble ne contenant que 0. Cependant, nous essayerons d’éviter de traiter ce cas.
2. Nous expliquerons plus tard en détails la terminologie vecteur. Mais nous pouvons déjà remarquer que,
via un système de coordonnées, l’ensemble des vecteurs du plan est en correspondance avec R2 et que
l’ensemble des vecteurs de l’espace est en correspondance avec R3 .
3. On peut penser au plan et à l’espace pour se représenter R2 et R3 . Malheureusement il n’y a plus de telles
"images" pour Rn avec n > 4. Cependant, on peut continuer à avoir une intuition "géométrique".
Exemples :
1. Le vecteur (1, −1, π ) est un vecteur de R3 mais aussi de C3 . Le vecteur (i, 0) est un vecteur de C2 .
2. Soit n un entier fixé et i ∈ [[ 1 ; n ]] on notera souvent ei le vecteur dont la i-ème coordonnée est 1 est les
autres 0. Par exemple pour n = 3 on a :
3. On notera 0 (ou 0 ou 0K p ) le vecteur dont toutes les coordonnées sont nulles. Il s’appelle le vecteur nul.
114
Remarquons que l’on sait aussi faire le produit scalaire de deux vecteurs mais dans ce cas nous n’obtenons pas
un vecteur : cette opération ne sera donc pas prise en compte.
• Somme :
Définition [Link]
u = ( x1 , . . . , x p ) et (y1 , . . . , y p ).
u + v = ( x1 + y1 , . . . , x p + y p ).
Remarques :
1. Cela correspond à la somme de deux vecteurs du plan ou de l’espace.
2. On ne peut pas additionner des vecteurs de taille différente. Par exemple un vecteur du plan et un vecteur
de l’espace.
• Multiplication externe :
Définition [Link]
u = ( x1 , . . . , x p )
Remarques :
1. Cela correspond à la multiplication des vecteurs du plan ou de l’espace.
2. On ne multiplie pas un vecteur par un autre vecteur mais un vecteur par un scalaire.
• Propriétés :
Proposition [Link]
Remarque : Les propriétés ci-dessus expriment le fait que K p est un espace vectoriel.
115
Définition [Link]
Soit (u1 , . . . , un ) ∈ (K p )n . Une combinaison linéaire des (u1 , . . . , un ) est un vecteur v ∈ K p qui peut s’écrire
n
v= ∑ λi .ui où les λi sont des scalaires. L’ensemble des combinaisons linéaires des vecteurs (u1 , . . . , un ) se
i =1
note Vect(u1 , . . . , un ). C’est une partie de K p .
2 Systèmes linéaires
2.1 Définitions
Définition [Link]
116
Notations :
1. Les solutions du système (S) sont les vecteurs ( x1 , . . . , x p ) ∈ K p dont les coordonnées vérifient le système.
2. Si tous les termes du second membre sont nuls, le système est dit homogène.
3. Le système obtenu en conservant les coefficients mais en prenant un second membre nul s’appelle le
système homogène associé.
4. Les systèmes ayant autant de lignes que de colonnes s’appellent des systèmes carrés. C’est ceux que nous
étudierons le plus souvent.
Exemples :
2x + 3y = 2
1. Soit (S) le système
x − y = 7
2x + 3y − z + t = 0
2. Soit (S) le système y + t = 0
x + t= 0
3. Soit (S) le système x1 − x2 + · · · + (−1)n+1 xn = 7.
• Étude du cas homogène : On considère un système homogène ( H ). On peut remarquer qu’il a toujours
des solutions en particulier 0K p =(0,...,0) est une solution de ( H ). De plus, si u et v sont deux solutions de ( H )
alors toute combinaison linéaire de u et de v est encore une solution.
Définition [Link]
Un système n’ayant pas de solution est dit incompatible. Au contraire un système ayant des solution est dit
compatible. Un système carré n’ayant qu’une unique solution est dit de Cramer ou inversible.
117
Remarque : le fait d’être compatible ou non dépend en grande partie du second membre. En effet, un système
homogène est toujours compatible.
Exemples :
1. Les solutions d’un système homogène à trois inconnues est une partie de K3 stable par combinaisons
linéaires. Cela ne peut être que : l’ensemble réduit à 0, une droite passant par l’origine, un plan passant
par l’origine ou tout K3 .
2x + 3y + z = 0
— Le système y − z = 0 est inversible. Son unique solution est (0, 0, 0).
y + z = 0
2x − y − z = 0
— Le système y − z = 0 n’est pas inversible. Le vecteur u = (1, 1, 1) est une solu-
x − z = 0
tion. De fait ses solutions sont la droite Vect(u).
x + y + z = 0
— Le système 2x + 2y + 2z = 0 n’est pas inversible. Les vecteurs u = (1, −1, 0) et v =
3x + 3y + 3z = 0
(1, 0, −1). sont des solutions. De fait ses solutions sont le plan Vect(u, v).
2. Si on considère des systèmes qui ne sont plus homogènes.
2x + 3y + z = −2
— Le système y − z = 0 a pour solution le vecteur (−2, 1, 1). Comme le système
y + z = 1
homogène associé n’a que 0 comme solution c’est la seule.
2x − y − z = 1
— Le système y − z = 1 a pour solution u = (1, 1, 0). On en déduit que l’ensemble
x − z = 1
des solutions est la droite affine
118
Il est donc de la forme
a11 0 ··· 0 b1
0 a22 0 b2
.. .. .. .. .
. . . .
0 ··· ··· ann bn
Ces systèmes sont particulièrement simples à résoudre. En effet, ils peuvent être vus comme n équations
distinctes. Exemples :
2 0 0 4
1. On considère le système 0 −1 0 3 . Sa solution est {(2, −3, 0)}.
0 0 1 0
2 0 0 2
2. On considère le système 0 0 0 3 . Il est incompatible.
0 0 1 −1
2 0 0 2
3. On considère le système 0 0 0 0 . Ses solutions sont {(1, y, −1) ∈ R3 | y ∈ R}.
0 0 1 −1
Proposition [Link]
a11 0 ··· 0 b1
0 a22 0 b2
Soit (S) un système diagonal .. .. .. .. .
. . . .
0 ··· ··· ann bn
1. Si tous les aii sont non nuls, le système est inversible et son unique solution est
b1 bn
,..., .
a11 ann
2. S’il existe un i tel que aii = 0, le système n’est pas inversible. On note I l’ensemble des i tel que
aii = 0 et J son complémentaire.
— si pour tous les i dans I on a bi = 0 le système a une infinité de donnée. Le système
homogène ayant pour solution Vect((ei )i∈ I ).
— s’il existe un i de I tel que bi 6= 0 le système est incompatible.
— Systèmes triangulaires : Soit n ∈ N? . Un système carré de n équations à n inconnues est dit triangulaire
supérieur (resp. inférieur) si tous ses coefficients sous la diagonale (resp. sur la diagonale) sont nuls.
C’est-à-dire :
∀(i, j) ∈ [[ 1 ; n ]]2 , i > j ⇒ aij = 0 (resp. ∀(i, j) ∈ [[ 1 ; n ]]2 , i > j ⇒ aij = 0).
Il est donc de la forme
a11 a12 ··· a1n b1 a11 0 ··· 0 b1
0 a22 a2n b2 a21 a22 0 b2
.. .. .. .. resp. .. .. .. .. .
. . . . . . . .
0 ··· ··· ann bn an1 · · · · · · ann bn
119
2 1 2 2
3. On considère le système 0 0 4 −4 . La remontée, nous donne z = −1, y quelconque et
0 0 1 −1
x = 2 − y/2. L’ensemble des solution est alors : {(2 − y, 2y, −1) | y ∈ R}.
Les système triangulaires inférieurs se résolvent de la même manière mais en descendant. Cependant
nous n’en rencontrerons peu.
Proposition [Link]
a11 a12 ··· a1n b1
0 a22 a2n b2
Soit (S) un système triangulaire supérieur, .. .. .. .. .
. . . .
0· · · · · · ann bn
1. Si tous les coefficients diagonaux sont non nuls, le système est inversible.
2. S’il y a au moins un coefficient nul, le système est soit incompatible, soit il a une infinité de
solutions.
Remarques :
1. On a les même propriétés pour les systèmes triangulaires inférieurs.
2. On comprend bien, d’où arrive cette proposition. On commence par le bas et on remonte. Si on veut
être précis, cela se démontre par récurrence sur la taille n du système.
— Systèmes échelonnés : les systèmes échelonnés sont un peu plus généraux. Ils sont très importants car
nous allons voir par la suite que l’on peut toujours se ramener à un système échelonné. On peut voir un
système triangulaire supérieur comme un système on l’on ajoute à chaque ligne un zéro en plus à gauche.
Un système échelonné sera un système on on ajoutera au moins un zéro à chaque ligne.
Définition [Link]
d: [[ 1 ; n ]] → ( N
n+1 si ∀ j ∈ [[ 1 ; p ]] aij = 0
i 7→ Min{ j | aij 6= 0} sinon
L’application d associe à un nombre i la colonne la plus à gauche qui contient un coefficient non nul à la
ligne i.
2 1 3 5
Exemple : On considère le système 0 −1 1 3 . On a d(1) = 0, d(2) = 2 et d(3) = 1.
−1 0 1 0
Définition [Link]
Soit (S) un système de n équations à p inconnues. On dit que le système est échelonné si l’application d est
strictement croissante.
Remarque : contrairement aux systèmes diagonaux et triangulaires, les systèmes échelonnés ne sont pas
obligatoirement carrés (mais ils peuvent l’être).
Exemples :
2 1 3 5 3
1. Le système 0 -1 1 0 3 est échelonné.
0 0 1 0 0
120
2 1 3 5 3
2. Le système 0 0 1 0 3 est échelonné.
0 0 0 1 1
2 1 3 5 3
0 -1 1 0 3
3. Le système 0 0 0 1 1 est échelonné.
0 0 0 0 0
0 0 0 0 5
Notations :
1. Soit i ∈ [[ 1 ; n ]], si d(i ) < n + 1, l’équation de la ligne i s’appelle une équation principale. Le coefficient
non nul le plus à gauche aid(i) s’appelle le pivot de la ligne i.
2. Soit i ∈ [[ 1 ; n ]], si d(i ) = n + 1, l’équation de la ligne i s’appelle une équation de compatibilités. Elle
est de la forme 0 = bi .
3. Les inconnues dont la colonne contient un pivot s’appellent les inconnues principales.
4. Les inconnues dont la colonne ne contient pas de pivot s’appellent les inconnues auxiliaires ou
variables libres.
Proposition [Link]
Démonstration : Comme précédemment, la démonstration rigoureuse doit être faite par récurrence sur p.
Nous nous contenterons de donner les grandes lignes de la méthode de résolution.
— On regarde les équations de compatibilités. Si dans ces équations le second membre est nul, on a
0 = 0 et on peut l’ôter. Si le second membre n’est pas nul, le système est incompatibles.
— On suppose donc que les éventuelles équations de compatibilités sont vérifiées. On procède alors à
une remontée. On passe les inconnues auxiliaires dans le second membre.
— On est ramené à un système triangulaire supérieur.
1 −1 1 −1 2
Exemple : On veut résoudre le système 0 1 −1 −1 1 . On peut noter x, y, z, t les inconnues.
0 0 0 -1 4
On voit que z est une inconnue auxiliaire. On la passe dans le second membre et on obtient le système
x − y − t = 2−z
y − t = 1+z
− t = 4
Ses solutions sont alors de la forme {(−5, −3 + z, z, −4) | z ∈ R} = {(−5, −3, 0, −4) + z(0, 1, 1, 0) | z ∈ R}.
Exercice : Résoudre les systèmes suivants
2 1 −2 3 1
2 1 −2 3 1 2 1 −2 3 1
0 0 7 4 −5 5
7 4 −5 5 0 7 4 −5 5 .
0 0 2 1 3
0 0 0 0 −8 0 0 2 1 3
0 0 0 1 1
121
3.1 Systèmes équivalents et opérations
Définition [Link]
Soit (S) et (S0 ) deux systèmes. On dit que (S) et (S0 ) sont équivalents et on note (S) ∼ (S0 ) s’ils ont les
mêmes solutions.
Démonstration : Les deux premiers points sont évidents. Le troisième découle du fait que si on considère deux
nombres A et B alors
( A = 0 et B = 0) ⇔ ( A = 0 et A + B = 0).
Corollaire [Link]
Avec les mêmes notations, on obtient un système équivalent en remplaçant une ligne Li par une
combinaison linéaires des lignes ( Li ← λ1 L1 + · · · + λn Ln ) a condition que le coefficient λi soit non
nul.
Nous allons d’abord le faire sur deux exemples avant de passer au cas général.
Exemples :
1 2 −1 3
1. On considère le système (S) 2 1 −1 2 . Le coefficient en haut à gauche est pris comme pivot.
3 0 1 0
On remplace alors les lignes L2 et L3 par des combinaisons linéaires Li ← Li + λi L1 afin de ne mettre que
des zéros dans le première colonne (sous le pivot).
1 2 −1 3
(S) ∼ 0 -3 1 −4 .
0 −6 4 −9
122
On recommence en descendant d’une ligne. On fait ( L3 ← L3 − 2L2 ). On obtient
1 2 −1 3
(S) ∼ 0 -3 1 −4 .
0 0 2 1
On voit alors que le système obtenu est échelonné (il est même triangulaire). Ses coefficients diagonaux
sont non nuls (il y a autant de pivots que de lignes/colonnes) il est donc inversible. Son unique solution
est (1/2, 3/2, 1/2)
1 2 −1 1 1
2. On considère le système (S) 2 4 1 0 2 . On fait les opérations ( L2 ← L2 − 2L1 ) et ( L3 ←
−1 −1 1 0 2
L3 + L1) et on obtient
1 2 −1 1 1
( S ) ∼ 0 0 3 −2 1 .
0 1 0 1 3
On ne peut pas faire comme précédemment car le coefficient a22 est nul. On inverse donc les lignes
( L2 ↔ L3 ) et on continue
1 2 −1 1 1
(S) ∼ 0 1 0 1 3 .
0 0 3 −2 1
Le système est échelonné.
1 2 −1 1 1
3. On considère le système (S) 2 4 1 0 2 . On fait les opérations ( L2 ← L2 − 2L1 ) et ( L3 ←
−1 −2 2 0 2
L3 + L1) et on obtient
1 2 −1 1 1
(S) ∼ 0 0 3 −2 1 .
0 0 1 1 3
Là aucun coefficient de la deuxième colonne (sans compter le première ligne) n’est non nul donc, on se
décale et on passe à la troisième colonne. On peut faire l’opération ( L3 ← L3 − 13 L2 ). Afin d’éviter les
rationnels on va faire ( L3 ← 3L3 − L2). On obtient
1 2 −1 1 1
( S ) ∼ 0 0 3 −2 1 .
0 0 0 5 8
123
Proposition-Définition [Link]
Remarque : le nombre d’inconnues est égal au rang plus le nombre d’inconnue auxiliaires. De même, le nombre
de lignes, est égal au rang plus le nombre d’équations de compatibilitées.
Proposition [Link]
Si (S) est un système carré de taille n. Les propositions suivantes sont équivalentes
1. Le système est inversible
2. Le rang de (S) est n
3. Il n’y a pas d’inconnues auxiliaires
4. Il n’y a pas d’inconnues de compatibilités.
5. À chaque étape on trouve un pivot.
2. Résolution de
1+m 0 −1
(S) ∼ 0 m 0 .
−1 0 1+m
124
Ensemble des
8
nombres réels
1 Le corps des nombres réels 125
1.1 Introduction et définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
1.2 Borne inférieure et borne supérieure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125
2 Propriétés des réels 127
2.1 Inégalités et valeur absolue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.2 Droite numérique achevée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127
2.3 Intervalles de R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.4 Partie entière et nombres décimaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
2.5 Densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
125
Définition [Link]
Remarque : Les bornes supérieures et inférieures étant définies comme étant des plus grands/petits éléments
d’un ensemble ils sont uniques s’ils existent.
Commençons par remarquer qu’il existe dans Q des ensembles majorés qui n’ont pas de borne supérieure.
En effet si on pose X = { x ∈ Q+ | x2 < 2}. Cet ensemble est clairement majoré par 2 par exemple. Supposons
qu’il admette une borne supérieure (dans Q) que nous noterons α.
— Commençons par montrer que α2 > 2. En effet, par l’absurde, si α2 < 2 on peut trouver un entier
n tel que (α + 1/n)2 < 2. En effet (α + 1/n)2 = α + 2α/n + 1/n2 . Il suffit donc de prendre n tel que
(2α/n + 1/n2 ) < 2 − α2 .
— Comme on sait de plus que α2 6= 2 car α ∈ Q, alors α2 > 2. Maintenant un raisonnement similaire au
précédent montre alors que l’on peut trouver n tel que (α − 1/n) soit encore un majorant ce qui contredit
la définition de la borne supérieure.
Définition [Link]
L’ensemble de nombres réels est le seul corps commutatif contenant Q totalement ordonné dont toute partie
majorée admet une borne supérieure.
Remarques :
1. On dit qu’il vérifie la propriété de la borne supérieure (contrairement à Q).
2. Nous verrons plus loin la définition d’un corps. En gros il s’agit d’un ensemble muni de deux opérations :
une addition (+) et un produit (x), qui vérifie les règles classiques de calculs : commutativité, associativité,
distributivé et dont tout élément x a un opposé (noté − x) et, s’il est non nul, un inverse noté 1/x.
3. On demande que la relation d’ordre soit totale et compatible avec les opérations à savoir que pour tout
x, y et z dans R3 ,
x 6 y ⇒ x + z 6 y + z et ( x 6 y et z > 0) ⇒ xz 6 yz.
4. L’ensemble Q est un sous-ensemble de R. Les éléments de R \ Q s’appellent les nombres irrationnels.
Proposition [Link]
Démonstration :
126
— ⇒ Si m est la borne supérieure alors c’est un majorant A donc ∀ x ∈ A, x 6 m. De plus, pour tout ε > 0,
le nombre m − ε est strictement inférieur à m ce n’est donc pas un majorant de A (car m est le plus petit
des majorants de A). On en déduit qu’il existe x dans A tel que x > m − ε.
— ⇐ La première partie dit que m est un majorant de A. Supposons par l’absurde que ce ne soit pas le plus
petit. Il existe alors m0 un majorant de A strictement inférieur à m. On note ε = m − m0 > 0. D’après la
deuxième assertion il existe x dans A tel que x > m − ε = m0 ce qui contredit que m0 soit un majorant de
A.
Remarque : la double expression de droite signifie que m est un majorant et que tout nombre plus petit n’en
n’est plus un. C’est donc
le plus petit des majorants.
n 1 ?
Exercice : Soit A = (−1) + | n ∈ N . Déterminer les éventuels plus grand élément, plus petit élément,
n
borne supérieur, borne inférieure.
On a aussi :
R̄ = R ∪ {±∞}.
Proposition [Link]
∀ x ∈ R, x 6 +∞, ∀ x ∈ R, −∞ 6 x et − ∞ 6 +∞.
Proposition [Link]
Remarque : cela correspond bien aux bornes supérieures et inférieures dans (R̄, 6).
127
Notation : De même si I est un intervalle de R on note I l’ensemble obtenu en ajoutant les bornes. Par exemple
Remarques :
1. On évitera de noter [−∞, 0].
2. Cette notation a un sens plus précis en mathématiques (adhérence) que vous verrez l’année prochaine.
2.3 Intervalles de R
Proposition [Link]
Les intervalles de R sont les parties convexes de R, c’est-à-dire les parties I qui vérifient :
∀ x ∈ I, ∀y ∈ I, [ x, y] ⊂ I.
x ∈ [ a, b] ⊂ I
∀ x ∈ R?+ , ∀y ∈ R, ∃n ∈ N, nx > y.
Démonstration : Supposons par l’absurde qu’il existe x dans R?+ et y dans R tel que ∀n ∈ N, nx < y. Cela
signifie que
A = {nx | n ∈ N}
set majoré. De ce fait il admet une borne supérieure α. Comme α est la borne supérieure de A, α − x n’est pas un
majorant de A. Il existe donc N dans N tel que
Nx > α − x ⇔ ( N + 1) x > α.
128
Corollaire [Link]
Soit x un réel strictement supérieur à 1 et y un réel, il existe un entier naturel n tel que x n > y.
Démonstration : Il suffit de remarquer que x n = (1 + ( x − 1))n > 1 + n( x − 1) > n( x − 1). Il ne reste plus qu’à
utiliser que R est archimédien.
Définition [Link]
p 6 x < p + 1.
Remarque : On peut généraliser cette propriété en « faisant des pas de longueur a ». C’est-à-dire que pour pour
tout réel strictement positif a et tout réel x, il existe un unique entier p tel que pa 6 x < ( p + 1) a.
Démonstration : On considère l’ensemble A = {n ∈ Z | n 6 x }. Le fait que R soit archimédien permet
d’affirmer que A est non vide. En effet il existe n tel que − x 6 n et donc −n 6 x. De plus, A est aussi majorée
(toujours çar R est archimédien). La partie A admet donc un plus grand élément que nous noterons p. Il vérifie
p 6 x. De plus, p + 1 n’appartient pas à A donc x < p + 1.
Remarques :
1. On définit ainsi une application de R dans R (ou dans Z car son image est égale à Z). Son graphe est
-5 0 5
Définition [Link]
p
C’est l’ensemble des nombres qui s’écrivent avec p un entier relatif et n un entier naturel.
10n
Remarques :
1. C’est la définition classique des nombres décimaux qui s’écrivent avec un nombre de chiffres fini après la
virgule dans l’écriture décimale.
2. Par construction, D ⊂ Q.
129
Définition [Link]
Remarque : Les approximations décimales d’un réel x sont des nombres décimaux par construction. De plus,
b10n x c b10n x c
b10n x c 6 10n x < b10n x c + 1 ⇒ n
6x< + 10−n .
10 10n
b10n x c
Si on note αn = . On a donc
10n
| x − αn | 6 10−n et αn 6 x.
b10n x c + 1
De la même manière, si on note β n = on obtient
10n
| x − β n | 6 10−n et β n > x.
2.5 Densité
Définition [Link]
Soit A une partie R. On dit que A est dense si pour tout couple de réels x, y tels que x < y, A∩] x, y[6= ∅.
Proposition [Link]
1
Démonstration : Soit n tel que 10n > . On a alors 10−n 6 y − x. De ce fait l’approximation décimale par
y−x
défaut de y à 10−n près appartient à ] x, y[√
. De plus c’est
√ un nombre décimal donc rationnel.
Si on applique ce raisonnement à x + 2 et y + 2 on trouve un rationnel r tel que
√ √ √
x + 2 < r < y − 2 ⇒ x < r − 2 < y.
√
Or r étant rationnel, r − 2 est irrationnel.
Proposition [Link]
Démonstration : Il suffit de prendre la suite des approximation de x par défaut à 10−n près.
130
Suites numériques
9
1 Généralités sur les suites réelles 131
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
1.2 Opérations sur les suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
2 Convergence 134
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
2.2 Convergence et suite extraite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
2.3 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
2.4 Construction de suite à limite donnée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
2.5 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
2.6 Convergence monotone . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
2.7 Suites adjacentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142
3 Relations de comparaison 143
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
3.3 Croissances comparées et équivalents classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4 Extension au cas des suites complexes 146
4.1 Définition et généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.2 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.3 Popriétés des suites convergentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
4.4 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
Une suite réelle est une application de N dans R. On note alors pour tout entier n, un l’image de n par
l’application et non pas u(n) comme d’habitude. La suite elle même sera notée un∈N .
Remarques :
1. On peut en théorie faire des suites à valeurs dans autre choses que R comme des suites de complexes, de
fonctions ou des suites de polynômes. Cependant, on omettra de spécifier « réelles » la plupart du temps.
131
2. On désignera encore par suite une application de N? dans R. C’est une suite qui commence à 1. On notera
alors un∈N? .
3. Faire attention à le pas confondre un qui est un nombre - le n-ième terme de la suite - et un∈N qui est
l’intégralité de la suite. C’est la même distinction qu’entre la fonction f et f ( x ) qui est la valeur de la
fonction en x.
Notations :
1. par abus, nous noterons aussi u pour un∈N . La plupart du temps nous noterons une suite juste u.
2. L’ensemble des suites réelles se note RN .
Exemples :
1. On peut définir une suite par son terme général : soit u la suite telle que ∀n ∈ N, un = (−12)n .
2. On peut définir une suite par une formule de récurrence : soit u la suite définie par u0 = 1, u1 = 1 et
∀n ∈ N, un+2 = un+1 + un .
3. Il y a d’autres manières de définir les suites : soit u la suite définie par
u2n−1 si n est pair
u1 = 1, ∀n ∈ N, u2n = 0 et u2n+1 =
la n-ieme décimale de π sinon
Définition [Link]
Remarque : Le fait d’être majorée (resp. minorée, bornée) est une propriété globale sur la suite en entier. En
particulier, cela n’a aucun sens d’écrire « ∀n ∈ N, un est majorée ».
Exemples :
1. La suite u définie par ∀n ∈ N, un = n n’est pas majorée mais elle est minorée.
2. La suite u définie par ∀n ∈ N? , un = 1/n est bornée.
Définition [Link]
Remarques :
1. On pourrait plus simplement dire que la suite u est croissante si elle est croissante comme application. En
effet (∀n ∈ N, un+1 > un ) ⇔ (∀(n, n0 ) ∈ N2 , n > n0 ⇒ un > un0 )
2. Là encore le contraire de croissante n’est pas décroissante.
3. Là encore c’est une notion globale et (∀n ∈ N, un est croissante) n’a pas de sens
4. Dire que la suite u est monotone ne s’écrit pas ∀n ∈ N, un+1 > un ou un+1 6 un .
132
F Méthode : pour étudier la monotonie d’une suite u la méthode standard est de considérer les quantités
un+1 − un . Si, par exemple, pour tout entier n, un+1 − un > 0 la suite u est croissante. Dans le cas d’une suite
u
strictement positive, on peut aussi considérer les quotients n+1 . On a alors :
un
u
∀n ∈ N, n+1 > 0 ⇔ la suite u est croissante.
un
Définition [Link]
∀(u, v) ∈ (RN )2 , u 6 v ⇔ ∀n ∈ N, un 6 vn .
Remarques :
1. Ce n’est clairement pas un ordre total.
2. Une suite u est majorée s’il existe une suite constante égale à M notée M par abus tel que u 6 M.
Définition [Link]
Soit u ∈ RN . On appelle suite extraite de u toute suite v telle qu’il existe une application strictement croissante
ϕ de N dans lui-même vérifiant que :
∀n ∈ N, vn = u ϕ(n) .
Définition [Link]
Soit P une proposition dépendant d’une suite. On dit qu’une suite u vérifie la propriété P à partir d’un certain
rang s’il existe un entier N tel que la suite extraite (un + N )n> N vérifie P.
Définition [Link]
Une suite u est dite stationnaire si elle est constante à partir d’un certain rang.
133
Définition [Link] (Somme)
Soit u et v deux suites. La somme est la suite u + v dont le terme de rang n est un + vn .
Soit λ un réel et uune suite. La suite λ.u est la suite dont le terme de rang n est λ.un .
Soit u et v deux suites. Le produit est la suite u.v dont le terme de rang n est un .vn . De plus si, pour tout
u un
entier n, vn 6= 0, on peut définir la suite quotient comme étant la suite dont le terme de rang n est .
v vn
Proposition [Link]
2 Convergence
2.1 Généralités
Définition [Link]
Soit u une suite et ` un réel on dit que la suite u tend vers ` ou que ` est la limite de la suite u si les termes un
de la suite sont très proches de ` quand n tend vers l’infini.
C’est-à-dire que « tout intervalle ouvert contenant ` contient tous les termes de la suite à partir d’un certain
rang ». Cela peut s’exprimer par la phrase, pour tout réel positif ε, tous les termes assez grands de la suite sont
à distance de ` inférieur à ε.
Remarques :
1. Dire que |un − `| 6 ε revient à dire que un ∈ [` − ε, ` + ε].
2. Il suffit de tester que tout intervalle de la forme [` − ε, ` + ε] contient tous les termes de la suite à partir
d’un certain rang. En effet, tout intervalle ouvert contenant ` contient un tel intervalle.
Exercice : Nier les phrases précédentes.
Définition [Link]
Soit u une suite. On dira qu’elle est convergente s’il existe un réel ` tel que la suite u tend vers `. Dans le cas
contraire elle est divergente.
134
Théorème [Link]
Idée de la preuve : Par l’absurde on suppose que la suite tend vers ` et vers `0 . Si on prend ε très petit, les
termes de la suites doivent être dans [` − ε, ` + ε] et dans [`0 − ε, `0 + ε]. Or si on prend ε assez petit ces deux
intervalles sont disjoints.
`−ε `+ε `0 − ε `0 + ε
Notation : Pour dire qu’une suite u tend vers ` on note
lim un = ` ou lim u = ` ou un → `.
n→+∞
Définition [Link]
Soit u une suite réelle. On dit que u tend vers +∞ et on note lim un = +∞ si
n→+∞
∀ M ∈ R, ∃ N ∈ N, ∀n ∈ N, (n > N ) ⇒ un > M.
∀ M ∈ R, ∃ N ∈ N, ∀n ∈ N, (n > N ) ⇒ un 6 M.
Remarque : une suite qui tend vers +∞ est une suite divergente. Cependant la réciproque n’est pas vraie.
Exercice : Trouver une suite tendant vers +∞ qui n’est pas croissante.
Exemple : (Fondamental) Soit ρ ∈ R. On considère la suite géométrique (ρn )n∈N? .
— si |ρ| < 1 la suite converge vers 0.
— si ρ = 1 la suite est constante égale à 1 et donc tend vers 1.
— si ρ 6 −1 la suite est divergente.
— si ρ > 1 la suite est divergente et tend vers +∞.
135
Proposition [Link]
Cette proposition est utile car elle permet de ramener la convergence de toute suite à l’étude d’une conver-
gence vers 0. On peut en particulier l’utiliser avec la proposition suivante pour se ramener à l’étude d’une suite
positive.
Proposition [Link]
Exercices :
2n + sin n
1. Montrer que la suite un = tend vers 2
n+1
2. La propriété précédente reste vrai pour une limite non nulle ?
Proposition [Link]
Démonstration
Remarque : La contraposée peut-être utile. Si u n’est pas bornée elle diverge. Attention cela n’implique pas
pour autant qu’elle tende vers ±∞.
Proposition [Link]
Démonstration
Remarque : Cette proposition est assez souvent utilisée pour montrer qu’une suite ne converge pas. En effet
par contraposée, pour montrer qu’une suite diverge il suffit de trouver deux suites extraites qui ne convergent
pas vers la même valeur.
Exemples :
1. La suite un = (−1)n .
136
2π
2. La suite sin(n) ne converge pas. En effet si on pose ϕ(n) = + 2nπ , alors sin( ϕ(n)) ∈ [α, 1] où
j3π k
α = Min(sin(2π/3), sin(2π/3 − 1)). De même on pose ψ(n) = − + 2nπ .
3
On va chercher une bribe de réciproque.
Proposition [Link]
Soit u une suite. On considère la suite des termes pairs (u2n )n∈N et la suite des termes impairs
(u2n+1 )n∈N . Les suites (u2n )n∈N et (u2n+1 )n∈N converge vers la même limite ` si et seulement si la
suite u converge vers `.
Démonstration :
— ⇐ On suppose que u converge vers ` et on veut montrer que (u2n )n∈N et (u2n+1 )n∈N convergent aussi
vers `. On va le faire pour (u2n )n∈N . Soit ε > 0. On sait qu’il existe N ∈ N tel que, pour tout entier n, si
n > N alors |un − `| 6 ε. On en déduit que pour tout entier n, si n > N alors 2n > N et donc |u2n − `| 6 ε.
— ⇒ On suppose que (u2n )n∈N et (u2n+1 )n∈N convergent aussi vers la même limite `. Dès lors si on se
donne un réel positif ε. On sait qu’il existe des entiers N1 et N2 tels que pour tout entier n, si n > N1 on a
|u2n − `| 6 ε et si n > N2 on a |u2n+1 − `| 6 ε. On pose alors N = [Link]( N1 , N2 ) + 1. Soit n un entier, on
suppose que n > N. Si n est pair alors n = 2p et
n N
p= > > N1 .
2 2
On en déduit que |un − `| = |u2p − `| 6 ε.
De même si n est impair, on a n = 2p + 1 et
n−1
p= > N2 .
2
On en déduit encore que |un − `| = |u2p+1 − `| 6 ε.
2.3 Inégalités
Théorème [Link]
Soit u et v deux suites. On suppose que pour tout n ∈ N, un 6 vn . S’il existe ` et `0 dans R tels que u
tend vers ` et v tend vers `0 alors ` 6 `0 .
Remarques :
1. Les inégalités x > y s’étendent aux cas où x et y sont des éléments de R de manière naturelle. Par exemple,
pour tout x ∈ R, −∞ 6 x 6 +∞.
2. Dans le cas où l’une des deux suites est constante. Cela exprime alors que, pour un réel a, si pour tout
n, un > a alors ` > a. En particulier si a = 0, on obtient qu’une suite positive convergente a une limite
positive.
3. Ce théorème reste vrai si l’inégalité un 6 vn est vérifiée pour tous les entiers n à partir d’un certain rang.
B Ce résultat n’est pas vrai avec des inégalités strictes. Par exemple si u est la suite définie par un = 1/n.
Tous les termes sont strictement positifs mais pas la limite.
Exercice : La réciproque est-elle vraie ? C’est-à-dire, si u et v sont des suites convergentes telles que lim u 6 lim v
a-t-on que un 6 vn à partir d’un certain rang ? Et si l’on suppose lim u < lim v ?
Proposition [Link]
Soit u une suite convergente de limite ` > 0. La suite est positive à partir d’un certain rang.
137
Démonstration
Remarques :
1. ce théorème est beaucoup plus puissant que le précédent. En effet, on n’a pas besoin de savoir, à priori,
que la suite v converge. C’est l’un des quatre théorèmes (avec les opérations, la convergence monotone et
les suites adjacentes) qui permet de montrer qu’une suite converge.
2. Il est nécessaire que u et (wn ) aient la même limite comme le montre l’exemple :
∀n ∈ N, un = −1, vn = (−1)n , wn = 1.
3. Là encore ce théorème peut s’appliquer même si la propriété 2. n’est vrai qu’à partir d’un certain rang.
4. La terminologie « théorème d’encadrement » est plus convenable que « théorème des gendarmes ».
F Méthode : Pour montrer qu’une suite u converge vers `, on peut montrer que |un − `| tend vers 0. Pour cela il
suffit de trouver une suite v tendant vers 0 telle que |un√
− `| 6 vn .
Exemple : Soit u définie par u0 = 5 et ∀n ∈ N, un+1 = 2 + un . On montre que
| u n − 2|
∀n ∈ N, |un+1 − 2| 6
2
en utilisant la quantité conjuguée.
Dès lors, par récurrence,
3
∀n ∈ N, |un − 2| 6 .
2n
Corollaire [Link]
Soit u et v deux suites. On suppose que u est bornée et que v tend vers 0. On a uv → 0
Démonstration : Comme u est bornée, il existe M ∈ R tel que ∀n ∈ N, |u| 6 M. Dès lors
∀n ∈ N, |un vn | 6 M|vn |.
Proposition [Link]
Soit u une suite strictement positive telle qu’il existe k ∈]0, 1[ vérifiant que pour un entier n0 ,
u n +1
∀ n > n0 , 6 k.
un
La suite u converge vers 0.
B Il faut qu’il existe k tel que ana+1 6 k < 1. La condition, ana+1 < 1 n’est pas suffisante.
n n
138
Théorème [Link] (Variante à l’infini)
Remarques :
1. là encore l’inégalité n’a besoin d’être vérifiée qu’à partir d’un certain rang.
2. il y a un variante de la variante en −∞.
Exercice : On considère la suite ( H ) définie par
n
1
∀n ∈ N? , Hn = ∑ k
.
k =1
Z
k +1 dt
1 1
1. Montrer que pour tout k ∈ N? , 6 6 .
k+1 k t k
?
2. En déduire que pour tout n ∈ N , Hn > ln(n + 1). Que peut-on en déduire sur la limite de ( H ) ?
Démonstration :
— i ) ⇒ ii ) : On suppose que A est dense dans R. Soit ` dans R on veut construire une suite u d’éléments de
A convergeant vers `. Il suffit de voir que pour tout n ∈ N, A∩]` − 10−n , ` + 10−n [6= ∅ par définition de
la densité. On définit un comme un élément de cette intersection. De ce fait, u ∈ AN et, ∀n ∈ N, |un − `| 6
10−n . On en déduit alors que u → `.
x+y
— ii ) ⇒ i ) : On suppose ii ). Soit x, y deux réels tels que x < y. On recherche a ∈ A∩] x, y[. On pose ` =
2
(le milieu de ] x, y[). Il suffit de considérer une suite u ∈ AN tendant vers `. En s’approchant de `, les
|y − x |
termes de la suite (qui sont dans A) vont être dans ] x, y[. Précisément, si on pose ε = on a
3
x < ` − ε < ` < ` + ε < y.
Or, il existe un rang N tel que u N ∈ [` − ε, ` + ε] car u tend vers `. On a donc u N ∈ A∩] x, y[.
Soit A une partie non vide et majorée de R (resp. non majorée) il existe une suite u d’éléments de A
qui tend vers sup( A) (resp. +∞).
139
2.5 Opérations
• Addition Soit u et v deux suites. Le tableau suivant donne la limite de la suite u + v.
PP lim u
PP
` −∞ +∞
lim v PPP P
` 0 0
` + ` −∞ +∞
−∞ −∞ −∞ ?
+∞ +∞ ? +∞
Les ? sont les « formes indéterminées ». On ne peut rien dire de manière systématique. Nous verrons plus loin
comment traiter ces cas.
Démonstration : Faisons le cas où ` = +∞ et `0 ∈ R. On veut montrer que u + v tend vers +∞. On considère
ε = 1. Il existe alors N tel que pour tout n de N, si n est supérieur à N alors `0 − 1 6 v 6 `0 + 1. Maintenant
pour tout M ∈ R, il existe N 0 tel que
un + vn > M.
Exemples :
1. La suite un = 1 − 1/n tend vers 1 et vn = 2/n tend vers 0. La somme u + v tend vers 1.
2. Les suites wn = n et wn0 = n2 tendent vers +∞. On voit que uw tend vers +∞, vw tend vers 2 et vw0 tend
vers +∞.
• Multiplication externe
Soit u une suite et λ un réel. On considère la suite λ.u. La limite de la suite λ.u est donnée par le tableau
suivant :
PP lim u
PP
PP ` −∞ +∞
λ PP
λ>0 λ.` −∞ +∞
λ=0 0 0 0
λ<0 λ.` +∞ −∞
Notons que si λ = 0 et que la suite u tend vers ±∞ ce n’est pas une forme indéterminée. En effet la suite λ.u est
la suite nulle.
• Produit
Soit u et v deux suites. On considère la suite u.v. La limite de la suite est donnée par le tableau suivant :
PP lim u ` < 0
PP
`=0 `>0 −∞ +∞
lim v PPP P
`0 < 0 `.` 0 0 `.` 0 +∞ −∞
0
` =0 0 0 0 ? ?
`0 > 0 `.` 0 0 `.` 0 −∞ +∞
−∞ +∞ ? −∞ +∞ −∞
+∞ −∞ ? +∞ −∞ +∞
Noter en particulier que la forme (+∞) × (−∞) n’est pas une forme indéterminée.
• Quotient
u
Soit u et v deux suites et on suppose que pour tout n ∈ N, vn 6= 0. On considère la suite . La limite de la
v
suite est donnée par le tableau suivant :
PP lim u
PP
`<0 `=0 `>0 −∞ +∞
lim v PPP P
`0 < 0 `/`0 0 `/`0 +∞ −∞
` 0 = 0− +∞ ? +∞ +∞ -∞
` 0 = 0+ −∞ ? +∞ −∞ +∞
`0 > 0 `/`0 0 `/`0 −∞ +∞
−∞ 0 0 0 ? ?
+∞ 0 0 0 ? ?
140
Remarques :
1. On dit que u tend vers 0+ (resp. 0− ) si u tend vers 0 et que u est positive (resp. négative) à partir d’un
certain rang.
2. Les opérations sont la deuxième méthode qui permet de montrer qu’une suite est convergente. Dans ce
cas on détermine sa limite.
Démonstration : Soit u une suite croissante et majorée, montrons qu’elle est convergente (le cas décroissante et
minorée s’en déduit en considérant (−un )). Le problème est que pour montrer qu’un suite est convergente via
la quantification on doit connaître sa limite. Soit U = {un | n ∈ N}. La suite u étant majorée, l’ensemble U est
une partie non vide et majorée de R. On en déduit donc qu’il admet une borne supérieure. Notons α = sup U.
Le nombre α va être notre limite. Montrons donc que
dessin
Soit ε > 0. On sait que α étant la borne supérieure de U, α − ε n’est pas un majorant de U. Il existe donc un
entier N tel que u N > α − ε. Dès lors, la suite étant croissante, pour tout entier n, si n > N alors un > u N > α − ε.
De plus, α est un majorant de U donc un 6 α 6 α + ε. On a bien montré que |un − α| < ε.
Remarques :
1. C’est le sens ⇐ qui est utile - l’autre est vrai sans hypothèse de monotonie. Cela peut aussi s’écrire :
« toute suite croissante et majorée converge » ou »toute suite décroissante et minorée converge ».
2. En particulier une suite croissante n’a que deux comportements asymptotiques possibles : converger vers
une limite finie ou tendre vers +∞. De même pour une suite décroissante.
3. C’est le deuxième théorème qui permet de montrer qu’une suite converge.
B Prendre garde que le majorant (ou minorant) utilisé n’est pas toujours la limite de la suite. Voir l’exercice
ci-dessous.
Exercice : Soit u définie par
n
1
∀n > 2, un = ∑ k2
.
k =2
1. Étudier la monotonie de u.
n
1
2. Prouver que pour tout n > 2, un 6 ∑ k ( k − 1)
.
k =2
3. Calculer la somme de droite en utilisant un téléscopage.
4. En déduire que u est convergente.
Regardons maintenant un corollaire du théorème de convergence monotone qui va nous servir plus loin.
Proposition [Link]
1. Soit u une suite croissante. Soit la suite est majorée et elle converge, soit la suite tend vers +∞.
2. Soit u une suite décroissante. Soit la suite est minorée et elle converge, soit la suite tend vers
−∞.
Remarque : L’énoncé précédent n’est vrai que dans le cas d’une suite monotone. une suite quelconque peut
très bien diverger sans tendre vers +∞ ou −∞.
141
2.7 Suites adjacentes
Définition [Link]
Théorème [Link]
Démonstration : Commençons par montrer que si (un ) et (vn ) son adjacente avec (un ) croissante alors pour
tout entier naturel n, un 6 vn . On remarque que la suite (un − vn ) est croissante or comme elle tend vers 0, on a
0 = sup{un − vn | n ∈ N}. De ce fait, pour tout entier naturel un − vn 6 0 ⇐⇒ un 6 vn .
On a donc pour tout entier naturel n ,
u0 6 u n 6 v n 6 v0 .
On en déduit que (un ) est majorée (par v0 ), comme elle est croissante, elle converge. Notons ` sa limite. De
même (vn ) converge. Notons `0 sa limite. Par les opérations, (un − vn ) converge vers ` − `0 donc ` = `0 .
Remarques :
1. C’est le troisième théorème qui montre la convergence d’une suite.
2. Le fait que les termes de la suite u sont inférieurs à ceux de la suite v est une conséquence de la définition.
Si on note ` la limite commune :
u0 6 u1 6 · · · 6 u n 6 ` 6 v n 6 · · · 6 v1 6 u0 .
pn 1 + pn
un = et vn = .
n.n! n.n!
142
Démonstration
Soit u une suite bornée. On peut en extraire une sous suite convergente.
Démonstration
Remarque : Ce théorème permet d’affirmer que l’on peut construire une suite extraite de sin(n) qui converge.
Mais ce n’est pas constructif...
3 Relations de comparaison
3.1 Définition
Avant de donner la définition précise, regardons un exemple. On considère la suite u définie par ∀n ∈
N? , un = n2 /(1 + n). C’est une forme indéterminée (+∞)/(+∞). Cependant, quand n devient très grand, on
est tenté de considérer que 1 + n est "équivalent" à n et de ce fait que un va être proche de n2 /n = n et donc
tendre vers l’infini. Pour donner plus de sérieux à ce qui précède on peut écrire
n2 n2 n
∀n ∈ N? , un = = = .
1+n n(1 + 1/n) 1 + 1/n
Définition [Link]
Quand les suites ne s’annulent pas (au moins à partir d’un certain rang) on a une caractérisation plus simple :
Proposition [Link]
Remarque : Seule la limite compte pour l’équivalence de deux suites. On peut de ce fait « modifier » un nombre
fini de termes sans changer les équivalents, domination ou négligeabilité.
B Une suite u est équivalente à 0 si et seulement si elle est stationnaire à 0.
Terminologie : Ce sont des notions
qui portent sur l’ensemble de la suite, cependant, nous écrirons pour alléger,
n2 + n + 1 ∼ n2 ou n = o n2 .
Exemples :
1. On considère la suite u définie par ∀n ∈ N, un = n + 1. Alors un ∼ n.
√
2. On considère la suite u définie par ∀n ∈ N, un = n + n. Alors un ∼ n.
143
3. On considère la suite u définie par ∀n ∈ N, un = 5n + 6. Alors un = O(n) et un = o n2 .
On peut lier les notions d’équivalence et de négligeabilité de la manière suivante.
Proposition [Link]
Exemple : On considère la suite (n + cos n). Le terme cos n est borné et n tend vers +∞. On en déduit que
cos(n) = o (n) et donc n + cos n ∼ n.
3.2 Propriétés
Proposition [Link]
Remarque : On note aussi « à la physicienne » un << vn pour un = o (vn ). Cette notation à l’avantage de bien
montrer la transitivité.
√
B Dans les formules suivantes on n’a pas la somme ! Par exemple n2 + n ∼ n2 et −n2 ∼ −n2 + n, mais
√
n n. C’est souvent en utilisant ce genre de résultat que l’on obtient un équivalent à 0.
B On ne peut pas composer les équivalents. Par exemple, n + n2 ∼ n2 mais en+n2 en2 car le rapport
2
en+n
2 = en tend vers +∞.
en
Remarques :
1. La formule des puissances du théorème est vraie pour les suites changeant de signe si on prend α ∈ N.
2. Toujours sur la formule des puissance, il faut que α soit constant. Par exemple 1 + 1/n ∼ 1 mais (1 +
1/n)n 1n .
s √
n3 + n n + 1 √
Exemple : On pose un = 2
. On cherche un équivalent à un . On sait que n3 + n n + 1 ∼ n3 et
n +4
√
3+n n+1
n √
que n2 + 4 ∼ n2 . Donc ∼ n et un ∼ n.
n2 + 4
B Prendre une puissance est une composition, mais c’est à cas particulier on la composition conserve
l’équivalence.
Les suites équivalentes sont utiles pour calculer les limites.
144
Proposition [Link]
Remarque : cela signifie que pour trouver la limite d’une suite, on la remplace par une suite équivalente plus
simple.
1. Soit α et β deux réels. Si α < β alors nα = o n β .
a0 + a1 n + · · · + a k n k ∼ a k n k .
1. Soit α ∈ R et β > 0, (ln(n))α = o n β .
2. Soit α et β deux réels. Si α < β alors nα = o n β .
3. Soit α ∈ R et β > 0, nα = o (exp( βn)). En particulier si k > 1, nα = o (kn ) .
4. Soit k > 1, kn = o (n!) .
Exemple : Plutôt que de faire la démonstration en général, étudions juste un exemple. Montrons que n = o (en ).
n
Pour cela on étudie la suite wn = n et on veut prouver qu’elle tend vers 0.
e ?
On remarque que pour tout n ∈ N ,
w n +1 n + 1 en n+1
= n +1 . = .
wn e n ne
On en déduit que wn+1 /wn tend vers 1/e. On peut donc trouver N tel que pour n > N, wn+1 /wn 6 1/2 et donc
1
∀n > N, wn+1 6 wn .
2
On en déduit classiquement que (wn ) tend vers 0.
Remarques :
1. En utilisant la notation << la proposition ci-dessus s’écrit :
145
2. On a indiqué que les cas qui ne sont pas triviaux. C’est-à-dire que tous les termes tendent vers +∞. Mais
on peut aussi remarquer que n−1 = n1 = o (en ) est vrai de manière évidente car 1/n tend vers 0 et en tend
vers +∞.
u2n
sin(un ) ∼ un , tan(un ) ∼ un , cos(un ) − 1 ∼ − .
2
Démonstration : Ce sont juste les limites vues dans le chapitre sur les fonctions usuelles composées avec des
sin x sin(un )
suites. Par exemple, on sait que lim = 1. De ce fait, si lim(un ) = 0 alors lim = 1 ce qui signifie
x →0 x n un
que sin(un ) ∼ un .
B Si on cherche un équivalent de ln(1 + sin(un )) avec (un ) tend vers 0. On peut rédiger de deux manières
— On sait que sin(un ) ∼ un . De ce fait ln(1 + sin(un )) ∼ ln(1 + un ) ∼ un .
— On sait que u tend vers 0 donc (sin(un )) aussi. De ce fait, ln(1 + sin(un )) ∼ sin(un ) ∼ un .
Laquelle de ces deux rédaction n’est pas correcte ?
Définition [Link]
Définition [Link]
Soit u une suite complexe. On dit que u est bornée si |u| l’est.
146
4.2 Convergence
Définition [Link]
1. Soit u une suite complexe et ` un nombre complexe. On dit que u converge vers ` (ou que la limite de u
est `) si et seulement si la suite |u − `| tend vers 0.
2. Soit u une suite. S’il existe un nombre complexe ` tel que u converge vers `, on dit que la suite u est
convergente. Dans le cas contraire on dit qu’elle est divergente.
Exemple : Soit α un nombre complexe de module strictement inférieur à 1. La suite (αn ) tend vers 0.
Proposition [Link]
Soit u une suite complexe. La suite u est convergente si et seulement si Reu et Imu le sont. Dans ce
cas,
lim u = lim Reu + i lim Imu.
Démonstration
Remarque : De même si (αn ) et ( β n ) sont deux suites réelles, la suite (αn eiβ n ) converge. Par contre la réciproque
est fausse. Il suffit de prendre β n = 2nπ.
Remarque : Les assertions 1. et 3. ne sont pas des équivalences alors 2. l’est par involution.
Soit u une suite complexe. Si u est bornée, il existe une suite extraite convergente.
Démonstration : Considérons la suite [Link] est bornée car pour tout entier n, |Reun | 6 |un |. De ce fait il
existe une application strictement croissante ϕ de N dans lui même telle que (Reu ϕ(n) ) converge. On considère
alors la suite (Imu ϕ(n) ). Elle est aussi bornée. On peut donc en extraire une sous suite convergente (Imu ϕ(ψ(n)) ).
Maintenant comme (Imu ϕ(ψ(n)) ) et (Reu ϕ(ψ(n)) ) convergent alors (u ϕ(ψ(n)) ) converge aussi.
4.4 Opérations
Les limites de suites complexes sont compatibles aux opérations habituelles.
147
Proposition [Link]
148
Structures
10
algébriques
1 Groupes 149
1.1 Lois de composition interne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
1.2 Itérés d’un élément . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
1.3 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
2 Anneaux 155
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
2.2 Règles de calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
2.3 Corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
1 Groupes
1.1 Lois de composition interne
Définition [Link]
Soit E un ensemble. On appelle loi de composition interne sur E tout application de E × E dans E. On note
E×E → E
.
( x, y) 7→ x >y
Exemples :
1. Soit E = N. L’addition et la multiplication sont des lois de composition interne.
2. Soit E = Z. La loi qui a tout couple ( x, y) associe 0 est une loi de composition interne.
3. Soit E = RR . La composée qui a ( f , g) associe f ◦ g est une loi de composition interne.
4. Le produit scalaire n’est pas une loi de composition interne.
149
Définition [Link]
∀( x, y, z) ∈ E3 , x >(y>z) = ( x >y)>z.
∀( x, y) ∈ E2 , x >y = y> x.
Exemples :
1. Dans N l’addition et la multiplication sont associatives et commutatives.
2. Dans N la puissance n’est ni associative, ni commutative.
3. Dans E E la composition ◦ est associative mais pas commutative.
x+y
4. Dans Q la loi x >y = est commutative mais pas associative.
2
Remarques :
1. On note souvent les lois de composition interne : +, ×, ?, ⊥, >. La convention veut que l’on réserve le
symbole + pour les lois commutatives.
2. L’intérêt de l’associativité est de pouvoir se passer des parenthèses. En effet si ? est associative on a
x ? (y ? z) = ( x ? y) ? z. On peut donc noter x ? y ? z sans que cela soit ambiguë.
Soit E un ensemble muni de deux lois de composition interne notée > et ?. On dit que ? est
distributive par rapport à > si et seulement si :
Exemples :
1. Dans Z, la multiplication est distributive par rapport à l’addition.
2. Dans P ( E), ∩ est distributive par rapport à ∪ (et réciproquement)
Définition [Link]
Soit E un ensemble muni d’une loi de composition interne >. On dit qu’un élément e de E est un élément
neutre si
∀ x ∈ E, x >e = e> x = x.
Exemples :
1. Dans Z, 0 est un élément neutre pour + et 1 est un élément neutre pour ×.
2. L’application identité IdE est un élément neutre pour ◦ dans E E .
3. Il n’y a pas d’élément neutre pour l’addition dans N? .
Remarque : On peut plus généralement parler de neutre à droite (si ∀ x ∈ E, x >e = x) et de neutre à gauche (si
∀ x ∈ E, e> x = x).
Proposition [Link]
Soit E un ensemble muni d’une loi de composition interne >. S’il existe, l’élément neutre est unique.
150
Démonstration : Soit e1 et e2 deux éléments neutres de E. On a e1 = e1 >e2 = e2 .
Soit ( E, >) un ensemble muni d’une loi de composition interne admettant un élément neutre e. Un élément x
de E est dit symétrisable ou inversible s’il existe y dans E tel que
x >y = y> x = e.
Remarques :
1. Quand la loi est commutative on peut ne vérifier qu’une des deux conditions.
2. Là encore, quand la loi n’est pas commutative on peut parler d’inverse à droite et à gauche. Par exemple
dans E = RR si f est la fonction tan prolongée en posant tan(π/2 + kπ ) = 0. La fonction g = arctan est
un inverse à gauche car g ◦ f = IdR .
3. La notion d’inverse est utile pour simplifier une équation. En effet si on veut résoudre l’équation a> x = b
d’inconnue x. Si a est inversible d’inverse a0 on a
Soit ( E, >) un ensemble muni d’une loi de composition interne admettant un élément neutre e. On
suppose de plus la loi associative.
1. Si x est inversible alors l’élément y vérifiant x >y = y> x = e est unique. On l’appelle l’inverse
de x et il se note souvent x −1 .
2. Si x est inversible alors x −1 aussi et ( x −1 )−1 = x.
3. Si x et y sont inversibles alors x >y aussi et ( x >y)−1 = y−1 > x −1 .
Démonstration :
1. Soit y1 et y2 deux inverses de x,
y1 = y1 > x > y2 = y2 .
2. Il suffit de voir que x > x −1 = x −1 > x = e.
3. Là encore, il suffit de faire le calcul
B Quand la loi n’est pas commutative, (x>y)−1 peut être différent de x−1 >y−1 . Nous le verrons avec les
matrices.
Soit ( E, >) un ensemble muni d’une loi de composition interne. Soit A une partie de E. Elle est dite stable
pour > si
∀( x, y) ∈ A2 , x >y ∈ A.
151
Définition [Link]
x0 = e et ∀n ∈ N, x n+1 = x ? x n .
Remarques :
1. Cela correspond à la classique : x n est égale à |x ? ·{z
· · ? x} .
n fois
2. Il faut noter que même si ? n’est pas commutative, cela n’est pas important si on pose x ? x n ou x n ? x.
Proposition [Link]
x n ? x p = x n+ p et ( x n ) p = x np .
B Faire attention que la relation xn ? yn = (x ? y)n n’est vraie que si ? est commutative.
Définition [Link]
Notation additive
Dans tout ce chapitre on considère un ensemble E muni d’une loi de composition interne associative noté +
(et donc supposée commutative). On suppose qu’il existe un élément neutre noté 0.
Définition [Link]
Proposition [Link]
Définition [Link]
Soit x un élément inversible. On note − x (au lieu de x −1 ) son inverse que l’on appelle opposé.
Dans ce cas pour n ∈ N, on note (−n).x pour n.(− x ) = −(n.x ).
1.3 Groupes
On a vu que pour résoudre des équations du type a> x = b on avait besoin d’un élément neutre et d’inverse.
152
Définition [Link]
Soit G un ensemble muni d’une loi de composition interne ?. On dit que ( G, ?) est un groupe si :
1. La loi ? est associative ;
2. il existe un élément neutre e de G qui vérifie : ∀ g ∈ G, e ? g = g ? e = g.
3. Tout g dans G est inversible.C’est-à-dire qu’il existe g0 dans G tel que g ? g0 = g0 ? g = e.
Remarque : Quand la loi de composition interne est évidente on ne la rajoute pas dans la notation.
Exemples :
1. L’ensemble (N, +) n’est pas un groupe car 1, par exemple, n’a pas de symétrique.
2. Les ensembles (Z, +), (Q, +), (R, +) et (C, +) sont des groupes.
3. L’ensemble (Z, ×) n’est pas un groupe car 2 n’a pas de symétrique.
4. L’ensemble (Q, ×) n’est pas un groupe car 0 n’a pas d’inverse.
5. Les ensembles (Q? , ×), (R? , ×) et (C? , ×) sont des groupes.
6. Soit U = {z ∈ C | |z| = 1} et Un = {z ∈ C | zn = 1}. Ce sont des groupes mutliplicatifs.
7. Soit E un ensemble. L’ensemble des bijections de E forme un groupe que l’on note SE .
8. On peut aussi donner des groupes en donnant tous les éléments et les tables de la loi de composition
interne.
Par exemple G1 = {0, 1} avec
+ 0 1
0 0 1
1 1 0
+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2
ATTENTION
Quand on essaye de déterminer la loi d’un groupe, on peut remarquer que chaque colonne et chaque
ligne contient tous les éléments du groupe. En effet a> x = b ⇐⇒ x = ( a−1 )>b ce qui signifie que
tout élément b apparait une (et une seule) fois dans la ligne des éléments de la forme a> x. On peut
faire pareil pour les colonnes
10. On s’intéresse à un triangle équilatéral ABC. On note G son centre de gravité. On cherche les transforma-
tions géométriques qui le laisse stable.
— Il y a bien évidement l’identité que l’on note e.
— Il y a les rotations de centre G et d’angle 2π/3 et −2π/3 que nous noterons r+ et r− .
— Il y a les symétries par rapport aux hauteurs que nous noterons s A , s B et sC .
On peut alors considérer D3 = {e, r+ , r− , s A , s B , sC }. C’est un sous-groupe du groupe des bijections du
plan.
Ecrire sa table.
11. Si E est un ensemble. On note SE l’ensemble des bijections de E dans E. On a alors (SE , ◦) est un groupe.
x+y
Exercice : On pose G =] − 1, 1[ et la loi > est définie par x >y = . Montrer que ( G, >) est un groupe.
1 + xy
153
Définition [Link]
Soit ( G, >) un groupe. Si la loi > est commutative, on dit que G est un groupe commutatif ou abélien.
Exemples :
1. Il est clair que (Z, +), (Q, +), (R, +) et (C, +) sont abéliens.
2. Soit E un ensemble avec au moins trois éléments et (SE , ◦) n’est pas abélien.
Définition [Link]
Soit ( G, >) un groupe et H une partie de G. On dit que H est un sous-groupe de G si et seulement si :
1. L’ensemble H est stable par >.
2. L’ensemble H est stable par passage au symétrique.
3. L’ensemble H contient l’élément neutre.
Remarque : Cela signifie que H est une partie de G telle que la loi de G induit une loi de composition interne
sur H et que pour cette loi, H est un groupe.
Proposition [Link]
Démonstration : La loi > est bien une loi de compostion interne de H car H est stable par >. De plus elle est
associative car elle l’est dans G. L’élément neutre de G est un élément neutre dans H. Tout élément h de H a
bien un inverse dans H.
Exemples :
1. Pour tout groupe ( G, >) les ensembles {e} et G en entier sont des sous-groupes (dits triviaux). Les autres
2. (Z, +) est un sous groupe de (R, +).
3. (U, ×) est un sous-groupe de (C? , ×).
Remarque : Il est évident que pour tout groupe G, les parties {e} et G sont des sous-groupes dits triviaux. Les
autres sous-groupes sont dits propres.
Exercice : Soit ω ∈ C. On pose H = { a + ωb ∈ C | ( a, b) ∈ Z2 }. Montrer que H est un sous-groupe de C.
Exemples :
1. Déterminons les sous groupes (propre) de (U5 , ×). On sait que U5 = {1, ω, ω 2 , ω 3 , ω 4 } où ω = e2iπ/5 .
De ce fait, si on se donne un sous groupe H contenant un élément α différent de 1 dans U5 . En considérant
ses puissances (qui sont dans U5 par stabilité) on en déduit que H = U5 .
2. On recommence pour U6 .
154
2 Anneaux
2.1 Définitions
Définition [Link]
Soit A un ensemble muni de deux lois de compositions internes notée + et ×. On dit que ( A, +, ×) est un
anneau si
1. ( A, +) est un groupe commutatif (d’où la notation +)
2. la loi × est associative
3. il existe un élément neutre pour ×
4. la loi × est distributive par rapport à +
Si la loi × est aussi commutative, on dit que A est un anneau commutatif.
Remarques :
1. Cette définition correspondent aux règles de calculs classiques dans Z, Q, R.
2. L’ensemble ( A, ×) n’est pas forcement un groupe car des éléments peuvent pas avoir de symétrique.
3. On peut voir que A = {0} est un anneau que l’on appelle l’anneau nul. Ce n’est pas le plus intéressant et
on essaye souvent d’exclure ce cas.
Notations :
1. On note 0 ou 0 A l’élément neutre pour +.
2. On note 1 ou 1 A l’élément neutre pour ×.
3. On abrège x × y en xy.
Exemples :
1. Les ensembles Z, Q, R et C sont des anneaux pour les opérations usuelles.
2. L’ensemble des applications de R dans R muni des opérations + et × est un anneau.
3. On peut reprendre G1 = {0, 1} avec
+ 0 1
0 0 1
1 1 0
× 0 1
0 0 1
1 0 1
+ 0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2
× 0 1 2 3
0 0 0 0 0
1 0 1 2 3
2 0 2 0 2
c 0 3 2 1
155
Définition [Link]
Soit ( A, +, ×) un anneau. Un élément x de A est dit inversible s’il est inversible pour la multiplication.
C’est-à-dire s’il existe y dans A tel que xy = yx = 1. Dans ce cas y est unique et on le note y−1 . On dit aussi
que x est une unité
Remarques :
1. La notion d’inversible réfère à la loi × et pas la loi +. Tous les éléments sont « inversible » par +.
2. A priori, il y a des éléments qui ne sont pas inversibles dans un anneau.
1 y0 1 1
3. On ne note pas l’inverse pour éviter d’écrire par la suite qui pourrait être y0 × ou × y0 qui sont à
x y y y
priori différents.
4. On nota la plupart du temps A× l’ensemble des éléments inversibles d’un anneau.
5. Quand un élément x est inversible, on étend les notations x n au cas où n est négatif.
Proposition [Link]
Soit ( A, +, ×) un anneau. L’ensemble des éléments inversibles forme un groupe multiplicatif noté
( A× , ×).
Démonstration
Exemples :
1. Dans Z, 1 et −1 sont les seuls inversibles. On a donc Z× = {±1}. Cette notation est en conflit avec Z \ {0}
c’est pour cela qu’il vaut mieux ne pas utiliser les deux ou alors préciser ce dont on parle.
2. Les éléments inversibles de R sont tous les réels non nuls.
3. Les éléments inversibles de RR sont les fonctions qui ne s’annulent pas.
Soit ( A, +, ×) un anneau. On appelle, sous-anneau de A tout sous groupe de ( A, +) contenant 1 et qui est
stable par multiplication.
Exemples :
1. On voit Z est un sous-anneau de R.
2. {0} n’est pas un sous-anneau de R car il ne contient par 1.
√ √
Exercice
√ : Soit d ∈ N. Montrer√ que Z [ 5 ] = { a + b 5 | ( a, b) ∈ Z2 } est un sous-anneau de R. L’élément
1 + 5 est-il inversible ? Et 2 + 5 ?
Proposition [Link]
Soit A un anneau.
1. Soit x dans A, 0.x = x.0 = 0. On dit que 0 est absorbant.
2. Si A n’est pas l’anneau nul alors 1 6= 0.
3. Soit x et y dans A : (− x ).y = x.(−y) = −( x.y).
156
Démonstration :
1. On a 0.x + 0.x = (0 + 0).x = 0.x. En ajoutant le symétrique de 0.x de part et d’autre on a 0.x = 0. De
même dans l’autre sens.
2. Si on suppose que 1 = 0 alors, pour α un élément de A. On a
α = 1.α = 0.α = 0.
Définition [Link]
∀( x, y) ∈ A2 , xy = 0 ⇒ x = 0 ou y = 0.
Exemple : Les anneaux Z, R, C sont intègres. Nous verrons plus tard des exemples d’anneau qui ne sont pas
intègres.
Proposition [Link]
Soit ( A, +, ×) un anneau.
n
k
1. Soit n ∈ N. Si xy = yx alors ( x + y)n = ∑ n x k yn−k .
k =0
n
2. Soit n ∈ N. Si xy = yx alors ( x n+1 − yn+1 ) = ( x − y) ∑ x k yn−k .
k =0
n
3. Soit n ∈ N et x ∈ A, (1 − x ) ∑ k k = 1 − x n +1 .
k =0
ATTENTION
Cela ne « marche » que si xy = yx. Par exemple ( x + y)2 = x2 + xy + yx + y2 dans le cas général.
2.3 Corps
Définition [Link]
Un ensemble (K, +, ×) est un corps si c’est un anneau commutatif dont tous les éléments non nuls sont
inversibles.
Exemples :
1. Les ensembles Q, R, C sont des corps.
2. L’ensemble Z n’est pas un corps.
3. L’ensemble G1 est un corps mais pas G2 .
Remarque : Un corps est intègre.
a
Notation : Soit K un corps. Pour ( a, b) dans K avec b 6= 0 on note pour ab−1 = b−1 a.
b
157
Proposition [Link]
Définition [Link]
Soit K un corps et L un sous-anneau de K. On dit que L est un sous-corps de K ou que K est un sur corps de
L.
Exemple : Q, R et C.
158
Arithmétique de Z
11
1 Divisibilité dans Z 159
1.1 Diviseurs et multiples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
1.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
1.3 Congruences dans Z . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2 Plus grand commun diviseur (PGCD) 161
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
2.2 Algorithme d’Euclide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
2.3 Relation de Bézout . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
2.4 Algorithme d’Euclide augmenté . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
2.5 Nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
2.6 Résolution de l’équation au + bv = c. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
2.7 PGCD de plusieurs entiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
3 Le plus petit commun multiple (PPCM) 168
3.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168
3.2 Lien avec le PGCD et nombres premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
4 Nombres premiers 169
4.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
4.2 Décomposition en produit de facteurs premiers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
1 Divisibilité dans Z
1.1 Diviseurs et multiples
Définition [Link]
Soit a et b deux entiers relatifs, on dit que a est un diviseur de b ou que b est un multiple de a s’il existe un
entier k tel que b = ak.
Notations :
1. On note a|b pour a divise b.
2. On note D ( a) l’ensemble des diviseurs de a.
3. On note aZ l’ensemble des multiples de a. On a aZ = { ak | k ∈ Z}.
159
Exemples :
1. Le nombre 2 divise 6. De même −2 divise 6.
2. Les entiers 1 et −1 divisent tous les entiers mais D (1) = D (−1) = {±1}.
3. Tout entier divise 0 ou 0 est un multiple de tous les entiers. Par contre 0Z = {0}.
Proposition [Link]
Remarques :
1. On dit alors que les entiers a et b sont associés.
2. C’est une méthode pour montrer que deux nombres sont égaux. Il faut faire attention que, dans Z ils
peuvent être opposés.
3. La relation de divisibilité est transitive, réflexive mais elle n’est pas anti-symétrique.
Démonstration : Démontrons le sens qui n’est pas trivial. On suppose donc qu’il existe k et k0 des entiers tels
que a = kb et b = k0 a d’où a = kk0 a c’est-à-dire a(1 − kk0 ) = 0.
— Si a = 0, comme a|b on a b = 0.
— Si a 6= 0, kk0 = 1 car le produit de deux entiers est nul si et seulement si l’un des deux est nul. En particulier
k et k0 divise 1 d’où |k| = |k0 | = 1. On en déduit | a| = |b|.
Proposition [Link]
1. Soit a, b et c trois entiers. On suppose que a|b et a|c alors pour tout (u, v) ∈ Z2 , a|(ub + vc).
2. Soit a, b et c trois entiers avec c 6= 0 :
a|b ⇐⇒ ac|bc.
Démonstration : En exercice.
Soit a un entier relatif et b un entier naturel non nul. Il existe un unique couple (q, r ) où q est un
entier relatif et r ∈ [[ 0 ; b − 1 ]] tel que
a = bq + r.
Le nombre q s’appelle le quotient et le nombre r s’appelle le reste.
Démonstration : On a déjà démontré le cas où a ∈ N dans le chapitre 6. Le cas général se traite en remarquant
que a + | a|b est un entier naturel auquel on peut appliquer la division euclidienne.
Remarques :
1. On peut voir que q = E( a/b) même si cette caractérisation est rarement utile car « on sort des entiers ».
2. De manière évidente, a|b ⇐⇒ r = 0.
160
1.3 Congruences dans Z
Définition [Link]
Remarque : On peut aussi définir la relation en disant que a et b ont le même reste dans la division euclidienne
par m.
Proposition [Link]
Théorème [Link]
On en déduit qu’un nombre entier est divisible par 3 (ou 9) si et seulement si la somme de ses chiffres l’est.
3. On veut montrer que si p2 est pair alors p2 est divisible par 4. On regarde les congruences modulo 4 de p.
C’est 0, 1, 2 ou 3. De ce fait la congruence de p2 est 0, 1, 0 ou 1. Donc si ce n’est pas 1 (car p2 est pair) cela
ne peut être que 0 (et pas 2).
Exercice : Déterminer des critères de divisibilité par 11 et 37.
Soit a et b deux entiers naturels. Si ( a, b) 6= (0, 0), l’ensemble D ( a) ∩ D (b) des diviseurs communs à
a et b est un ensemble non-vide et majoré de Z. En particulier il admet un plus grand élément.
161
Démonstration : L’ensemble D ( a) ∩ D (b) est non vide car il contient 1. Si a est non nul il est majorée par a. Si a
est nul (et donc b non nul), il est majorée par b.
Définition [Link]
Remarque : On voit que l’on travaille avec les valeurs absolues de a et de b. De ce fait, on se ramènera souvent
au cas des entiers naturels.
Exemples :
1. On a 13 ∧ 6 = 1
2. On a 15 ∧ 6 = 3.
3. Si a 6= 0, a ∧ 0 = | a|. En effet D (0) ∩ D (| a|) = D (| a|). Le plus grand élément de D (| a|) est | a|.
Lemme [Link]
Soit a et b deux entiers naturels avec b 6= 0. Si r est le reste de la division euclidienne de a par b alors
D ( a ) ∩ D ( b ) = D ( b ) ∩ D (r ).
De ce fait a ∧ b = b ∧ r.
162
1. On prend a = 53 et b = 17
53 = 1 × 37 + 16
37 = 2 × 16 + 5
16 = 3 × 5 + 1
5 = 5×1+0
Donc 53 ∧ 37 = 1.
2. On prend a = 156 et b = 42
156 = 3 × 42 + 24
42 = 1 × 24 + 18
24 = 1 × 18 + 6
18 = 3 × 6 + 0
Donc 156 ∧ 42 = 6.
Remarque : Bien évidemment, si a ou b est négatif, on peut appliquer cet algorithme à | a| et |b|.
au + bv = a ∧ b.
Démonstration : Quitte à remplacer a et b par | a| et |b|, on peut supposer que ce sont des entiers naturels.
On va procéder par récurrence forte sur b. Précisément, pour b ∈ N on pose
Hb = ”∀ a ∈ N, ∃(u, v) ∈ Z2 , au + bv = a ∧ b”.
— Initialisation : Pour b = 0 c’est vrai car a ∧ 0 = a = a × 1 + 0 × 0.
— Hérédité : Soit b ∈ N? , on suppose que pour tout entier k < b, Hk est vraie. Si on écrit la division
euclidienne de a par b on a a = bq + r et a ∧ b = b ∧ r. On peut donc utiliser Hr pour justifier l’existence
de u0 et v0 dans Z tels que
bu0 + rv0 = b ∧ r = a ∧ b.
Il ne reste plus qu’à remplacer r par r = a − bq. Cela donne
a ∧ b = bu0 + ( a − bq)v0 = av0 + b(u0 − qv0 ).
On pose u = v0 et v = u0 − qv0 .
Remarques :
1. Nous verrons plus loin comment les calculer à partir de l’algorithme d’Euclide. Ce calcul pourra donner
une preuve algorithmique de l’existence.
2. Si on note aZ + bZ l’ensemble des nombres de la forme au + bv où u et v sont des entiers relatifs, le
théorème prouve que a ∧ b appartient à aZ + bZ. On en déduit immédiatement que c’est aussi le cas pour
les multiples de a ∧ b. C’est-à-dire ( a ∧ b)Z ⊂ aZ + bZ. Réciproquement, un élément de la forme au + bv
est divisible par a ∧ b car ce dernier divise a et b. En conclusion
( a ∧ b)Z = aZ + bZ.
(n| a et n|b) ⇔ n| a ∧ b.
163
Démonstration :
— ⇐ Par transitivité de la division car ( a ∧ b) divise a et b.
— ⇒ Soit n un entier qui divise a et b. On sait qu’il existe d’après le théorème de Bezout, des entiers u et v
tels que a ∧ b = au + bv. On en déduit que n| au et n|bv et donc n| a ∧ b.
Remarque : Le sens ⇒ signifie que a ∧ b est le plus grand diviseur commun de a et b au sens de la division.
au0k + bv0k = bk .
Dans les relations de récurrence, q désigne le quotient de ak par bk . Cela vient du fait que bk+1 = ak mod bk =
ak − qbk .
Par exemple pour a = 156 et b = 42.
ak bk q r uk vk u0k v0k
156 42 3 30 1 0 0 1
42 30 1 12 0 1 1 −3
30 12 2 6 1 −3 −1 4
12 6 2 0 −1 4 3 −11
6 0 3 −11
On trouve donc que
6 = 3 × 156 − 11 × 42.
En python cela donne
def euclideplus(a,b) :
u = 1
v = 0
uu = 0
vv = 1
# On initialise les variables u, v, uu (pour u’) et vv (pour v’)
while b <> 0 :
r = a % b
q = a / b
uuu = u - q*uu
vvv = v - q*vv
u = uu
v = vv
uu = uuu
vv = vvv
# on calcule les nouvelles valeurs de u, v, uu et vv
#(on utilise uuu et vvv comme variables temporaires)
a = b
b = r
return (u,v,a)
164
Là encore l’algorithme termine car la variable b est un entier naturel qui décroit strictement à chaque itération.
Pour prouver que l’algorithme renvoie les valeurs voulue il suffit de voir que A ∗ u + B ∗ v = a où A et B sont
les valeurs initiales des paramètres.
Soit a et b deux entiers relatifs. On dit que a et b sont premiers entre eux si et seulement si a ∧ b = 1. Cela
signifie que les seuls diviseurs communs de a et b sont 1 et −1.
Proposition [Link]
Démonstration :
— ⇒ : C’est la relation de Bézout
— ⇐ : On suppose qu’il existe u et v tels que au + bv = 1. Cela implique que aZ + bZ = Z. En utilisant la
remarque après le théorème de Bézout on obtient a ∧ b = 1.
Exemple : On peut ainsi montrer que pour tout entier n non nul, 2n + 1 et 9n + 4 sont premiers entre eux. En
effet 9.(2n + 1) − 2(9n + 4) = 1.
Corollaire [Link]
Soit a et b deux entiers premiers entre eux et a0 et b0 des diviseurs de a et b respectivement. Les
nombres a0 et b0 sont premiers entre eux.
Proposition [Link]
Soit a et b deux entiers naturels. On note d = a ∧ b. Il existe deux entier a0 et b0 premiers entre eux
tels que
a = da0 et b = db0 .
Démonstration :
— Si a = b = 0 on peut prendre a0 = b0 = 1.
— Sinon, d 6= 0. Il existe par définition, a0 et b0 tels que a = a0 d et b = b0 d. D’après ce qui précède il existe u et
v tels que au + bv = d ce qui s’écrit
a0 du + b0 dv = d.
En divisant par d on obtient
a0 u + b0 v = 1
On en déduit que a0 et b0 sont premiers entre eux.
Remarques :
165
1. Si on exclut le cas où a = b = 0 ce résultat peut s’écrire sous la forme plus simple suivant. Si a et b sont
a b
deux entiers alors et sont premiers entre eux.
a∧b a∧b
2. On utilisera cela dans les les exercices pour ramener un problème au cas des nombres premiers entre eux
La propriété principale des nombres premiers entre eux est le lemme de Gauss.
Remarque : Commençons par remarquer que cela n’est pas vrai si a et b ne sont pas premiers entre eux. Prenons
par exemple a = 2, b = 2 et c = 3 on a bien a|bc mais a ne divise pas c.
Démonstration : On utilise le théorème de Bézout. Soit (u, v) tels que au + bv = 1 on en déduit que
auc + bvc = c.
Or a| auc et a|bvc donc a|c.
Exemple : Cela permet de redémontrer que si p est un entier alors p2
pair implique p est pair. En effet si
supposons par l’absurde que p ne soit pas pair. Donc p est premier avec 2. On en déduit, comme 2| p × p que
2| p. C’est absurde.
Définition [Link]
a
Soit r un nombre rationnel. On appelle écriture irréductible de r une écriture de la forme où a ∈ Z et b ∈ N?
b
avec a et b premiers entre eux.
Corollaire [Link]
Démonstration : C’est vrai pour r = 0 car 1 est le seul nombre positif premier avec 0.
Si r 6= 0, on prouve l’existence en prenant une écriture et en divisant par le pgcd du numérateur et du
dénominateur (après avoir éventuellement changé le signe du numérateur). Pour l’unicité, on se donne deux
écritures qui vérifient l’énoncé. On a
a a0
r = = 0.
b b
On en déduit que ab0 = a0 b. En particulier b|( ab0 ) mais comme a et b sont premiers entre eux, b|b0 . En refaisant
le raisonnement dans l’autre sens, on trouve que b et b0 sont associés, comme ils sont positifs, ils sont égaux. On
a donc b = b0 et a = a0 en découle.
Corollaire [Link]
( a ∧ b = 1 et a ∧ c = 1) ⇒ a ∧ (bc) = 1.
En particulier, si a et b sont premier entre eux alors an et bm aussi pour tout n, m non nuls.
166
2.6 Résolution de l’équation au + bv = c.
On se donne trois entiers relatifs a, b et c et on suppose que a et b sont non nuls et on veut résoudre l’équation
au + bv = c d’inconnues (u, v). On notera d = a ∧ b.
1. On a vu que aZ + bZ = dZ. De ce fait, si d ne divise pas c, S = ∅. Dans la suite on suppose que d|c de ce
fait on sait qu’il y a des solutions.
2. D’après ce qui précède on sait trouver (u0 , v0 ) vérifiant au0 + bv0 = d. Il ne reste plus qu’à multiplier par
k tel que c = kd pour trouver une solution de l’équation. Nous noterons (α0 , β 0 ) cette solution.
3. Supposons donc que l’on connaisse une solution (α0 , β 0 ) de l’équation. On a alors pour tout (u, v) dans
Z2 :
au + bv = c ⇐⇒ au + bv = au0 + bv0 ⇐⇒ a(u − β 0 ) + b(v − β 0 ) = 0.
Il ne nous reste donc qu’à résoudre l’équation aU + bV = 0.
4. On peut noter a0 et b0 tels que a = da0 et b = db0 avec a0 et b0 premiers entre eux. On a alors
aU + bV = 0 ⇐⇒ d( a0 U + b0 V ) = 0 ⇐⇒ a0 U + b0 V = 0.
5. Pour finir, soit (U, V ) une solution de a0 U + b0 V = 0 on a donc a0 U = −b0 V d’où a0 |b0 V et donc a0 |V car a0
et b0 sont premiers entre eux. On en déduit que les solutions de cette équation sont {(kb0 , −ka0 ) | k ∈ Z}.
L’ensemble des solutions est donc :
{(α0 + kb0 , β 0 − ka0 ) | k ∈ Z} si d |c
S=
∅ sinon
Proposition [Link]
Tp
Soit a1 , . . . , a p des entiers naturels non tous nuls. L’ensemble i =1 D ( a i ) est non vide et majorée.
Définition [Link]
Exemples :
1. On a 3 ∧ 9 ∧ 12 = 3
2. On a 3 ∧ 6 ∧ 10 = 1.
Soit ( ai )16i6 p une famille d’entiers. Il existe une famille (ui )16i6n d’entiers tels que
a1 u1 + · · · + a p u p = a1 ∧ · · · ∧ a p .
167
— Hérédité On suppose la propriété vraie pour p et on la démontre pour p + 1. On procède par récurrence
sur a p+1 . On note Gn le prédicat « pour toute famille ( ai )16i6 p il existe une famille (ui )16i6( p+1) d’entiers
tels que a1 u1 + · · · + a p u p + a p+1 n = a1 ∧ · · · ∧ a p ∧ n. »(Ici la variable est n et pas p).
— Initialisation Si n = 0 on est ramené à H p
— Hérédité Si n > 0, on procède comme dans la démonstration de la relation de Bézout en effectuant a
division euclidienne de a p par n.
Remarque : Comme dans le cas de deux nombres, on peut en déduire que
a1 Z + · · · + a p Z = ( a1 ∧ · · · ∧ a p )Z.
Corollaire [Link]
∀n ∈ Z, (n| a1 et · · · et n| a p ) ⇐⇒ n| a1 ∧ · · · ∧ a p .
Définition [Link]
Remarque : Il est clair que si les nombres sont deux à deux premiers entre eux ils sont premiers entre eux dans
leur ensemble. En effet un diviseur commun aux p entiers est aussi un diviseur commun à deux d’entre eux. La
réciproque est fausse. Par exemples si on prend a = 6, b = 15 et c = 10. Alors a ∧ b = 3, a ∧ c = 2 et b ∧ c = 5
par contre a ∧ b ∧ c = 1.
Soit a et b deux entiers. On appelle plus petit commun multiple (PPCM) de a et de b et on note a ∨ b l’élément
défini de la manière suivante :
— Si a = 0 ou b = 0 on pose a ∨ b = 0.
— Si a 6= 0 et b 6= 0, a ∨ b est le plus petit élément strictement positif de aZ ∩ bZ.
Remarque : L’ensemble aZ ∩ bZ est l’ensemble des nombres qui sont des multiples de a et de b. Si ab 6= 0, il
contient | ab| donc aZ ∩ bZ admet un plus petit élément strictement positif.
Remarques :
1. On a aussi a ∨ b = | a| ∨ |b|.
2. On a a ∨ b = 0 si a ou b est nul.
168
Démonstration : Si a = 0 ou b = 0 c’est évident. La partie ⇐ est évidente car a| D et b| D. On finira la
démonstration dans le paragraphe suivant.
Remarque : On en déduit bien que D = a ∨ b est un multiple commun à a et b. De plus c’est le plus petit au
sens de la division et de ce fait aussi au sens de l’ordre de Z.
Démonstration : On peut se ramener à a et b strictement positif. On voit déjà que ab est un multiple commun de
a et de b. De plus, si d est un multiple commun de a et b strictement positif. Il existe k tel que d = ak. Maintenant,
b|d donc b|( ak ). Par le lemme de Gauss b|k. Donc d = abk0 d’où d > ab. On en déduit que ab est bien le plus
petit multiple commun de a et b qui soit strictement positif.
On a bien a ∨ b = | ab|.
Corollaire [Link]
Démonstration :
1. En exercice
2. On se ramène comme d’habitude au cas des entiers strictement positifs. Il suffit ensuite d’utiliser a0 et b0
premiers entre eux qui vérifient a = da0 et b = db0 ou d = a ∧ b. On a alors d’après 1.
En multipliant par d = a ∧ b on a
( a ∧ b)( a ∨ b) = d2 a0 b0 = ab.
Remarque : On en déduit une méthode simple pour déterminer le PPCM. On calcule le PGCD et on a
| ab|
a∨b = . Par exemple si a = 152 et b = 68. On a a ∧ b = 4 donc a ∨ b = 152 × 17 = 2584.
a∧b
On peut maintenant démontrer notre théorème ci-dessus.
Démonstration : Comme d’habitude on se ramène au cas où a et b sont strictement positifs. On veut montrer
que
∀n ∈ Z, ( a|n et b|n) ⇒ D | n où D = a ∧ b.
Comme ci-dessus, on pose d = a ∧ b et a = da0 , b = db0 . De ce fait D = da0 b0 . Maintenant, si a|n, on peut écrire
n = ka = kda0 . De plus b|n d’où db0 |dka0 . Cela implique b0 |ka0 et donc b0 |k car a0 et b0 sont premiers entre eux.
Finalement, en notant k = b0 u on obtient n = dub0 a0 = uD. On a bien D |n.
Corollaire [Link]
Si a et b sont premiers entre eux. Pour tout entier n, a|n et b|n implique ab|n.
4 Nombres premiers
Nous travaillons dans N dans ce paragraphe.
169
4.1 Généralités
Définition [Link]
On appelle nombre premier un entier naturel différent de 1 n’admettant pour diviseurs que 1 et lui même. On
note P l’ensemble des nombres premiers.
Proposition [Link]
Soit p un nombre premier et n un entier. Les entiers p et n sont premiers entre eux ou p divise n. En
particulier si n ∈ [[ 1 ; p − 1 ]] alors p et n sont premiers entre eux.
−1
Exemple : Soit k ∈ [[ 1 ; p − 1 ]] alors ( kp) est divisible par p. En effet on sait que k( kp) = p( kp− 1
). Donc p divise
p p
k ( k ) mais comme k et p sont premiers entre eux, p divise ( k ).
Proposition [Link]
Démonstration :
1. Évident
2. Par récurrence forte.
3. Supposons par l’absurde qu’il existe un nombre fini de nombre premiers. Notons les ( p1 , . . . , pn ). On
n
considère m = ∏ pk + 1. Ce nombre n’est divisible par aucun pi or il admet un diviseur premier. C’est
k =1
absurde.
Remarque : Le dernier point est du à Euclide.
Exercice : Montrer qu’il existe une infinité de nombres premiers congru à −1 modulo 4. On pourra considérer
4 ∏ pk − 1.
(la deuxième écriture est obtenue en regroupant les différentes occurrences d’un même nombre
premier on a donc que les pi sont deux à deux disjoints).
De plus cette décomposition est unique à l’ordre des facteurs près.
Remarque : Il arrive que l’on doivent ajouter des nombres premiers qui n’apparaissent pas dans la décomposi-
tion. Dans ce cas on les affecte de l’exposant αi = 0.
Démonstration : Commençons par l’existence. Cela se fait par récurrence forte sur n. On note Hn l’hypothèse
« n peut se décomposer en produit de nombres premiers.
170
— Initialisation : Pour n = 2 c’est vrai.
— Hérédité Soit n un entier au moins égal à 3 on suppose que Hk est vrai pour tout k ∈ [[ 2 ; n − 1 ]] . On
sait que n admet un diviseur premier. Soit p ce diviseur. On a donc n = p.n0 Si n0 = 1, on a fini. Sinon, on
utilise Hn0 .
Par récurrence (forte) on a que tout entier supérieur à 2 admet une décomposition en facteurs premiers.
Montrons maintenant l’unicité. On suppose se donner deux décompositions
β β
n = p1 1 × · · · × prαr = p1 1 × · · · × pr r .
α
On peut supposer que les deux décompositions sont sur les mêmes nombres premiers en utilisant la remarque
ci-dessus. Supposons par l’absurde que ces deux décompositions diffèrent. Il existe alors i ∈ [[ 1 ; r ]] tel que
α
αi 6= β i . Par symétrie on suppose que αi < β i . On obtient alors, après « simplification » par pi i que
β − αi
∏ pj ∏ pj
αj βj
= pi i .
j 6 =i i6= j
On voit alors que pi divise le terme de droite mais pas celui de gauche par pi est premier avec tous les p j
( j 6 = i ).
On a donc bien unicité de la décomposition.
Exemple : Soit n = 893172. On a n = 22 .3.74 .31.
Remarque : Le problème de calculer la décomposition d’un nombre entier est un sujet de recherche important.
Actuellement on ne sait pas trouver une telle décomposition en temps polynomial. Si on y arrivait cela mettrait
à mal toutes les techniques de chiffrages à clé publique type RSA.
Proposition [Link]
Définition [Link]
Soit p un nombre premier. On définit la valuation p-adique d’un nombre entier n comme étant l’exposant que
p dans sa décomposition. On la note v p (n).
Proposition [Link]
a|b ⇐⇒ ∀ p ∈ P, v p ( a) 6 v p (b).
171
Théorème [Link] (Petit théorème de Fermat)
a p −1 ≡ 1 [ p ] .
Remarque : On peut le généraliser en enlevant la condition que p ne divise pas a. On obtient alors a p ≡ a[ p].
Démonstration : Soit a un entier. On a
p
p k p−k
( a + 1) p = ( a + 1) p = ∑ a 1 ≡ a p + 1 p [ p]
k =0
k
p
Le résultat de congruence vient du fait que si k ∈ [[ 1 ; p − 1 ]], ≡ 0 [ p]
k
p
On en déduit alors par une récurrence immédiate que a ≡ a [ p] pour tout entier a.
Maintenant si p ne divise pas a alors a et p sont premiers entre eux et d’après la relation de Bézout il existe
des entiers u et v tels que
au + pv = 1
Cela revient à au ≡ 1 [ p]. On en déduit que
172
1 Limites
12Limites
174
1.1 Limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
1.2 Voisinage et propriétés locales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176
1.3 Limite à droite et à gauche . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
1.4 Continuité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
1.5 Caractérisation séquentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 179
1.6 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
1.7 Inégalités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
1.8 Fonctions monotones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182
2 Relations de comparaisons 183
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
2.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
2.3 Équivalents classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
2.4 Opérations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
Notation : Dans ce chapitre I désignera toujours un intervalle de R non vide et non réduit à un point.
Nous allons dans un premier temps définir la notion de limite en un point (ou en ±∞) puis nous étudierons
ses propriétés.
Exemples :
1
1. Soit f la fonction inverse définie sur R? par f : x 7→ .
x
— si on prend pour x des valeurs proches de 2, f ( x ) sera proche de 0, 5 :
x f (x)
2, 1 0, 476
2, 01 0, 496
1, 99 0, 503
— si x est très grand (ou proche de +∞) alors f ( x ) va être très petit.
x f (x)
1000 0, 001
10000 0, 0001
100000 0, 00001
173
2. On considère la fonction partie entière b.c. Là encore on va prendre x proche de 2
x bxc
2, 1 2
2, 01 2
1, 99 1
On voit que dans x est proche de 2, la valeur b x c varie avec une "assez grande" amplitude.
3. On considère la fonction sinus. On fait tendre x vers +∞
x sin x
1000 0, 83
10000 0, 31
100000 0, 03
Là encore on voit que quand x devient très grand, sin x prend des valeurs assez différentes.
1 Limites 4,5
1.1 Limite 4
2,5
1,5
V 0,5
U
-0,5
Quitte à se rapprocher de 2, on peut supposer que l’image est aussi près que l’on veut de 1/2.
Définition [Link]
Soit f une fonction définie sur I et a ∈ I ∈ R. Soit ` un réel. On dit que la limite de f en a est ` ou que f tend
vers a en ` si :
∀ε > 0, ∃η > 0, ∀ x ∈ I, | x − a| 6 η ⇒ | f ( x ) − `| 6 ε.
On note alors
lim f = ` ; lim f ( x ) = ` ou f ( x )−→`
a x→a x→a
1
Exemple : Reprenons notre exemple de la fonction x 7→ . Prenons par exemple ε = 10−3 . On cherche donc
x
η > 0 tel que | x − 2| 6 η ⇒ |1/x − 1/2| 6 10−3 . Résolvons donc l’inégalité |1/x − 1/2| 6 10−3 .
1 1 |2 − x |
| − | < 10−3 ⇔ < 10−3
x 2 |2x |
⇔ < 10−3 |2x |.
On sait que l’on veut que x soir proche de 2 donc en particulier supérieur à 1. Il suffit donc que |2 − x | 6 2.10−3 .
C’est le η cherché.
Remarque : Pour exprimer que la limite de f n’est pas ` en a (ce qui signifie que f a soit une autre limite soit
pas de limite) on a
174
∃ε > 0, ∀η > 0, ∃ x ∈ I, | x − a| < η et | f ( x ) − `| > ε.
On peut généraliser cette définition au cas où a est un réel ou +∞ ou −∞ et où ` est un réel ou +∞ ou −∞,
cela donne toutes les définitions suivantes :
Définition [Link]
Soit f une fonction définie sur I et a ∈ I. Soit ` ∈ R. On dit que la limite de f en a est ` ou que f tend vers a
en ` si :
Si a ∈ R et ` ∈ R : ∀ε > 0, ∃η > 0, ∀ x ∈ I, | x − a| 6 η ⇒ | f ( x ) − `| 6 ε
Si a ∈ R et ` = +∞ : ∀ M ∈ R, ∃η > 0, ∀ x ∈ I, | x − a| 6 η ⇒ f ( x ) > M
Si a ∈ R et ` = −∞ : ∀ M ∈ R, ∃η > 0, ∀ x ∈ I, | x − a| 6 η ⇒ f ( x ) 6 M
Si a = +∞ et ` ∈ R : ∀ε > 0, ∃ A ∈ R, ∀ x ∈ I, x > A ⇒ | f ( x ) − `| 6 ε
Si a = +∞ et ` = +∞ : ∀ M ∈ R, ∃ A ∈ R, ∀ x ∈ I, x > A ⇒ f ( x ) > M
Si a = +∞ et ` = −∞ : ∀ M ∈ R, ∃ A ∈ R, ∀ x ∈ I, x > A ⇒ f ( x ) 6 M
Si a = −∞ et ` ∈ R : ∀ε > 0, ∃ A ∈ R, ∀ x ∈ I, x 6 A ⇒ | f ( x ) − `| 6 ε
Si a = −∞ et ` = +∞ : ∀ M ∈ R, ∃ A ∈ R, ∀ x ∈ I, x 6 A ⇒ f ( x ) > M
Si a = −∞ et ` = −∞ : ∀ M ∈ R, ∃ A ∈ R, ∀ x ∈ I, x 6 A ⇒ f ( x ) 6 M
On note alors
lim f = ` ; lim f ( x ) = ` ou f ( x )−→`
a x→a x→a
Exemple : Montrons par exemple que la fonction x 7→ x2 + 1 tend vers +∞ en −∞. Pour n’importe quel
nombre M, on cherche A tel que x 6 A ⇒ x2 + 1 > M. Or
x2 + 1 > M ⇔ x2 > M − 1.
√
Donc si M 6 1 ceci est toujours vrai, on peut prendre A = −23. Si M > 1, on prend A = − M − 1.
Proposition [Link]
Avec les notations précédentes, si la limite de f en a existe alors elle est unique.
Démonstration : Montrons par exemple qu’une fonction f ne peut pas tendre en a ∈ R vers ` ∈ R et +∞. En
effet cela signifierait que pour ε = 1 on puisse trouver η tel que pour tout x dans ] a − η, a + η [, f ( x ) ∈]` − 1, ` + 1[.
De même, on peut trouver pour M = ` + 2 > ` + 1, η 0 tel que pour tout x dans ] a − η 0 , a + η 0 [, f ( x ) ∈> ` + 2.
Proposition [Link]
Soit f une fonction définie sur I et a ∈ I (en particulier f est définie en a). Si f admet une limite ` en
a alors ` = f ( a).
Démonstration : Supposons par l’absurde que ` 6= f ( a). Soit ε tel que f ( a) ∈ / [` − ε, ` + ε]. On sait qu’il
existe alors η tel que pour tout x de I si x appartient à [ a − η, a + η ] alors f ( x ) ∈ [` − ε, ` + ε]. Cependant,
a ∈ [ a − η, a + η ] et f ( a) ∈
/ [` − ε, ` + ε]. C’est absurde.
On procède de même pour montrer que ` 6= ±∞.
On essaye souvent de se ramener au cas de 0 (aussi bien pour ` si elle est réelle que pour a).
175
Proposition [Link]
lim f ( x ) = ` ⇐⇒ lim f ( a + h) = `.
x→a h →0
∀ ε > 0 , ∃ η > 0 , ∀ x ∈ I, | x − a| 6 η ⇒ | f ( x ) − `| 6 ε .
On voit que toutes les autres se construisent à partir de celle là en changeant ces blocs. On peut préciser cela
grâce à la notion de voisinage.
Définition [Link]
Définition [Link]
Soit f une fonction définie sur I et a un élément de I. Soit P une propriété. On dit que P est vraie au
voisinage de a s’il existe un voisinage V de a tel que P est vraie pour tout élément x de V ∩ I.
Remarque : Dans la définition de voisinage on a choisit de prendre des intervalles fermés mais on peut tout
autant prendre des intervalles ouverts. Il suffit de remarque par exemple que, au voisinage de a :
De même en +∞
] M, +∞[⊂ [ M, +∞[⊂] M − 1, +∞[.
Exemples :
1. Soit P la propriété « f est strictement positive ». Dire que f est strictement positive au voisinage de a ∈ R
signifie que
∃ε > 0, ∀ x ∈ I ∩ [ a − ε, a + ε], f ( x ) > 0
Par exemple x 7→ cos( x ) est strictement positive au voisinage de 0.
2. Soit f et g deux fonctions. On dira que f 6 g au voisinage de a s’il existe Va un voisinage de a tel que
∀ x ∈ V a , f ( x ) 6 g ( x ).
3. Soit P la propriété « f est bornée ». La fonction x 7→ e x est bornée au voisinage de tout a dans R. Elle est
bornée au voisinage de −∞ mais pas au voisinage de +∞.
176
Exercice : soit P1 et P2 deux propositions. Montrer que si P1 et P2 sont vraies aux voisinage de a alors (P1 et P2 )
l’est. Peut-on généraliser à une infinité de propositions ?
Remarque : Dans le cas des suites, le a où l’on évalue la limite est toujours +∞. Dans ce cas dire « au voisinage
de +∞ » revient à dire « à partir d’un certain rang ».
Proposition [Link]
Remarque : Noter que la deuxième partie n’est pas vraie si on remplace > 0 par > 0.
Démonstration
Définition [Link]
Soit f une fonction définie sur un intervalle I, a un réel de I et ` ∈ R. On dit que f admet ` pour limite à
droite (resp. à gauche) en a si f I ∩] a,+∞[ (resp. f I ∩]−∞,a[ ) admet ` comme limite en a.
On note alors lim f ( x ) = ` (resp. lim f ( x ) = `).
x → a+ x → a−
B Dans le cas des limites à gauche et à droite en a on exclut a même si f est définie en a. De ce fait, une
fonction peut avoir une limite à droite (ou à gauche) en a qui soit différente de f ( a). Par exemple, la fonction
f : x 7→ E( x ) admet 0 pour limite à gauche en 1 alors que f (1) = 1.
Proposition [Link]
Soit f une fonction définie sur I et a un réel de I qui n’est pas une borne. La fonction f admet une
limite en a si et seulement si f admet des limites à droite et à gauche en a qui sont identiques et qui
sont égales à f ( a). C’est-à-dire :
Remarque : cela peut s’utiliser pour montrer qu’une fonction n’est pas continue en un point. Par exemple, on
considère f la fonction partie entière de R dans R. Soit a un réel.
— si a n’est pas un entier. Il existe ε > 0 tel que V =] a − ε, a + ε[⊂]n, n + 1[ ne contient pas d’entier. La
restriction de f à V est la fonction constante égale à n. On en déduit que
177
— si a est un entier. En raisonnant comme ci-dessus, on voit que
lim f = a − 1 et lim f = a.
a− a+
La fonction f n’a pas de limite en a car les limites à droite et à gauche ne sont pas égales.
Remarque : On peut étendre les définitions des limites au cas des fonctions définies sur I \ { a} où a est un
élément de I qui n’est pas une borne.
B Il faut bien différencier deux cas distincts
— Si f est définie sur I et si a est un élément de I (en particulier f définie en a). On a
lim f = ` ⇐⇒ lim f = lim f = f ( a)
a a+ a−
— Si f est définie sur I \ { a} où a est un élément de I (en particulier f n’est pas définie en a). On a
lim f = ` ⇐⇒ lim f = lim f
a a+ a−
Remarque : il se peut aussi qu’il n’ait pas de limite à droite et gauche. Nous verrons des exemples plus loin.
1.4 Continuité
Définition [Link]
Soit f une fonction définie sur un intervalle I et a un élément de I. Si la limite de f en a existe, on dit que f
est continue en a. Dans ce cas
lim f ( x ) = f ( a).
x→a
Remarques :
1. Pour qu’une fonction soit continue en a, il faut déjà qu’elle y soit définie.
2. La définition classique est lim f ( x ) = f ( a). De fait, f est définie en a et admet une limite en a alors la
x→a
limite est automatiquement égale à f ( a).
1 si x 6= 0
Exemple : La fonction x 7→ n’est pas continue en 0.
0 sinon
Définition [Link]
Exemple : Toujours la fonction partie entière. Elle est continue à droite en tout point. Par contre elle n’est pas
continue à gauche aux entiers.
Définition [Link]
Soit f une fonction définie sur I et a une bornée réelle de I qui n’est pas dans I (en particulier f ( a) n’est pas
défini). Si f admet une limite finie quand x tend vers a. On dit que f est prolongeable par continuité et on
appelle prolongement par continuité la fonction
f˜ : I ∪ { a} → ( R
f (x) si x ∈ I .
x 7→ lim f si x = a
a
178
sin x
Exemple : Regardons la fonction f définie sur R?+ par f ( x ) = . Elle peut se prolonger par continuité en 0
x
sin x
en posant f (0) = lim = 1.
x →0 x
Remarque : Par extension, on peut aussi prolonger par continuité une fonction f définie sur I \ { a} où a est un
élément de I qui n’est pas une borne. Dans ce cas, on peut la prolonger si lima f existe ce qui revient à lima− f et
sin x
lima+ f existent et sont égales. Par exemple pour x 7→ définie sur R? .
x
Théorème [Link]
Remarques :
1. La partie ⇐ est utile pour moi. Cela permet de déduire des théorèmes sur les limites des fonctions en se
basant sur les résultats similaires sur les limites des suites.
2. La partie ⇒ est utile pour vous.
n2 + 1
— Si lim un = a et lim f ( x ) = ` alors lim f (un ) = `. Par exemple lim = 0.
x→a n→∞ 2n2 + n
— C’est aussi le résultat que l’on utilise pour montrer que la limite d’une suite un+1 = f (un ) avec f une
fonction continue est un point fixe de f .
— On peut démontrer qu’une fonction n’a pas de limite. En effet si on trouve deux suites (un ) et (vn )
convergeant vers a telles que f (un ) et f (vn ) ne convergent pas ou pas vers la même limite alors f n’a
pas de limite. Montrons pas exemple de la fonction f définie sur R? par f ( x ) = sin(1/x ) n’a pas de
1 1
limite en 0. On considère les suites un = et vn = . On a lim(un ) = lim(vn ) = 0 mais
2nπ 2nπ + π/2
lim( f (un )) = 0 et lim( f (vn )) = 1. En particulier elle n’a pas de limite en 0 (pas plus en 0+ ).
0,5
-0,5
-1
179
Le fait que la limite de f en a n’est pas ` s’écrit :
Soit un ε fixé par le résultat ci dessus, pour tout entier n, on pose η = 1/n et ce qui précède nous dit qu’il
existe xn ∈ I tel que
1
| xn − a| 6 η = et | f ( xn ) − `| > ε.
n
Cela signifie bien que ( xn ) tend vers a et que f ( xn ) ne tend pas vers `.
Corollaire [Link]
Soit f une fonction définie sur I et a ∈ I. La fonction f est continue en a si et seulement si pour toute
suite (un ) tendant vers a, ( f (un )) tend vers f ( a).
1.6 Opérations
2
Soit I un intervalle et a ∈ I. Soit f et g deux fonctions définies sur I. Soit (`, `0 ) ∈ R . On suppose que
lim f ( x ) = ` et lim g( x ) = `0 . On a les même formules que pour les suites.
x→a x→a
• Somme
La limite de la fonction f + g en a est donnée par :
PP lim f
PP
` −∞ +∞
lim g PPP P
`0 ` + `0 −∞ +∞
−∞ −∞ −∞ ?
+∞ +∞ ? +∞
Démonstration : Montrons, en utilisant la caractérisation séquentielle, par exemple que si lim f ( x ) = ` ∈ R
x→a
et lim g( x ) = `0 ∈ R alors lim ( f + g)( x ) = ` + `0 . En effet, pour tout suite (un ) tendant vers a en +∞, la
x→a x→a
suite f (un ) tend vers ` et la suite g(un ) tend vers `0 . En utilisant le théorème sur les limites de suites, on
obtient que lim ( f + g)(un ) = ` + `0 . Ceci étant vrai pour toute suite tendant vers a, on en déduit que
n→+∞
lim ( f + g)( x ) = ` + `0 .
x→a
Exercice : Faire la démonstration de manière « directe » en utilisant la quantification.
Remarque : Si on fixe un intervalle I et un élément a dans I. L’ensemble (R I , +, ×) des fonctions de I dans R
est un anneau et donc (R I , +) est un groupe abélien. Le résultat précédent permet de dire que l’ensemble des
fonctions tendant vers 0 forment un sous-groupe de (R I , +).
• Multiplication externe
Soit λ un réel. La limite de la fonction λ. f est donnée par :
PP lim f
PP
PP ` −∞ +∞
λ PP
λ>0 λ.` −∞ +∞
λ=0 0 0 0
λ<0 λ.` +∞ −∞
Notons que si λ = 0 et que f tend vers ±∞ ce n’est pas une forme indéterminée. En effet la fonction λ. f est la
fonction nulle.
• Produit
La limite de la fonction f .g est donnée par le tableau suivant :
PP lim f ` < 0
PP
`=0 `>0 −∞ +∞
lim g PPP P
`0 < 0 `.` 0 0 `.` 0 +∞ −∞
0
` =0 0 0 0 ? ?
`0 > 0 `.` 0 0 `.` 0 −∞ +∞
−∞ +∞ ? −∞ +∞ −∞
+∞ −∞ ? +∞ −∞ +∞
180
Noter en particulier que la forme (+∞) × (−∞) n’est pas une forme indéterminée.
• Quotient
La limite de la fonction f /g est donnée par le tableau suivant :
PP lim f
PP
`<0 `=0 `>0 −∞ +∞
lim g PPP P
`0 < 0 `/`0 0 `/`0 +∞ −∞
` 0 = 0− +∞ ? +∞ +∞ -∞
` 0 = 0+ −∞ ? +∞ −∞ +∞
`0 > 0 `/`0 0 `/`0 −∞ +∞
−∞ 0 0 0 ? ?
+∞ 0 0 0 ? ?
• Composition
On a aussi un théorème sur la limite d’une composée de fonctions.
Théorème [Link]
Soit f une fonction définie sur un intervalle I et g une fonction définie sur un intervalle J contenant
f ( I ).
1. Soit a ∈ I, b ∈ R. Si lim f ( x ) = b alors b ∈ J.
x→a
2. Si de plus il existe ` ∈ R tel que lim f ( x ) = ` alors lim( g ◦ f )( x ) = `.
x →b a
1.7 Inégalités
Là encore, on a des théorèmes similaires à ceux sur les limites des suites et les inégalités.
Théorème [Link]
Remarques :
1. Pour ce théorème, les inégalités dans R sont définis en supposant que pour tout x dans R, −∞ 6 x 6 +∞.
2. Comme d’habitude, même si on a de plus, que pour tout x de I, f ( x ) > g( x ), on ne peut pas conclure à
` > `0 . Il suffit de considérer par exemple les fonctions x 7→ | x | et x 7→ 0 en 0.
Exercice : (En classe) Faire la démonstration pour a, ` et `0 réels. On procédera par l’absurde.
Il y a aussi un analogue des théorèmes des gendarmes.
181
Théorème [Link] (Théorèmes d’encadrements)
Remarque : Là encore il suffit que les majorations ne soient vraies que sur un voisinage de a.
Corollaire [Link]
Démonstration
0.10
0.05
-0.05
-0.10
-0.15
-0.20
Proposition [Link]
2
Soit I un intervalle ouvert c’est-à-dire de la forme I =] a, b[ où ( a, b) ∈ R . Soit f une fonction
croissante sur I.
1. Si f est majorée alors f admet une limite en b qui est sup f ( x ).
x∈ I
2. Si f n’est pas majorée alors lim f = +∞.
b
3. Si f est minorée alors f admet une limite en a qui est inf f ( x ).
x∈ I
4. Si f n’est pas minorée alors lim f = −∞.
a
Démonstration
Remarques :
182
1. Si l’intervalle n’est pas ouvert, ce résultat n’est plus vrai. On peut prendre par exemple la fonction partie
entière sur [0, 1]. Elle n’a pas de limite en 1. Mais elle a une limite à gauche en 1.
2. On a des résultats analogues pour f décroissante, il suffit de remplacer f par − f .
3. Il faut bien voir que l’hypothèse croissante est essentielle comme le prouver par exemple sin(1/x ) sur
]0, 1[.
Corollaire [Link]
Soit f une fonction monotone définie sur un intervalle I. Elle admet des limites à droite et à gauche
en tout point a de I qui n’est pas une extrémité de I.
Remarques :
1. Si les extrémités sont dans I, il n’y a qu’une limite à droite ou à gauche.
2. De part la démonstration, si f est croissante, soit a un élément de I qui n’est pas une extrémité,
lim f 6 f ( a) 6 lim f .
a− a+
2 Relations de comparaisons
Si on regarde les courbes des fonctions x 7→ x et x 7→ sin x on voit que ce sont deux fonctions très différentes.
Cependant, au voisinage de 0 elles sont similaires.
-2 -1 1 2
-1
-2
Le but de ce chapitre est de donner des définitions précises de « les fonctions x 7→ sin x et x 7→ x sont
équivalentes en 0 » ou « la fonction x2 est négligeable devant x 7→ e x en +∞ ».
On va avoir besoin d’une hypothèse technique qui va nous permettre de simplifier nos définitions.
Notation : Soit a ∈ R on va dire que f vérifie Fa si elle est définie au voisinage de a et qu’elle ne s’annule pas
sur un voisinage de a sauf peut-être en a. cela s’écrit
— ∃ε > 0, ∀ x ∈] a − ε, a[∩] a, a + ε[, f ( x ) 6= 0 si a ∈ R
— ∃ M ∈ R, ∀ x > M, f ( x ) 6= 0 si a = +∞.
— ∃ M ∈ R, ∀ x 6 M, f ( x ) 6= 0 si a = −∞.
183
2.1 Définitions
Définition [Link]
ATTENTION
De part la définition de Fa on ne peut pas considérer la fonction nulle. Nous n’aurons jamais f ∼ 0.
a
Exemples :
1. On le reverra plus bas. Si on considère le polynôme P( x ) = −3x4 − 3x2 + x − 1. On a
Attention par contre que P( x ) n’est pas équivalent à x4 . De plus, cet équivalent n’est plus vrai du tout au
voisinage de 0 ou de a = 3 par exemple.
sin x
2. On a lim = 1 donc sin x ∼ x. En pratique, on pourra donc remplacer dans les calculs de limite en 0,
x →0 x 0
sin3 x
les sin x par x. Si on veut déterminer lim qui est une forme indéterminée, on écrira que sin3 x ∼ x3
x →0 x 2 0
sin3 x x3
d’où ∼ = x. Donc
x2 0 x2
sin3 x
lim = 0.
x →0 x 2
Remarques :
1. On pourra omettre le a dans la notation f ∼ g s’il est évident.
a
2. Faire attention que cette notion est locale. Par exemple sin x est équivalente à x au voisinage de a = 0n
cependant, ce n’est plus du tout vrai si on se place au voisinage de a = 7 par exemple...
3. On peut définir la notion d’équivalence en a pour des fonctions qui ne vérifient par Fa . On dit que f est
équivalente à g s’il existe un voisinage V de a, une fonction ε définie sur V telle que
— pour tout x dans V , f ( x ) = g( x )ε( x ).
— lim ε = 1.
a
On voit que f ∼ 0 signifie qu’il existe un voisinage V de a telle que f soit la fonction nulle sur V .
a
4. Le but de cette notion est de remplacer des fonctions f à priori compliquée par des fonctions g plus
simples qui sont équivalentes au voisinage de l’endroit qui nous intéresse. Dans la plupart des cas la
fonction g sera de la forme ( x − a)n pour a ∈ R et x α pour a = ±∞.
5. Il n’est réellement intéressant de faire des équivalents que pour lever des formes indéterminées. De ce fait
cela ne concerne que des fonctions qui tendent vers 0 ou vers ±∞. C’est pour cela que l’équivalent en 1 de
sin n’est pas très intéressant car c’est juste sa valeur.
Définition [Link]
184
Remarques :
1. On pourra omettre le a dans les notations f = o ( g) et f = O ( g)s’il est évident.
2. Faire attention que ces notions sont locales.
3. On peut aussi définir ces notions en a pour des fonctions qui ne vérifient par Fa de la même manière que
ci-dessus.
Exemples :
x
1. On a x = o x2 . En effet, lim = 0.
+∞ x →+∞ x2
2. On a aussi x = o (1).
0
3. On a 2x2 = O x2 .
+∞
Proposition [Link]
Soit f une fonction définie au voisinage de a. On suppose que f est dérivable en a et que f 0 ( a) 6= 0.
On a
f ( x ) ∼ f 0 ( a)( x − a).
a
2.2 Propriétés
Le lien entre les fonctions équivalentes et les fonctions négligeables sont donnés par la proposition suivante.
Proposition [Link]
f = g + o ( g) ⇔ f ∼ g.
a a
Proposition [Link]
185
Proposition [Link]
Proposition [Link]
Remarque : Bien comprendre le sens de ce qui précède. Cela signifie que si f a une limite alors g aussi et que
ce sont les mêmes limites. En particulier cela signifie que pour déterminer l’existence et faire le calcul d’une
limite on peut remplacer une fonction par une fonction qui lui est équivalente.
ATTENTION
A l’inverse, il est faut en général de penser que deux fonctions f et g qui ont la même limite ` en a
sont équivalentes. Si ` est fini et non nul c’est vrai mais pas pour ` = 0 ou ` = ±∞. Par exemple x et
x2 en 0.
On peut donc voir la relation d’équivalence en a comme « plus fine »que la relation avoir la même limite en a.
Proposition [Link]
Démonstration : Il suffit de voir que comme f /g tend vers 1 en a, elle est strictement positive au voisinage de
a.
Au voisinage de +∞ on les mêmes croissances comparées que pour les suites. Précisément :
1. Soit α ∈ R et β > 0, (ln( x ))α = o x β .
+∞
2. Soit α et β deux réels. Si α < β alors x α = o x β .
+∞
3. Soit α ∈ R et β > 0, xα = o (exp( βx )). En particulier si k > 1, x α = o (k x ) .
+∞ +∞
Démonstration :
186
— Le point 1 se ramène au 3 par un changement de variable t = ln x.
— Le point 2 est évident.
e βx
— On étudie la fonction f : x 7→ . Elle est dérivable de dérivée :
xα
e βx x α−1
f 0 : x 7→ ( βx − α) .
x2α
On en déduit donc que pour x > α/β la fonction f est croissante. L’étude de sa limite se ramène alors à
l’étude de f (n) qui a déjà été faite.
β !
1
1. Soit α ∈ R et β > 0, (ln( x ))α = o .
0+ x
2. Soit α et β deux réels. Si α < β alors x β = o ( x α ) .
0
ATTENTION
Remarques :
β
1
1. Pour le premier, il faut faire attention que l’on compare ln( x ) qui tend vers ∞ avec qui tend aussi
x
vers ∞ pour β > 0.
2. Pour le deuxième c’est le sens inverse de la comparaison en +∞.
Un polynôme non nul est quivalent à son terme de plus haut degré en ±∞ et à son terme de plus
bas degré en 0.
Théorème [Link]
x2
? sin x ∼ x ? cos x ∼ 1 et cos x − 1 ∼ −
0 0 0 2
? tan x ∼ x ? (1 + x )α ∼ 1 et (1 + x )α − 1 ∼ αx
0 0 0
? ln(1 + x ) ∼ x ? e x ∼ 1 et e x − 1 ∼ x
0 0 0
? sh x ∼ x ? th x ∼ x
0 0
x2
? ch x ∼ 1 et ch x − 1 ∼ ? arcsin x ∼ x et arctan x ∼ x
0 0 2 0 0
Démonstration : Il se démontre tous en calculant des dérivées. La seule qui est différente est celle du cosinus et
du cosinus hyperbolique. Nous les démontrerons plus loin.
Remarque : Il y a des cas particuliers à connaitre.
187
— La formule (1 + x )α − 1 ∼ αx permet d’obtenir :
0
1 √ 1
− 1 ∼ −x 1 + x − 1 ∼ x.
1+x 0 0 2
2.4 Opérations
Proposition [Link]
Exemple : Si f ( x ) = o x2 alors x3 f ( x ) = o x5 .
0 0
Proposition [Link]
Remarque : Dans la deuxième partie, si α ∈ / N, on doit supposer que f 1 et f 2 sont strictement positives au
voisinage de a sauf éventuellement en a.
sin3 x
Exemple : Cette proposition justifie le calcul de ∼ x fait plus haut.
x2 0
ATTENTION
Là, la parenthèse tend vers 0. On en tire g = o ( x ) . On verra plus tard dans l’année que faire dans ce cas...
0
188
3. Soit h : x 7→ sin x + (cos x − 1). Dans ce cas, on utilise que cos x − 1 = o (() sin x ) car cos x − 1 ∼ − x2 /2
0 0
et sin x ∼ x donc h ∼ sin x ∼ x.
0 0 0
Soit a ∈ R et f , g deux fonctions qui vérifient Fa . Soit b ∈ R et h une fonction qui vérifie Fb telle
que limb h = a.
Si f ∼ g alors f ◦ h ∼ g ◦ h.
a b
1 1
Exemple : On sait que sin x ∼ x donc sin x2 ∼ x2 ou sin √ ∼ √ .
0 0 2 + x +∞ 2 + x
Remarque : ne pas confondre avec la composition « à gauche ». Par exemple on veut montrer que ln(1 + sin x ) ∼
0
x en utilisant que sin x ∼ x et ln(1 + x ) ∼ x. Voici deux rédactions :
0 0
— On a sin x ∼ x donc ln(1 + sin x ) ∼ ln(1 + x ). Or ln(1 + x ) ∼ x donc ln(1 + sin x ) ∼ x.
0 0 0 0
— On sait que limx→0 sin x = 0 et ln(1 + x ) ∼ x donc ln(1 + sin x ) ∼ sin x. De plus sin x ∼ x donc
0 0 0
ln(1 + sin x ) ∼ x.
0
La première rédaction n’est pas correcte - même si le résultat final est bon - car elle repose sur la composition
par x 7→ ln(1 + x ) de l’équivalent sin x ∼ x. Par contre la deuxième est correcte. En effet, on fait un changement
0
de variable X = sin x.
Exemple : On peut maintenant démontrer la formule pour l’équivalent
p de cos et de ch . Le cosinus
p se traite
√
2x = 2 2
de la manière suivante. Au voisinage
√ de 0, cos x = cos 1 − sin x. D’où cos x − 1 = 1 − sin x − 1.
2 1
Comme lim − sin x = 0 et que 1 + X ∼ 2 X. On a en utilisant la substitution que nous verrons plus loin.
x →0 0
sin2 x x2
cos x − 1 ∼ − ∼− .
0 2 0 2
189
Continuité sur un
13
intervalle
1 Fonctions continues 190
1.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
1.2 Théorèmes des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192
1.3 Cas des fonctions monotones - théorème de la bijection . . . . . . . . . . . . . . . . . . . . . . 194
1.4 Bornes d’une fonction continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
1.5 Exemple de résolution d’équations fonctionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
2 Très brève extension aux fonctions à valeurs complexes 196
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
2.2 Le théorème des valeurs intermédiaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
Nous allons nous intéresser aux fonctions qui sont continues partout où elles sont définies. Le but est
d’obtenir alors des propriétés « globales » et non plus « locales ».
1 Fonctions continues
1.1 Généralités
Définition [Link]
Soit f une fonction définie sur un intervalle I. On dit que f est continue si elle est continue en tout point de I.
L’ensemble des fonctions continues sur un intervalle I sera notée C 0 ( I ).
Exemples :
1. Les polynômes sont des fonctions continues.
2. Les fonction circulaires, cos, sin et tan sont continues.
3. Les fonctions exponentielles, trigonométriques hyperboliques et logarithmes sont continues
√
4. Les fonctions puissances sont continues. En particulier x 7→ x et x 7→ 1/x
Remarque : on peut définir des fonctions continues sur des parties de R qui ne sont pas des intervalles (par
exemple ( x 7→ 1/x ) est continue sur R? ), cependant, la plupart des théorèmes de ce chapitre nécessiteront de se
situer sur un intervalle.
190
Théorème [Link]
Remarque : dans les deux derniers cas, on a précisé, sur son ensemble de définition pour bien signifier qu’il
faut justifier dans ce cas la définition de la fonction. Quand on veut montrer que f = f 1 / f 2 est continue sur un
intervalle I on montre que f 1 et f 2 le sont et que f 2 ne s’annule pas sur I.
Exemples :
1. Soit f la fonction définie par
1
f (x) = p .
3
sin( x + 2x ) + 2
p
La fonction f est définie sur R car, pour tout √ x dans R, sin( x3 + 2x ) > −1 d’où sin( x3 + 2x ) + 2 est
défini et non nul. De plus x 7→ x3 + 2x , x 7→ x + 2, x 7→ 1/x sont des fonctions continues donc f est
continue.
2. On considère la fonction partie entière notée [.] Elle n’est pas continue car elle n’est pas continue en 1.
Cela correspond bien à l’intuition qui dit que le graphe d’une fonction continue se trace « sans lever le
crayon ».
Proposition [Link]
Démonstration :
1. Par composition avec X 7→ | X |.
f + g + | f − g| f + g − | f − g|
2. On remarque que sup( f , g) = et .
2 2
Proposition [Link]
Soit I un intervalle de f une fonction continue sur I. Si J est un intervalle inclus dans I alors la
restriction f | J de f à J est continue.
191
Proposition [Link]
Remarque : Ce n’est pas évident. Par exemple, le même énoncé avec dérivable est faux.
Démonstration : Pour tout x dans I \ { a} alors il existe un voisinage de x contenu dans I+ ou dans I− . De ce
fait, la continuité de f en x découle de la continuité des restrictions.
Pour x = a. Comme la restriction de f à I− (resp. à I+ ) est continue alors f est continue à gauche (resp. à
droite). Donc f est continue.
Soit f une fonction continue sur un intervalle I. Soit ( a, b) ∈ I 2 . On suppose que f ( a) f (b) 6 0 alors
il existe c compris entre a et b tel que f (c) = 0. Si de plus f ( a) f (b) < 0 on peut supposer que c est
strictement compris entre a et b.
Remarque : Par contraposé on en déduit qu’une fonction continue qui ne s’annule pas garde un signe constant.
Démonstration : La démonstration du théorème se fait par dichotomie. Cela consiste à construire deux suites
( an ) et (bn ) puis à montrer qu’elles sont adjacentes. De ce fait elles convergent et le c cherché sera la limite.
On suppose que a < b par convention et on suppose aussi que f ( a) 6 0 6 f (b) (sinon on peut faire de
même avec − f ). Dès lors on pose a0 = a et b0 = b. On va construire des suites adjacentes ( an ) et (bn ) telles que
a0 + b0
pour tout entier n, f ( an ) 6 0 6 f (bn ). On coupe l’intervalle [ a0 , b0 ] en deux en posant u0 = : le milieu.
2
On sépare les cas selon le signe de f (u0 )
— si f (u0 ) 6 0 on pose a1 = u0 et b1 = b0 .
— si f (u0 ) < 0 on pose a1 = a0 et b1 = u0 .
Et on recommence. On construit ainsi des suites ( an ) et (bn ) et on remarque que
a = a0 6 a1 6 a2 6 · · · 6 an 6 · · · 6 bn 6 · · · 6 b2 6 b1 6 b0 = b.
bn − a n b0 − a0
∀n ∈ N, bn+1 − an+1 = d’où bn − an = .
2 2n
On en déduit que les suites sont adjacentes et on note c la limite commune.
Il reste à montrer que c répond bien à la question. Comme f est continue, les suites ( f ( an )) et ( f (bn ))
convergent vers f (c). On en déduit que f (c) est positif et négatif donc il est nul.
Soit I un intervalle, f une fonction continue sur I et ( a, b) ∈ I 2 . Pour tout ` compris entre f ( a) et
f (b), il existe un c compris entre a et b tel que f (c) = `.
Remarques :
1. C’est un théorème fondamental. Il faut l’utiliser dès que l’on veut montrer l’existence, d’un nombre x
vérifiant f ( x ) = c (ou si on prend c = 0 l’existence d’une racine de f ).
2. Sous cette forme, ce théorème ne donne que l’existence, si l’on a besoin en plus de l’unicité il faut se
tourner vers le théorème de la bijection - voir plus loin. Par exemple pour x 7→ x3 − x si on prend a = −2
( f ( a) = −6) et b = 2 ( f (b) = 6) et ` = 0, il y a plusieurs solutions pour c : −1, 0 et 1.
192
3. Si la fonction f n’est pas continue ce n’est plus vrai. Considérons par exemple la fonction partie entière
avec a = 0, b = 1 et ` = 1/2.
4. Si l’on n’est pas sur un intervalle ce n’est plus vrai. Par exemple x 7→ 1/x, a = −1, b = 1 et ` = 0.
5. L’abréviation TVI n’est pas à mettre sur une copie.
Remarque : Nous verrons en IPT l’implémentation de cette démonstration.
Corollaire [Link]
Soit f une fonction continue sur I. Si f ne s’annule pas elle garde un signe constant.
Soit a ∈ R et f une fonction continue sur [ a, +∞[. Soit ` un nombre strictement compris entre f ( a) et
lim f . Il existe c > a tel que f (c) = `.
+∞
Démonstration : Il suffit de voir que, comme lim f = +∞ il existe b > a tel que f (b) > `. On applique alors le
+∞
TVI.
Remarques :
1. On peut de même remplacer a par −∞. On peut aussi le faire en supposant que f est continue sur ] a, b] où
a ∈ R. Là encore, il faut alors supposer que ` est strictement compris entre f ( a) et f (b).
2. On est obligé de prendre des inégalités strictes. Par exemple pour x 7→ 1/x, a = 1 et ` = 0.
Corollaire [Link]
Démonstration : c’est juste une reformulation du théorème des valeurs intermédiaires. En effet, soit x et y deux
éléments de f ( I ). Il existe donc a et b dans I tels que f ( a) = x et f (b) = y. Maintenant pour tout ` compris entre
x et y, il existe bien c dans I (car I est un intervalle) tel que f (c) = ` donc ` ∈ f ( I ).
Exercice : Soit f la fonction définie sur [0, π/2] par
1
f (x) = cos x − x2 + 1
x+1
Montrer qu’il existe une solution de l’équation f ( x ) = 0 et donner une méthode pour en localiser une avec une
précision de 0, 1.
193
1.3 Cas des fonctions monotones - théorème de la bijection
Théorème [Link] (Théorème de la bijection)
Soit I un intervalle et f une fonction continue et strictement monotone sur I. La fonction f réalise
une bijection de I sur f ( I ).
I [ a, b] [ a, b[ ] a, b] ] a, b[
f (I) [ f ( a), f (b)] [ f ( a), limb f [ ] lima f , f (b)] ] lima f , limb f [
Si f est decroissante, f ( I ) est un intervalle de la forme suivante
I [ a, b] [ a, b[ ] a, b] ] a, b[
f (I) [ f (b), f ( a)] ] limb f , f ( a)] [ f (b), lima f [ ] limb f , lima f [
Exemples :
1. Soit f la fonction définie sur [−2, 4] par f ( x ) = x3 + 2x. Elle est continue et strictement croissante. De plus
f (−2) = −12 et f (4) = 72. C’est donc une bijection de [−2, 4] sur [−12, 72].
2. La fonction exponentielle est définie sur R. Elle est continue et strictement croissante. De plus lim e x = 0
x →−∞
et lim e x = +∞. Elle réalise donc une bijection de R sur ]0, +∞[.
x →+∞
Démonstration : Nous allons faire la démonstration dans le cas où I est de la forme [ a, b]. Nous supposerons
que f est strictement croissante (le cas décroissant est similaire).
Par définition, f est surjective si on prend f ( I ) comme ensemble d’arrivé.
Il reste à montrer l’injectivité. C’est-à-dire, que pour tout couple ( x, x 0 ) d’éléments de I tels que x 6= x 0 alors
f ( x ) 6= f ( x 0 ). Comme x 6= x 0 , l’un est strictement plus grand que l’autre. Posons par exemple x 0 > x. Dans ce
cas, f ( x 0 ) > f ( x ) et donc f ( x 0 ) 6= f ( x ). L’application est bien injective.
Elle est injective et surjective, c’est donc une bijection.
Proposition [Link]
Démonstration : On a donc g = f −1 qui réalise une bijection strictement monotone de J = f ( I ) dans I. Quitte
à échanger g en − g on peut supposer que g est strictement croissante. On va montrer par l’absurde que g est
continue. Supposons donc que g n’est pas continue. Il existe y ∈ J tel que g ne soit pas continue en y.
— Supposons que y n’est ps une borne de J. On sait que, g étant strictement monotone elle admet des limites
à droite et à gauche en y et de plus
lim g 6 g(y) 6 lim g.
y− y+
La fonction n’étant pas continue, l’une des deux inégalités est stricte. Supposons par symétrie que
g(y) < lim g. Un élément α strictement compris entre g(y) et lim g ne peut pas être dans l’image de g. En
y+ y+
effet pour tout x de J, si x 6 y alors g( x ) 6 g(y) < α et si x > y alors g( x ) > limy+ g. Donc α ∈
/ g( J ) = I.
Cela contredit le fait que I est un intervalle.
— La démonstration est similaire si y est une borne.
Il y a un énoncé qui ressemble à une réciproque
Proposition [Link]
Soit f une fonction injective et continue sur un intervalle. Elle est strictement monotone.
194
Idée de démonstration : Supposons que f n’est pas strictement monotone par l’absurde. Il existe alors x < y
tels que f ( x ) 6 f (y) (et même f ( x ) < f (y) par injectivité) car f n’est pas strictement décroissante. De même il
existe a < b tels que f ( a) > f (b).
Il suffit (c’est facile à dire) d’étudier les différent cas pour conclure. Si on suppose par exemple que x < y 6
a < b.
— si f ( a) < f (y) : en appliquant le TVI entre x et y puis entre y et a on peut trouver deux antécédents à
f ( a) + f (y) f ( x ) + f (y)
ou à selon que f ( a) soit supérieur ou inférieur à f ( x ).
2 2
— si f ( a) > f (y) : en appliquant le TVI entre x et a puis entre a et b on peut trouver deux antécédents à
f ( a) + f (b) f ( x ) + f ( a)
ou à selon que f (b) soit supérieur ou inférieur à f ( x ).
2 2
Les autres cas sont similaires.
On appelle segment ou intervalle fermé et borné tout intervalle I de la forme [ a, b] où a et b sont des réels.
Théorème [Link]
Soit I un segment et f une fonction continue sur I. La fonction est bornée et atteint ses bornes.
Démonstration : On note I = [ a, b]. Remarquons tout de suite que si f est constante c’est vrai. On exclut par la
suite ce cas.
— Commençons par montrer que f est majorée. Par l’absurde, supposons que ce n’est pas le cas. Pour tout
entier naturel n il existe alors un élément xn de I tel que f ( xn ) > n. La suite ( xn ) étant une suite d’élément
de I elle est bornée (∀n ∈ N, a 6 xn 6 b). Il existe donc une sous suite ( x ϕ(n) ) convergente. Soit ` sa
limite. Comme f est continue, f ( x ϕ(n) ) tend vers f (`). Cependant, pour tout entier n, f ( x ϕ(n) ) > ϕ(n) par
construction. C’est donc absurde.
— Montrons maintenant que α = supx∈[ a,b] f ( x ) = sup f ( I ) est atteint par f . Comme f ( I ) n’est pas réduit à
1
un point. Il existe un entier N tel que α − ∈ f ( I ). Dès lors, par définition de la borne supérieure, pour
N
tout entier n > N , α − 1/n appartient à f ( I ) donc il existe un dans I tel que
1
α− = f (un )
n
. Là encore, on peut extraire une sous-suite convergente de (un ) car elle est bornée. Cette sous suite
converge vers c dans I et, par continuité f (c) = α.
On fait de même pour l’inf.
Exemple : Soit f une fonction strictement positive sur un segment. Il existe α > 0 tel que ∀ x ∈ I, f ( x ) > α.
Corollaire [Link]
195
Déterminer toutes les fonctions f de R dans R telles que
∀( x, y) ∈ R2 , f ( x + y) = f ( x ) + f (y).
On commence souvent par chercher des cas particuliers. Ici pour x = 0 on trouve f (0 + y) = f (0) + f (y)
donc f (0) = 0.
De plus, on peut voir que f (2) = f (1 + 1) = f (1) + f (1) = 2 f (1). Par récurrence on prouve alors que pour
tout entier naturel n, f (n) = n f (1). On peut ensuite l’étendre au cas de n dans Z.
On remarque alors que tout entier naturel n non nul
Définition [Link]
Avec les notations précédentes, on appelle partie réelle (resp. partie imaginaire) de f la fonction notée Re( f )
(resp. Im( f )) définie de I dans R par
Définition [Link]
Avec les notations précédentes on note | f | et f les fonctions définies sur I par
∀ x ∈ I, | f |( x ) = | f ( x )| et f ( x ) = f ( x ).
Définition [Link]
On peut alors définir la limite en a ∈ I dans le cas où cette limite est finie : ` ∈ C.
Définition [Link]
Soit f une fonction définie de I sur C, a ∈ I et ` ∈ C. On dit que f tend vers ` en a si | f − `| tend vers 0 en a.
Remarques :
1. Dans la définition ci dessus, | f − `| est une fonction à valeurs réelles.
2. Cela revient à réécrire la définition avec cette fois des modules et non plus des valeurs absolues.
196
Proposition [Link]
Définition [Link]
Soit I un intervalle de R et f une fonction définie de I sur C. On dit que f est continue si pour tout a de I ,
lim f = f ( a). On note C 0 ( I, C) l’ensemble des fonctions complexes continues sur I.
a
Proposition [Link]
197
Polynômes
14
1 Ensembles de polynômes à coefficients dans K 199
1.1 Construction et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
1.2 Degré et valuation d’un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202
1.3 Fonctions polynomiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2 Dérivation 204
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204
2.2 Dérivées successives et formule de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
3 Divisibilité et racines d’un polynôme 207
3.1 Divisibilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 207
3.2 Division euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
3.3 Racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
3.4 Ordre de multiplicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
3.5 Fonctions symétriques des racines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
3.6 Interpolation de Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
4 Arithmétique dans K[ X ] 215
4.1 Plus grand commun diviseur (PGCD) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 215
4.2 Polynômes premiers entre eux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
4.3 Généralisation à une famille de polynômes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 217
4.4 Le plus grand commun multiple (PPCM) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
4.5 Propriétés du PGCD et du PPCM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
5 Factorisation 219
5.1 Polynômes irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219
5.2 Décomposition en produit de facteurs irréductibles . . . . . . . . . . . . . . . . . . . . . . . . . . 220
5.3 Factorisation sur C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
5.4 Quelques applications de la factorisation sur C . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
5.5 Factorisation sur R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 221
Dans tout ce chapitre K désigne le corps des réels R ou le corps des nombres réels C. La très grande majorité
des résultats s’applique au cas où K est un corps en général. On pourra aussi à l’occasion utiliser le corps Q.
198
1 Ensembles de polynômes à coefficients dans K
1.1 Construction et propriétés
On va vouloir construire des polynômes. Ce sont des « fonctions »de la forme x 7→ a0 + · · · + an x n pour
un entier n fixé et ( a0 , . . . , an ) ∈ Kn+1 . En pratique on veut définir un vrai objet algébrique dont la fonction
présentée ci-dessus ne sera qu’une réalisation.
Définition [Link]
Remarque : Un polynôme est donc une suite ( an ) ∈ KN tel qu’il existe un entier naturel N tel que
∀n > N, an = 0.
Terminologie :
1. On appelle coefficient du polynôme ( an ) les nombres a0 , a1 , . . . , a N .
2. On appelle polynôme nul et on notera 0 si cela ne porte pas à confusion le polynôme dont tous les
coefficients sont nuls.
Proposition [Link]
Démonstration
Exemple : Soit p = (1, 6, 2, −1, 0, 0, . . .) et q = (2, 7, −1, 3, 1, 0, 0, . . .) deux polynômes. Alors p + q = (3, 13, 1, 2, 1, 0, 0, . . .).
De même 5.p = (5, 30, 10, −5, 0, 0, . . .).
Remarques :
1. Nous verrons dans un prochain chapitre que cela signifie que l’ensemble des polynômes sur K est un
sous-espace vectoriel de RN .
2. Cette somme correspond bien à ce que nous voulons sur nos fonctions
On va aussi vouloir définir un produit. Ce ne sera pas le produit terme à terme. Regardons sur un exemple
ce que cela donne sur un exemple :
( a0 + a1 x + a2 x2 ) × (b0 + b1 x + b2 x2 ) = · · · = c0 + c1 x + c2 x2 + c3 x3 + c4 x4 .
où
c0 = a0 b0 ; c1 = a1 b0 + a0 b1 ; c2 = a2 b0 + a1 b1 + a0 b2 ; . . .
On peut donc généraliser
Proposition [Link]
Soit p = ( an ) et q = (bn ) deux polynômes à coefficients dans K. On pose pour tout entier n,
n
cn = ∑ a k bn − k = ∑ ai b j .
k =0 i + j=n
199
Remarque : Dans la deuxième somme, on fait la somme sur tous les couples (i, j) de N2 tels que i + j = n.
Démonstration : Posons N1 et N2 tels que ∀k > N1 , ak = 0 et ∀k > N2 , bk = 0. Soit n > N1 + N2 on a
n N1 n
cn = ∑ a k bn − k = ∑ a k bn − k + ∑ a k bn − k .
k =0 k =0 k = N1 +1
Dans la deuxième somme tous les termes sont nuls car ak = 0 pour k > N1 . Dans la première somme, k 6 N1
donc n − k > n − N1 > N2 donc bn−k = 0.
On a bien cn = 0.
Définition [Link]
Exemple : Soit p = (1, 6, −1, 0, 0, . . .) et q = (2, 7, 0, 0, . . .). Le polynôme p × q est (2, 19, 40, 0, . . .).
Remarque : Ce n’est pas la multiplication « classique »dans RN .
Théorème [Link]
Remarques :
1. Ce n’est pas un sous-anneau de KN car le produit n’est pas le même.
2. C’est aussi un anneau intègre mais on repousse cette partie à plus tard
Démonstration :
— L’ensemble des polynômes n’est pas vide car il contient le polynôme nul.
— L’addition est associative et commutative car elle l’est dans KN .
— Le polynôme nul est un élément neutre pour l’addition.
— Pour tout polynôme p = ( an ), le polynôme q = (− an ) vérifie que p + q = 0. C’est le symétrique de p pour
+
On a prouvé que l’ensemble des polynômes à coefficients dans K est un groupe abélien.
— Soit p = ( an ), q = (bn ) et r = (cn ). On a alors ( p.q).r = (dn ) et p.(q.r ) = en où
!
dn = ∑ ∑ a k bl cj = ∑ a k bl c j
i + j=n k + l =i i +k+l =n
et !
en = ∑ ai ∑ bk c l = ∑ a i bk c l .
i + j=n k+l = j i +k+l =n
200
N
Dès lors le polynôme p = ( a0 , a1 , a2 , . . . , a N , 0, 0, 0, . . .) peut s’écrire a0 X 0 + a1 X 1 + · · · + a N X N = ∑ ak X k .
k =0
N
On notera souvent un polynôme ∑ ak X k . Il faut noter que rien n’implique a priori que a N est non nul. De
k =0
N1 N2
fait, si on considère deux polynômes (et même un nombre fini de polynômes) ∑ ak X k et ∑ bk X k on peut les
k =0 k =0
N N
écrire ∑ ak X k et ∑ bk X k en prenant N = Max( N1 , N2 ). Comme on sait que plus que tous les termes de la
k =0 k =0
+∞
suite sont nuls à partir d’un certain rang on notera aussi ∑ ak X k mais en comprenant bien que c’est une somme
k =0
finie.
N
On remarque que l’on peut faire les calculs de produit comme d’habitude. En effet si P = ∑ ak X k et
k =0
N
Q= ∑ bk X k
k =0 ! !
N N 2N
La formule P × Q = ∑ ak X k
× ∑ bk X k
= ∑ ck X k où ck = ∑ ai b j est obtenu par distributivité.
k =0 k =0 k =0 i + j=k
Terminologie :
1. On notera K[ X ] l’ensemble des polynômes à coefficients dans K.
2. Les polynômes de la formes λX k où λ ∈ K et k ∈ N s’appellent des monômes.
3. On appelle polynôme constant tout monôme de la forme λX 0 .
En tant qu’anneau commutatif, on peut calculer les puissances d’une somme de polynômes avec la formule
du binôme de Newton :
Soit ( P, Q) ∈ K[ X ]2 et n ∈ N, n
n k n−k
( P + Q) = ∑
n
P Q .
k =0
k
La mutliplication
Soit ( P, Q) ∈ K[ X ]2 et (λ, µ) ∈ K2 on a :
N
Soit P et Q deux polynômes de K[ X ]. On note P = ∑ ak . On appelle compostion de P et de Q et on
k =0
note P ◦ Q ou P( Q) le polynôme
N
P◦Q = ∑ ak Pk
k =0
201
Remarque : Si le polynôme Q est le polynôme X on trouve P ◦ X = P. C’est pour cela que l’on trouve la
notation P( X ) pour le polynôme P.
Exemple : Soit P = − X 2 + 3X + 2 et Q = 2X − 1 On trouve
P( Q) = −2Q2 + 3Q + 2Q0 = −(2X − 1)2 + 3(2X − 1) + 2 = −4X 2 + 10X − 3.
Proposition [Link]
( P × Q)( R) = P( R) × Q( R).
Définition [Link]
Soit P un polynôme de K[ X ] non nul. Le degré du polynôme P, que l’on note deg P est le plus grand élément
de {k ∈ N | ak 6= 0}. Par convention, on dira que le polynôme nul est de degré −∞.
Exemples :
1. Un polynôme de degré zéro est un polynôme constant non nul.
2. Un polynôme de degré un est de la forme a0 + a1 X où a1 6= 0.
Remarques :
1. Les exemples ci-dessus montrent que, si n est un entier, il est souvent plus agréable de considérer les
polynômes de degré inférieur ou égal à n que les polynômes de degré exactement n. On dit alors que c’est
un polynôme de degré au plus n.
2. Comme on le voit sur la définition, le cas du polynôme nul est souvent à part. Il faut penser, dès que l’on
travaille avec le degré à réfléchir au cas du polynôme nul.
Notation : Soit n un entier, l’ensemble des polynômes de degré inférieur à n se note
K n [ X ].
Définition [Link]
1
Remarque : Soit P un polynôme non nul. Si λ est son coefficient dominant, le polynôme P est normalisé. Il
λ
s’appelle le normalisé de P.
Proposition [Link]
202
Démonstration : Il suffit de l’écrire pour prouver l’inégalité. De plus si deg P 6= deg Q, le coefficient dominant
du polynôme de plus haut degré ne peut pas être compensé par un terme de l’autre polynôme. On a bien
l’égalité.
B Il se peut que le degré de P + Q soit strictement inférieur au degré de P et de Q. Par exemple si P = 2 + X
et Q = −1 − X. De ce fait Kn [ X ] est stable par addition et pas l’ensemble de polynômes de degré exactement n.
Proposition [Link]
Proposition [Link]
P × Q = 0 ⇒ P = 0 ou Q = 0.
Proposition [Link]
Les éléments inversibles de K[ X ] sont les polynômes de degré 0 c’est-à-dire les polynômes constants
non nuls.
Démonstration :
1
— Soit P = λ un polynôme constant avec λ 6= 0. On pose Q = . On a alors
λ
P × Q = 1.
Donc P est inversible.
— Réciproquement, si P est un polynôme inversible, il n’est pas nul (car le polynôme nul est absorbant).
Soit Q son inverse, deg( P) + deg( Q) = deg( P × Q) = deg(1) = 0. On en déduit que deg( P) 6 0 et donc
deg( P) = 0.
Remarque : Quand nous aborderons l’arithmétique des polynômes ils faudra faire attention aux polynômes
inversibles qui jouent le rôle des éléments inversibles de Z qui sont ±1.
Définition [Link]
Soit P un polynôme non nul. On appelle valuation de P et on note val( P) le plus petit élément de {k | ak 6= 0}
qui existe car c’est un ensemble non vide de N. Par convention la valuation du polynôme nul est +∞.
203
On a alors des propriétés analogues à celles sur le degré :
Proposition [Link]
N N
Soit P un élément de K[ X ] et α un élément de K. Si P = ∑ ak X k pour N ∈ N. On note P(α) = ∑ ak αk .
k =0 k =0
La fonction de K dans lui même définie par α 7→ P(α) s’appelle la fonction polynomiale associée à P. On la
e
notera P.
Proposition [Link]
Remarque : Pour calculer la valeur d’un polynôme en α on utilise l’algorithme de Hörner (voir cours d’algo-
rithmique). De même pour calculer un monôme, on utilise l’algorithme d’exponentiation rapide.
2 Dérivation
2.1 Définition
On peut dériver "formellement" un polynôme sans avoir recours à la notion "analytique" de dérivée vue en
classe de première.
Définition [Link]
N
Soit P un polynôme on note P = ∑ ak X k . Le polynôme dérivée, que l’on note P0 est le polynôme :
k =0
N N −1
P0 = ∑ kak X k−1 = ∑ (k + 1)ak+1 X k .
k =1 k =0
204
Proposition [Link]
Avec les notations précédentes, si P est un polynôme à coefficients réels, alors Pe est un fonction de R
dans R dérivable et la fonction polynomiale associée au polynôme dérivé de P est la fonction dérivée
de la fonction polynomiale associée à P. C’est-à-dire
( Pe)0 = Pe0 .
Exemples :
1. La dérivée du polynôme nul est le polynôme nul.
2. La dérivée du polynôme 7X 3 + 4X − 1 est le polynôme 21X 2 + 4.
Démonstration : Evident
Proposition [Link]
Soit P un polynôme.
1. Si P est non constant,
deg( P0 ) = deg( P) − 1.
2. Le polynôme P est constant si et seulement si P0 = 0.
Démonstration
Proposition [Link]
( P × Q)0 = P0 × Q + P × Q0 .
N
Demo à faire en prenant pour formule de la dérivée ∑ ( k + 1 ) a k +1 X k .
k =0
Exemple : Soit Pk = ( X − α)k . Démontrons par récurrence que Pk0 = k ( X − α)k−1 . Il suffit de voir qu’en dérivant
Pk+1 = ( X − α) Pk on obtient,
Pk0 +1 = Pk + k( X − α).Pk0 .
Soit P un polynôme. On définit les dérivées successives par récurrence. Précisément, soit n un entier la dérivée
n-ième, notée P(n) , est donnée par :
(0)
P =P
P (1) = P 0
∀n ∈ N, P(n+1) = ( P(n) )0
205
Exemple : Soit P = X 4 − 3X 3 + 5X − 1. On a P0 = 4X 3 − 9X 2 + 5, P(2) = 12X 2 − 18X, P(3) = 24X − 18,
P(4) = 24 et pour tout entier supérieur à 5 on a P(n) = 0.
Proposition [Link]
Proposition [Link]
Remarques :
1. Pour le cas n = 1 on retrouve la classique formule de la dérivée d’un produit.
2. Cela sera encore vrai pour toute fonctions suffisamment dérivables de R dans R.
Démonstration : Par une récurrence similaire à celle du binôme de Newton.
Proposition [Link]
Soit P un polynôme. On note P = ∑kN=0 ak X k . On peut retrouver les coefficients ak en regardant les
dérivées successives en 0. On a
Exemple : Soit P = a0 + a1 X + a2 X 2 + a3 X 3 + . . .. On a
P0 = a1 + 2a2 X + 3a3 X 2 + . . .
P00 = 2a2 + 6a3 X + . . .
P (3) = 6a3 + . . .
N
Démonstration : De manière générale, on écrit que P = R + ∑ ak X k avec deg( R) < p. D’où
k= p
N ( p) N
k!
P( p) = R( p) + ∑ ak Xk = ∑ ( k − p ) !
ak X k− p .
k= p k= p
On a donc
p!
P ( p ) (0) = a p = p!a p .
( p − p)!
On voit que l’on sait calculer les coefficients d’un polynôme à partir de ses dérivées en 0. On peut généraliser
cela.
206
Théorème [Link] (Formule de Taylor)
Soit P un polynôme à coefficients dans K et α un élément de K. Pour tout entier n supérieur au degré
de P on a :
P00 (α) P(n) ( α )
P = P(α) + P0 (α)( X − α) + ( X − α )2 + · · · + ( X − α)n
2! n!
n
P(k) ( α )
= ∑ k!
( X − α)k .
k =0
Remarques :
1. Si on prend α = 0 dans la formule de Taylor, on retrouve la proposition précédente.
2. La plupart du temps on prendre pour N le degré de P, cependant, si on ne sait exactement déterminer ce
degré on utilisera un nombre N plus grand. C’est sans influence sur la formule car si k > deg( P) alors
P(k) (α) = 0.
3. Cette formule est importante, on la reverra dans le cas des fonctions.
4. Il faut essayer de penser à cette formule dès que l’on a dans un énoncé la valeur d’un polynôme et de ses
dérivées en un même point.
Démonstration : On va se ramener au cas α = 0. On pose Q = P ◦ ( X + α) on a donc P = Q ◦ ( X − α) car
( X − α) ◦ ( X + α) = X.
D’après la proposition précédentes, on a
N
Q ( k ) (0) k
Q= ∑ k!
X .
k =0
On en déduit que
N
Q ( k ) (0)
P = Q ◦ ( X − α) = ∑ k!
( X − α)k .
k =0
Il ne reste plus qu’à montrer que pour tout entier k entre 0 et N, Q(k) (0) = P(k) (α).
N
On voit déjà que Q(0) = P(α). De plus, on remarque que si P = ∑kN=0 ak X k alors Q = ∑ ak (X + α)k . En
k =0
dérivant on obtient par linéarité
N
Q0 = ∑ kak (X + α)k−1 en effet on montre par récurrence que ((X + α)k )0 = k(X + α)k−1 .
k =1
P = 1 + 3( X − 1) + γ( X − 1)2 = (1 + γ) + (3 − 2γ) X + γX 2 .
Soit P et Q deux polynômes. On dit que P divise Q ou que Q est multiple de P et on note P| Q s’il existe un
polynôme R tel que Q = P.R. Le polynôme R est alors le quotient de Q par P.
207
1. Le polynôme X divise le polynôme X + 3X 2 car X + 3X 2 = X.(1 + 3X ).
2. Le polynôme 1 + X + X 2 divise le polynôme 1 − X 3 car 1 − X 3 = (1 − X ).(1 + X + X 2 )
3. Le polynôme 1 + X ne divise pas le polynôme 2 + 3X − X 2 .
4. Soit a ∈ K? . Tout polynôme non nul est divisible par le polynôme constant de valeur a.
5. Seul le polynôme nul est divisible par le polynôme nul.
Proposition [Link]
Démonstration
Définition [Link]
Soit P et Q deux polynômes. On dit que P et Q sont associés s’il existe λ ∈ K∗ tel que P = λ.Q.
Théorème [Link]
Démonstration :
— (Unicité) Supposons qu’il existe deux couples ( Q1 , R1 ) et ( Q2 , R2 ) qui satisfont au résultat du théorème.
On a donc
( Q1 − Q2 ) P2 = R2 − R1 .
Donc P2 divise ( R2 − R1 ). Mais le degré de R2 − R1 est strictement inférieur de celui de P2 cela implique
que R2 − R1 = 0 et donc R1 = R2 .
Par la suite ( Q1 − Q2 ) P2 = 0 et on conclut en utilisant que K[ X ] est intègre.
— (Existence) On procède par récurrence sur le degré de P1 . Précisément on pose
208
Par construction, P a un degré inférieur strictement à n. On peut donc appliquer Hn . Il existe ( Q, R)
tels que P = QP2 + R donc
a
P1 = Q + n+1 X n+1−m P2 + R.
bm
Remarque : La preuve ci-dessus donne une méthode algorithmique de faire cette division euclidienne. On
remarquera au passage que c’est beaucoup plus simple quand P2 est unitaire car dans ce cas il n’y a pas de
divisions.
Exemple : Calculer la division euclidienne de X 5 + 3X 4 − 7X 3 + X + 2 par X 3 + 3X − 2 donne Q = X 2 − 3X − 10
et R = 11X 2 + 25X + 22.
Proposition [Link]
Démonstration
Remarques :
1. En particulier si P1 et P2 sont deux polynômes de R[ X ]. On peut aussi les considérer comme polynômes
de C[ X ]. Par l’unicité on voit que les quotient et les reste de la division euclidienne de P1 par P2 sont les
mêmes dans R[ X ] et dans C[ X ]. En particulier P2 divise P1 dans R[ X ] si et seulement P2 divise P1 dans
C [ X ].
2. On voit donc que l’anneau K[ X ] a à peu près les mêmes propriétés que Z. Nous pourrons développer les
notions de PGCD, PPCM, etc. Cela est en fait un cas particulier des anneaux euclidiens.
3.3 Racines
Définition [Link]
Exemples :
1. Soit P = −3 − 2X + X 2 , ses racines sont 3 et −1.
2. Le polynôme X 2 + 1 n’ a pas de racines dans R. Dans C ses racines sont i et −i.
3. Tout nombre est racine du polynôme nul.
Théorème [Link]
Démonstration :
— ⇐ : C’est la proposition précédente.
— ⇒ : On utilise la formule de Taylor en α. On peut aussi le faire avec la division euclidienne.
209
Corollaire [Link]
Soit Q un polynôme non nul et (α1 , . . . , α p ) ∈ K p des nombres distincts. Tous les αi sont racines de
p
Q si et seulement si ∏( X − αi ) divise Q. C’est à dire :
i =1
!
p
(∀i ∈ [[ 1 ; p ]] , Q(αi ) = 0) ⇔ ∏ ( X − αi ) | Q.
i =1
Démonstration :
— ⇐ : C’est encore la proposition précédente.
— ⇒ : On a Q(α1 ) = 0 d’où il existe un polynôme Q1 tel que Q = ( X − α1 ).Q1 . De plus pour tout i compris
entre 2 et p on a Q1 (αi ) = 0 car (αi − α1 ) = 0. On peut recommencer.
Remarque : Nous verrons plus loin une meilleure preuve de ce corollaire. Il suffira d’utiliser que les ( X − αi )
sont premier entre eux.
Exemples :
1. Considérons le polynôme P = X 4 − X 3 − 5X 2 − X − 6. On remarque que P(3) = P(−2) = 0. On
en déduit que P est divisible par ( X − 3)( X + 2) = X 2 − X − 6. Vérifions par le calcul. On a P =
( X − 3)( X 3 + 2X 2 + X + 2) = ( X − 3)( X + 2)( X 2 + 1).
2. Soit n un entier et Pn = X n − 1. On sait que pour tout k ∈ [[ 0 ; n − 1 ]] le nombre ωk = e2ikπ/n est une
racine de Pn . D’où
n −1
∏ (X − ωk )| Pn .
k =0
!
n −1
De plus, deg ∏ ( X − ωk ) = deg Pn = n. Le quotient est donc de degré 0 : c’est un polynôme constant.
k =0
En regardant le terme de plus haut degré on en déduit que
n −1
Pn = ∏ ( X − ω k ).
k =0
Corollaire [Link]
Proposition [Link]
210
3.4 Ordre de multiplicité
Nous verrons un peu plus loin qu’au moins dans C[ X ] les polynômes ( X − α) vont jouer le rôle des nombres
premiers. On va maintenant définir l’analogue de la validation p-adique. A savoir caractériser qu’un polynôme
soit divisible par une puissance de ( X − α).
Définition [Link]
( X − α)r | P et ( X − α)r+1 - P.
Remarques :
1. De fait, on va compter une racine de multiplicité r comme r racines confondues.
2. Une racine de multiplicité 0 est juste un α qui n’est pas racine.
3. Une racine de multiplicité supérieure à 1 est juste un α qui est racine.
4. Soit P un polynôme non nul et α ∈ K. On peut définir l’ordre de multiplicité de α en tant que racine de P
comme le plus grand entier p tel que ( X − α) p divise P. Il existe car { p ∈ N | ( X − α) p | P} est majoré par
le degré de P.
5. La multiplicité de 0 est la valuation.
Exemples :
1. Dans le cas du trinôme P = aX 2 + bX + c avec a 6= 0. On retrouve les cas connus. Si ∆ = 0 on a une racine
double α et ( X − α)2 | P.
2. On considère P = X 3 − 7X 2 + 15X − 9. On a P = ( X − 1)( X − 3)2 donc 1 est racine de multiplicité 1 et 3
est racine de multiplicité 2.
Terminologie : Une racine de multiplicité 1 est dite racine simple. Une racine de multiplicité strictement
supérieure à 1 est dite racine multiple. En particulier une racine de multiplicité 2 est dite racine double.
Proposition [Link]
Soit P un polynôme et α une racine d’ordre au moins r. Il existe Q tel que P = ( X − α)r Q. De plus
Démonstration :
— ⇒ Par contraposée, si l’ordre de multiplicité n’est pas r il est au moins r + 1. On a alors ( X − α)r Q =
( X − α)r+1 R donc, comme K[ X ] est intègre, Q = ( X − α) R et donc Q(α) = 0.
— ⇐ Encore par contraposée. Si Q(α) = 0, alors Q = ( X − α) R et la multiplicité est strictement supérieure
à r.
Nous allons voir comment la notion de multiplicité d’une racine peut se voir avec le polynôme dérivé. Nous
allons commencer par un lemme.
Lemme [Link]
Soit P un polynôme et r un entier naturel non nul. Si α est une racine d’ordre r de P alors c’est une
racine d’ordre r − 1 de P0 . En particulier, si α est une racine simple de P alors P0 (α) 6= 0.
211
Démonstration du lemme : D’après les hypothèses, il existe un polynôme Q tel que P = ( X − α)r .Q( X ) et
Q(α) 6= 0. On dérive et on obtient :
P0 = r ( X − α)r−1 Q + ( X − α)r .Q0 = ( X − α)r−1 (rQ + ( X − α).Q0 ).
Or en α, le polynôme rQ + ( X − α).Q0 vaut rQ(α) et donc ne s’annule pas. On en déduit que α est bien une
racine d’ordre r − 1 de P0 .
Théorème [Link]
Soit P un polynôme, α ∈ K et r ∈ N? .
1. Le nombre α est une racine de multiplicité supérieure à r si et seulement si P(α) = 0, P0 (α) =
0, · · · , P(r−1) (α) = 0.
2. Le nombre α est une racine de multiplicité r si et seulement si P(α) = 0, P0 (α) =
0, · · · , P(r−1) (α) = 0 et P(r) (α) 6= 0.
Remarque : pour se souvenir des exposants, il suffit de se souvenir des petites valeurs.
— Le nombre α est une racine simple (de multiplicité 1) si et seulement si P(α) = 0 et P0 (α) 6= 0.
— Le nombre α est une racine au moins double (de multiplicité supérieure ou égale à 2) si et seulement si
P(α) = 0 et P0 (α) = 0.
Démonstration : Il suffit de démontrer le 1.
— ⇒ On suppose que α est racine d’ordre r. En appliquant le lemme, α est racine d’ordre r − 1 de P0 puis
d’ordre r − 2 de P00 . Et ainsi de suite. On en déduit que pour tout i ∈ [[ 0 ; r − 1 ]], α est racine d’ordre
r − i > 0 de P(i) . En particulier pour tout i ∈ [[ 0 ; r − 1 ]], P(i) (α) = 0.
— ⇐ C’est juste la formule de Taylor en α :
P (r ) ( α )
P ( X ) = 0 + 0 + · · · + 0 + ( X − α )r +···
r!
Remarque : C’est, en pratique, comme cela que l’on détermine la multiplicité d’une racine.
Exemple : Déterminer la multiplicité de −1 dans P( X ) = X 5 + 3X 4 + 5X 3 + 7X 2 + 6X + 2.
Corollaire [Link]
Soit P un polynôme non nul. Les éléments (α1 , . . . , αn ) ∈ Kn sont des racines de multiplicité
n
respective r1 , . . . , rn si et seulement si P est divisible par ∏( X − αi )ri .
i =1
Démonstration :
— ⇐ C’est évident.
— ⇒ Attention ce n’est pas évident. En effet si ( X − α1 )r1 | P et ( X − α2 )r2 | P, rien ne dit à priori que
( X − α1 )r1 .( X − α2 )r2 divise P. Cela découlera plus tard du fait que ( X − αi )ri et ( X − α j )r j sont premiers
entre eux.
Corollaire [Link]
Soit P un polynôme non nul. On suppose que les éléments (α1 , . . . , αn ) ∈ Kn sont des racines de
multiplicité respective r1 , . . . , rn . On a alors
r1 + r2 + · · · + rn 6 deg( P).
En particulier, si P est un polynôme de degré inférieur ou égal à n et que les éléments (α1 , . . . , αn ) ∈
Kn sont des racines de multiplicité respective r1 , . . . , rn . Si r1 + r2 + · · · + rn > n alors P est le
polynôme nul.
212
Démonstration : C’est la proposition précédente en utilisant que si Q| P alors deg Q 6 deg P.
Remarque : Cela justifie bien que l’on compte autant de fois une racine que sa multiplicité.
Un polynôme P de K[ X ] est dit scindé s’il existe λ, x1 , . . . , xn des éléments de K tels que
n
P = λ ∏ ( X − x k ).
k =1
Remarques :
1. Si un polynôme non nul de degré n a n racines distinctes, il est scindé.
2. Si un polynôme non nul de degré n a n racines comptées avec leur multiplicité, il est scindé.
3. Réciproquement, si P = λ ∏nk=1 ( X − xk ), les racines de P sont les xk .
Exemples :
1. Soit n un entier naturel. Le polynôme X n − 1 est scindé sur C. On a vu en effet que X n − 1 = ∏ X − e2ikπ/n .
Par contre, pour n = 3, X 3 − 1 n’est pas scindé sur R car il n’a qu’une racine réelle qui est simple et qui est
1.
2. Soit P = aX 2 + bX + c. Il est scindé sur C. Il est scindé sur R si et seulement si ∆ > 0.
Nous voulons voir comment les coefficients d’un polynôme scindé s’expriment en fonction des racines de ce
polynômes. Commençons par deux exemples.
Exemples :
1. Si P est de degré 2, ce résultat est déjà connu. Si on note P = a0 + a1 X + a2 X 2 = a2 ( X − x1 )( X − x2 ). En
développant on trouve :
a0 a
x1 x2 = et x1 + x2 = − 1 .
a2 a2
2. Si P est de degré 3 et si on note P = a0 + a1 X + a2 X 2 + a3 X 3 = a3 ( X − x1 )( X − x2 )( X − x3 ). Là encore,
en développant on trouve :
a0 a a2
x1 x2 x3 = − , x1 x2 + x1 x3 + x2 x3 = 1 et x1 + x2 + x3 = − .
a3 a3 a3
Cela conduit à la définition suivante (nous nous plaçons dans le cas d’un polynôme unitaire pour simplifier) :
n
Soit P = ∏ (X − xk ). Pour tout entier p dans [[ 1 ; n ]] on note
k =1
σp = ∑ x1 x2 · · · x p .
i1 <i2 <···<i p
Remarques :
1. On a donc
n
σ1 = ∑ x i = x1 + · · · x n
i =1
σ2 = ∑ x i x j = x 1 x 2 + x 1 x 2 + · · · x n −1 x n
i< j
n
σn = ∏ x i = x1 · · · x n
i =1
213
2. Cela s’appelle les fonctions symétriques car elles sont clairement symétriques. Elle ne dépendent pas de
l’ordre des racines. De fait on peut montrer que toute expression polynomiale symétrique des racines peut
s’exprimer unique en fonctions des σi . Par exemple,
Proposition [Link]
n
Soit P un polynôme scindé unitaire. Si on note P = a0 + a1 X + · · · + X n = ∏ (X − xk ). On a
k =1
Remarque : Ces formules s’appellent les relations coefficients-racines et généralisent celles qui ont été vues
pour le degré 2.
Exemple : Soit P = X 3 − X 2 − X − 2. Nous allons voir qu’il est scindé sur C. Si on note a, b et c ses racines alors
Avec les notations ci-dessus, il existe un unique polynôme L tel que ∀i ∈ [[ 1 ; n ]] L( xi ) = yi de degré
inférieur ou égal à n − 1
Définition [Link]
Démonstration :
— Unicité : Soit P et Q deux polynômes de Kn−1 [ X ] tels que ∀i ∈ [[ 1 ; n ]] P( xi ) = Q( xi ) = yi . Si on considère
P − Q qui est encore de degré au plus n − 1, il vérifie que ∀i ∈ [[ 1 ; n ]] ( P − Q)( xi ) = 0. Il est donc nul et
P = Q.
— Existence : Si on considère le polynôme
n
Ai = ∏ ( X − x k ).
k =0
k 6 =i
214
Il vérifie que
1 si i = j
∀ j ∈ [[ 1 ; r ]] , Li ( x j ) = δij =
0 si i 6= j
Il suffit donc de prendre
r
L= ∑ yi Li .
i =1
4 Arithmétique dans K[ X ]
Nous allons voir que la grande partie des résultats vus en arithmétique s’étendent au cas des polynômes.
Proposition [Link]
Soit P et Q deux polynômes non tous nuls. L’ensemble D ( P) ∩ D ( Q) est non vide. De plus il existe
un entier d tel que D ( P) ∩ D ( Q) ⊂ Kd [ X ]
Démonstration : L’ensemble D ( P) ∩ D ( Q) n’est pas vide car il contient 1. De plus, par symétrie on peut
supposer que P 6= 0. De ce fait, tout polynôme R de D ( P) ∩ D ( Q) vérifie que deg( R) 6 deg( P).
Définition [Link]
Soit P et Q deux polynômes non tous nuls. On appelle un PGCD de P et Q tout polynôme R de D ( P) ∩ D ( Q)
de degré maximal.
Proposition [Link]
Proposition [Link]
∀ R ∈ K[ X ], ( R| P et R| Q) ⇐⇒ R| D.
215
Remarque : Dans la proposition le sens ⇐ signifie en particulier que D est un diviseur commun car il se
divise lui même. Le sens ⇒ signifie que D est bien le plus grand diviseur commun au sens de la division.
Démonstration :
— ⇐ : C’est juste la transitivité de la division car D | P et D | Q.
— ⇒ : Comme dans le cas de Z, on fait une récurrence sur le degré de Q (ou de P si Q = 0). Le principe est
d’utiliser la division euclidienne.
Corollaire [Link]
Soit P et Q deux polynômes non tous nuls. Si D1 et D2 sont deux PGCD de P et Q alors D1 et D2
sont associés.
Définition [Link]
Soit P et Q deux polynômes non tous nuls. On appelle le PGCD de P et Q l’unique PGCD unitaire de P et
Q. On le note P ∧ Q. Par extension, si P = Q = 0 on note P ∧ Q = 0.
Soit P et Q deux polynômes non tous. Il existe des polynômes U et V tels que
PU + QV = P ∧ Q.
Soit P et Q deux polynômes. On dit que P et Q sont premiers entre eux si et seulement si P ∧ Q = 1.
Remarque : Cela signifie que les seuls polynômes divisant P et Q sont les polynômes constants.
Proposition [Link]
Soit P et Q deux polynômes, ils sont premiers entre eux si et seulement s’il existe U, V dans K[ X ]
tels que
PU + QV = 1.
Cela revient à dire que tout polynôme R de K[ X ] peut s’écrire sous la forme PU + QV.
216
Proposition [Link] (Lemme de Gauss)
Soit P et Q deux polynômes premiers entre eux alors pour tout polynôme R,
P| QR ⇒ P| R.
Corollaire [Link]
Soit P et Q deux polynômes premiers entre eux alors Pr et Qs sont premiers entre eux.
En particulier si α 6= β, ( X − α)r ∧ ( X − β)s = 1.
Proposition [Link]
Soit P et Q deux polynômes. Il existe des polynômes P1 et Q1 premiers entre eux tels que
P = DP1 et Q = DQ1
où D = P ∧ Q.
Proposition-Définition [Link]
∀ R ∈ K[ X ], (∀i ∈ [[ 1 ; r ]] , R| Pi ) ⇔ R| D
on le note D = P1 ∧ . . . ∧ Pr
2. Il existe (U1 , . . . , Ur ) ∈ K[ X ]r , P1 U1 + · · · + Pr Ur = P1 ∧ . . . ∧ Pr .
Définition [Link]
Soit P1 , . . . , Pr une famille de polynômes. On dit qu’il sont mutuellement premiers entre eux (ou premiers
entre eux dans leur ensemble) si et seulement si P1 ∧ . . . ∧ Pr = 1.
ATTENTION
Comme dans le cas de Z. La notion de premiers en leur ensemble est plus faible que 2 à 2 premiers
entre eux.
Exemple : Soit α1 , . . . , αr des éléments de K deux à deux distincts. Les polynômes ( X − αi )ni sont premiers
entre eux dans leur ensemble
217
4.4 Le plus grand commun multiple (PPCM)
Proposition [Link]
Soit P et Q deux polynômes. Il existe un unique polynôme M unitaire ou nul dont les multiples sont
les multiples communs à P et Q. On a
∀ R ∈ K[ X ], P| R et Q| R ⇒ M| R.
Démonstration :
— Unicité : C’est le même argument que pour le PGCD.
— Existence : Remarquons d’abord que si A ou B est nul, on peut prendre M = 0. Par la suite, supposons
A et B non nuls. Il existe des multiples communs par exemple AB. Notons M l’ensemble des multiples
communs non nuls et D = {deg N | N ∈ M }. L’ensemble D est une partie non vide de N (car 0 ∈ / M ).
Considérons un polynôme N de M de degré minimal.
— Tout multiple de N est bien un multiple commun de P et Q.
— Soit R un multiple commun de P et Q montrons que N divise R. On fait pour cela la division
euclidienne de R par N et on note S le reste. On a donc S = R − TN. Donc S est un multiple commun
de P et Q. Comme il est de degré strictement inférieur à celui de N on a S = 0 et N | R.
Définition [Link]
Remarque : Là encore, M est un multiple commun et c’est le plus petit au sens de la division.
Exemples :
1. Si P ou Q est nul, P ∨ Q = 0.
2. Soit P = ( X − α) et Q = ( X − β). On a
( X − α)( X − β) si α 6= β
P∨Q =
X−α si α = β
PR ∧ QR = ( P ∧ Q) R et PR ∨ QR = ( P ∨ Q) R.
Démonstration : Comme nous ne l’avions pas faite sur Z, nous allons la faire.
— Pour le PGCD : On note D = P ∧ Q. On sait que D divise P et Q donc DR divise PR et QR. On en déduit
que DR|( PR ∧ QR).
De plus, si on note T = ( PR ∧ QR). On veut montrer que T | DR. Remarquons d’abord que R| T car R est
un diviseur commun de PR et QR. On peut donc écrire T = UR. Maintenant comme T divise PR on a U
qui divise P. De même U divise Q. On en déduit que U | D et donc T = UR| DR.
On conclut en utilisant que PR ∧ QR et ( P ∧ Q) R sont unitaires.
— Pour le PPCM : On note M = P ∨ Q. Alors P| M et Q| M donc PR| MR et QR| MR. On en déduit ( PR ∨
QR)| MR. Maintenant on sait que PR|( PR ∨ QR) donc R|( PR ∨ QR). On note PR ∨ QR = UR. Comme
PR|UR on en déduit que P|U. De même on trouve que Q|U et donc ( P ∨ Q)|U. En multipliant par R on
a ( P ∨ Q) R|UR = PR ∨ QR. On conclut comme précédemment en utilisant que ce sont des polynômes
unitaires.
218
Proposition [Link]
P| R et Q| R ⇒ PQ| R.
Démonstration : Puisque P et Q sont premiers entre eux il existe U et V tels que PU + QV = 1 et donc
PRU + QRV = R. Maintenant, Q| R donc PQ| PRU. De même PQ| QRV. On a bien PQ| R.
Corollaire [Link]
( P ∧ Q)( P ∨ Q) = λPQ.
Démonstration : La proposition précédente est le cas où P et Q sont premiers entre eux. On démontre le cas
général en écrivant P = DP1 et Q = DQ1 où D = P ∧ Q et P1 ∧ Q1 = 1.
5 Factorisation
C’est un résultat connu que si n est un entier, il peut s’écrire de manière unique comme un produit de
nombres premiers. Par exemple 12936 = 23 × 3 × 72 × 11. Nous allons essayer de faire de même pour les
polynômes dans R[ X ] et C[ X ]. La première tache est alors de trouver un analogue aux nombres premiers.
Un polynôme non constant P est dit irréductible s’il n’a pas de diviseurs triviaux, c’est-à-dire que P n’est
divisible que par les multiples de P et les polynômes constants. Cela s’écrit :
Remarques :
1. C’est un analogue des nombres premiers. Un nombre entier est dit premier s’il n’est divisible que par
lui-même et par 1. Avec toujours le fait que les inversibles de K[ X ] ne sont pas que 1 et −1 mais tous les
polynômes constants.
2. On considère qu’un polynôme constant n’est pas irréductible, de la même manière que 1 n’est pas un
nombre premier.
Exemples :
1. Les polynômes de degré 1 sont irréductibles.
2. Étudions le cas des polynôme de degré 2 pour K = C. On sait qu’ils ont toujours une racine α. De ce fait
ils ne sont pas irréductibles car divisible par ( X − α).
3. Étudions le cas des polynôme de degré 2 pour K = R. On regarde ∆ le discriminant.
— si ∆ > 0 le polynôme a des racines réelles. Il n’est donc pas irréductible.
— si ∆ < 0 le polynôme n’a pas de racines réelles. Supposons par l’absurde qu’il ne soit pas irréductible.
Il serait alors divisible par un polynôme non constant de degré strictement inférieur. C’est à dire par
un polynôme de degré 1. C’est absurde car il n’a pas de racines réelles. Dans ce cas, le polynôme est
irréductible.
219
Remarque : Attention, contrairement à ce que pourrait faire croire ci qui précède, il n’y a pas équivalence entre
être irréductible et ne pas avoir de racines. On a bien
( P est irréductible ) ⇒ P n’a pas de racines.
Cela se démontre bien par contraposée. Mais la réciproque est fausse. Par exemple le polynôme P = 2X 4 +
6X 2 + 4 n’a pas de racines réelles de manière évidente. Cependant P = 2( X 2 + 1)( X 2 + 2). Donc P n’est pas
irréductible.
Proposition [Link]
Soit P un polynôme irréductible. Il est premier avec tous les polynômes qu’il ne divise pas.
Démonstration : Soit Q un autre polynôme. On suppose que P et Q ne sont pas premiers. Dans ce cas il existe R
non constant qui divise P et Q. Comme R est non constant et qu’il divise P qui est irréductible, il existe λ ∈ K?
tel que P = Rλ. On a donc P| Q.
Théorème [Link]
où λ ∈ K et les Qk sont des polynômes unitaires irréductibles sur K. De plus cette décomposition est
unique à l’ordre des facteurs.
Démonstration : L’existence se fait par récurrence sur le degré de P. L’unicité est la même démonstration que
dans Z.
Remarques :
1. C’est l’analogue de la décomposition en nombres premiers dans Z.
2. Nous le démontrerons plus loin.
3. Une telle décomposition s’appelle une factorisation de P.
Exemple : Dans l’exemple précédent, l’écriture P = 2( X 2 + 1)( X 2 + 2) est la factorisation sur R car les
polynômes X 2 + 1 et X 2 + 2 sont irréductibles sur R (les discriminants sont −4 et −8). Par contre sur C la
factorisation sera √ √
P = 2( X + i )( X − i )( X + i 2)( X − i 2).
On a alors le même corollaire que dans Z :
Proposition [Link]
220
5.3 Factorisation sur C
Contrairement à ce que vous pourriez penser, il est plus simple de factoriser sur C. La raison est que la
description des polynômes irréductibles est plus élémentaires. On a
Soit P un polynôme à coefficient complexe. Si deg P > 1 alors P a une racine dans C.
Remarques :
1. Il faut comprendre le « P a une racine » dans le sens de l’existante d’une racine c’est-à-dire qu’il peut en
avoir plusieurs.
2. Ce théorème est très important en mathématique et est assez difficile à démontrer.
3. Cela englobe en particulier le cas des polynômes réels.
Corollaire [Link]
Les polynômes irréductibles dans C[ X ] sont les polynômes de degré 1. En particulier, soit P un
polynôme à coefficient dans C, sa factorisation est de la forme
p
P( X ) = λ. ∏ ( X − αi )ri ,
k =1
3
P( X ) = − ∏ ( X − eikπ/2 ) = −( X − 1)( X − i )( X + 1)( X + i ).
k =0
Soit P un polynôme à coefficients dans C. Soit (α1 , . . . , α p ) ∈ C p ses racines et (r1 , . . . , r p ) les
multiplicités respectives. On a
r1 + · · · + r p = deg P.
Proposition [Link]
221
Proposition [Link]
Définition [Link]
N
Soit P = ∑ ak X k un polynôme de C[X ]. On appelle conjugué de P et on note P le polynôme
k =0
N
P= ∑ ak X k .
k =0
Proposition [Link]
Corollaire [Link]
Soit P un polynôme à coefficients réels. Soit α une racine complexe, le conjugué α est aussi racine et
de même multiplicité.
Démonstration
On peut maintenant démontrer le théorème. La démonstration est importante car c’est la méthode utilisée
dans les calculs.
Démonstration : On considère toutes les racines complexes de P. On met d’un coté les racines réelles. On
p
donne le terme ∏( X − αi )ri . On considère alors les racines complexes que l’on regroupe deux à deux avec les
i =1
conjugués puis on utilise que
( X − α)( X − α) = ( X 2 − 2Re(α) X + |α|2 ).
222
Exemple : On considère le polynôme X4 + 1. Ses racines dans C sont eiπ/4 , e3iπ/4 , e5iπ/4 et e7iπ/4 . On remarque
alors que
e5iπ/4 = eiπ/4 et e7iπ/4 = e3iπ/4 .
D’où √ √
( X 4 + 1) = ( X 2 + 2 + 1)( X 2 − 2 + 1).
Exercice : Soit P = 1 + 2X + 3X 2 + 2X 3 + X 4 . Montrer que j est racine et déterminer sa multiplicité. En déduire
sa factorisation sur C puis sur R
223
1 Définitions
Dérivation
15 224
1.1 Nombre dérivé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
1.2 Interprétation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.3 Fonction dérivée . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.4 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
1.5 Dérivées des fonctions usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230
2 Dérivées d’ordre supérieure 231
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
2.2 Opérations algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
3 Accroissements finis 233
3.1 Extremums . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
3.2 Théorème des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
3.3 Inégalités des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
3.4 Application à la monotonie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 236
3.5 Application aux prolongements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 237
Nous allons étudier la notion de dérivée. Pour cela nous commencerons pas regarder la dérivée en un point
puis la notion de fonction dérivée.
1 Définitions
1.1 Nombre dérivé
Définition [Link] (Nombre dérivé)
Soit I un intervalle et I une fonction définie sur I. Soit a ∈ I, on dit que la fonction est dérivable en a si le
taux d’accroissement en a à une limite finie. C’est à dire si la fonction ϕ a définie sur I − { a} par
f ( x ) − f ( a)
ϕa (x) =
x−a
admet une limite quand x tend vers a.
df
Dans ce cas, cette limite s’appelle nombre dérivé de f en a et se note f 0 ( a) ou ( a). On dit que f est dérivable
dx
en a.
224
Remarque : Si on veut faire ce calcul, on se ramène la plupart du temps à une limite en 0 en posant x = a + h.
Dès lors, sous réserve d’existence,
f ( a + h) − f ( a)
f 0 ( a) = lim .
h →0 h
Exemples :
1. Soit f : x 7→ 2x2 + 3. On cherche à savoir si elle est dérivable en a = 3. On calcule
f ( x ) − f (3) 2x2 + 3 − 21 x2 − 9
ϕa (x) = = = 2. = x + 3.
x−3 x−3 x−3
On en déduit que ϕ a tend vers 6 quand x tend vers 3 donc f est dérivable en 3 et f 0 (3) = 6..
√
2. Soit f : x 7→ x. Soit a ∈ R+ . On a donc
√ √
x− a 1
ϕa (x) = = √ √ .
x−a x+ a
1
On en déduit que si a 6= 0 alors f est dérivable et f 0 ( a) = √ . Par contre elle n’est pas dérivable en 0.
2 a
1
3. Soit f la fonction définie sur R? par f : x 7→ x sin .
x
On remarque que ∀ x ∈ R? , | f ( x )| 6 | x |. En particulier on peut la prolonger par continuité en 0 en posant
f (0) = 0 1 .
On peut alors se demander si le prolongement obtenu est dérivable en 0. Pour cela on regarde le taux
d’accroissement en 0 :
x sin(1/x ) − 0
∀ x ∈ R ? , ϕ0 ( x ) = = sin(1/x ).
x
On en déduit que le taux d’accroissement n’a pas de limite en 0 et, de ce fait, la fonction f n’est pas
dérivable en 0.
Exercice : Le prolongement par continuité de x 7→ x2 sin(1/x ) est-il dérivable en 0 ?
Proposition [Link]
Démonstration
Avec les notations précédentes, on dit que f est dérivable à droite (resp. à gauche) en a si ϕ a admet une limite à
droite (resp. à gauche) finie. On note alors
0 f ( x ) − f ( a) 0 f ( x ) − f ( a)
f d ( a) = lim , resp. f g ( a) = lim .
x → a+ x−a x → a− x−a
Remarque : La fonction f est dérivable à droite en a si la restriction de f à I ∩ [ a, +∞[ est dérivable. De même
à gauche avec la restriction à I ∩] − ∞, a].
On a alors comme pour les limites
Proposition [Link]
225
Démonstration : La fonction ϕ a n’est pas définie en a. De ce fait, elle a une limite en a si et seulement elle a des
limites à gauche et à droite qui existent et sont égales.
Exemple : Soit f définie sur R par f : x 7→ | x |.
Soit a ∈ R?+ , il existe un voisinage V de a dont tous les éléments sont strictement positif. Pour tout x dans
V \ { a}, on a
| x | − | a| x−a
ϕa (x) = = = 1.
x−a x−a
On en déduit que f est dérivable en a et que f 0 ( a) = 1.
De même si a ∈ R?− , on trouve f 0 ( a) = −1.
Pour a = 0, les calculs précédents montrent que f d0 (0) = 1 et f g0 (0) = −1. On en déduit alors par la
proposition ci-dessus que f n’est pas dérivable en 0.
Définition [Link]
On dit que f admet un développement limité à l’ordre 1 au voisinage de a s’il existe ( a0 , a1 ) ∈ R2 , pour tout
x au voisinage de a
f ( x ) = a0 + a1 ( x − a ) + o ( x − a ) .
a
Proposition [Link]
Une fonction f est dérivable en a si et seulement si elle admet un développement limité à l’ordre 1
en a. Dans ce cas, a0 = f ( a) et a1 = f 0 ( a).
Démonstration :
— ⇒ On suppose que f est dérivable en a et on veut montrer que f ( x ) − f ( a) − f 0 ( a)( x − a) est négligeable
devant x − a en a. Il suffit de calculer
f ( x ) − f ( a) − f 0 ( a)( x − a) f ( x ) − f ( a)
∀ x 6= a, = − f 0 ( a ).
x−a x−a
Ceci tend bien vers 0 par définition de f 0 .
— ⇐ Il suffit de faire le calcul dans l’autre sens.
Corollaire [Link]
f ( x ) − f ( a ) ∼ ( x − a ) f 0 ( a ).
a
Proposition [Link]
226
1.2 Interprétation graphique
Soit f unefonctiondéfinie sur I et a un élément de I. On appelle
C la courbe de f . On pose A le point de
a x
coordonnées et M le point de coordonnées . On regarde alors la corde ( AM ). Sa pente est
f ( a) f (x)
donnée par le taux d’accroissement ϕ a ( x ). En particulier, le vecteur (1, ϕ a ( x )) en est un vecteur directeur.
Si on suppose que f est dérivable en a alors les vecteurs directeurs (1, ϕ a ( x )) tendent vers (1, f 0 ( a)) qui est
donc la « limite »des cordes ( AM ).
La tangente à la courbe C en a est donc la droite passant par A et de vecteur directeur (1, ϕ a ( x )). Son
équation est
y − f ( a) = f 0 ( a)( x − a) ( ou y = f ( a) + f 0 ( a)( x − a)).
Remarques :
1. Si un fonction admet une dérivée à droite (ou à gauche) en a alors sa courbe a une demi-tangente à ce
point. Par exemple la fonction x 7→ | x |.
2. Si f est continue en a et que le taux d’accroissement tend vers ±∞ alors les cordes «√tendent »vers la droite
verticale passant par A. On dit que C a une tangente verticale. Par exemple x 7→ x en 0.
Soit I un intervalle et f une fonction définie sur [Link] dit que f est dérivable sur I (ou juste dérivable) si f est
dérivable en tout point de I. La fonction dérivée de f est alors la fonction, notée f 0 définie sur I qui associe à x
df
dans I le nombre dérivée f 0 ( x ). On la note aussi .
dx
Définition [Link]
Soit I un intervalle et f une fonction définie sur I. On dit que f est de classe C 1 si elle est dérivable sur I et si
sa fonction dérivée est continue sur I. L’ensemble des fonctions de classe C 1 sur I se note C 1 ( I ).
Remarque : De fait, la notion de fonction de classe C 1 est souvent plus utile que celle de fonction dérivable.
On a
C 1 ( I ) ⊂ D 1 ( I ) ⊂ C 0 ( I ).
Soit f , g deux fonctions définies sur I et (λ, µ) ∈ R2 . Soit a ∈ I, si f et g sont dérivable en a alors
λ. f + µ.g est dérivable en a et (λ. f + µ.g)0 ( a) = λ. f 0 ( a) + µ.g0 ( a).
On en déduit que si f et g appartiennent à D 1 ( I ), (λ. f + µ.g) aussi et (λ. f + µ.g)0 = λ. f 0 + µ.g0 .
227
Corollaire [Link]
D: D 1(I) → F ( I, R)
f 7→ f0
est linéaire
Soit f , g deux fonctions définies sur I. Soit a ∈ I, si f et g sont dérivables en a alors f .g est dérivable
en a et ( f .g)0 ( a) = f 0 ( a).g( a) + f ( a).g0 ( a).
On en déduit que si f et g appartiennent à D 1 ( I ), ( f .g) aussi et ( f .g)0 = f 0 .g + f .g0 .
C’est à dire qu’il existe des fonctions ε 1 et ε 2 tendant vers 0 en a telle que
f ( x ) = f ( a) + ( x − a) f 0 ( a) + ( x − a)ε 1 ( x ) et g( x ) = g( a) + ( x − a) g0 ( a) + ( x − a)ε 2 ( x ).
On fait le produit et on trouve :
( f .g)( x ) = ( f .g)( a) + ( x − a)[ f ( a) g0 ( a) + f 0 ( a) g( a)] + ( x − a)2 f 0 ( a) g0 ( a) + ( x − a)ε 1 ( x )( g( a) + ( x − a) g0 ( a) + ( x − a)ε 2
= ( f .g)( a) + ( x − a)[ f ( a) g0 ( a) + f 0 ( a) g( a)] + o (( x − a)) .
a
Exemple : On trouve directement que la fonction x 7→ x2
est dérivable et que sa dérivée est x 7→ 2x. Par
récurrence, on prouve que la dérivée de x 7→ x n est x 7→ nx n−1 . On peut ensuite généraliser aux polynômes par
linéarité
Proposition [Link] (Quotient)
Démonstration : Commençons par 1/g. On en déduira alors le cas général en utilisant le produit. Soit g une
fonction dérivable en a et qui ne s’annule pas en a.
Alors pour x 6= a,
1 1
−
g( x ) g( a) g( x ) − g( a) −1
ϕa (x) = = . .
x−a x−a g( x ) g( a)
− g0 ( a)
Quand x tend vers a cela tend vers .
g2 ( a )
Maintenant, on a donc
− g0 ( a) f 0 ( a) g( a) − f ( a) g0 ( a)
( f × 1/g)0 ( a) = f 0 ( a) × (1/g)( a) + f ( a) × 2
= .
g ( a) g2 ( a )
228
Proposition [Link] (Composée)
Soit f une fonction définie sur I et g une fonction définie sur J. On suppose que g( J ) ⊂ I. Soit a un
élément de J. Si g est dérivable en a et f est dérivable en g( a) alors f ◦ g est dérivable en a et
Démonstration :
Soit x 6= a. On a
f ( g( x )) − f ( g( a))
ϕa (x) = .
x−a
On voudrait écrire que
f ( g( x )) − f ( g( a)) f ( g( x )) − f ( g( a)) g( x ) − g( a)
= ×
x−a g( x ) − g( a) x−a
mais on est embêté si jamais g( x ) = g( a).
Pour cela on pose
f (y) − f ( g( a))
si y 6= g( a)
ψ : y 7→ y − g( a)
0
f ( g( a)) sinon
Ainsi définie, cette fonction est continue sur J (car on pris la bonne valeur quand y = g( a).).
Maintenant, pour tout x 6= a,
f ( g( x )) − f ( g( a)) g( x ) − g( a)
ϕa (x) = = ψ( g( x )) × .
x−a x−a
En effet, c’est ce que l’on avait vu quand g( x ) 6= g( a) et de plus quand g( x ) = g( a) les deux termes sont
nuls.
En faisant tendre x vers a on trouve le résultat cherché.
1 1
( f −1 )0 ( f ( a)) = ou ( f −1 )0 (b) = en posant b = f ( a).
f 0 ( a) f 0 ( f −1 (b))
1
( f −1 ) 0 = .
f 0 ◦ f −1
f −1 ( y ) − f −1 ( b ) 1
lim = 0 .
y→b y−b f ( a)
Or
f ( x ) − f ( a)
f 0 ( a) = lim .
x→a x−a
229
Comme la fonction f −1 est continue, lim f −1 (y) = f −1 (b) = a, par composition,
y→b
f ( f −1 (y)) − f ( a) y−b
f 0 ( a) = lim = lim −1 .
y→b f −1 ( y ) − a y→b f ( y ) − f −1 ( b )
Comme f 0 ( a) n’est pas nul on peut passer à l’inverse.
Remarque : Si on veut juste la formule sans à redémontrer la dérivabilité, on peut ultiliser que ( f ◦ f −1 ) = Id.
En dérivant, ( f −1 )0 × f 0 ◦ f −1 = 1 et donc
1
( f −1 ) 0 = .
f 0 ◦ f −1
Exemple : On prend f la restriction de cos à [0, π ]. On sait que c’est une bijection de [0, π ] sur [−1, 1] et qu’elle
est dérivable. De plus f 0 s’annule en 0 et en π. Donc arccos est dérivable sur [−1, 1] \ { f (0), f (π )} =] − 1, 1[.
De plus, sa dérivée en x ∈] − 1, 1[ est
1
arccos0 ( x ) = .
− sin(arccos x )
√
Et on sait que que sin(arccos( x )) = 1 − x2 . On a donc
−1
arccos0 ( x ) = √
.
1 − x2
Nous verrons plus loin que l’on peut dire qu’en 1 et −1 la courbe représentative de de arccos a une tangente
verticale.
Fonction Dérivée
uα αu0 uα−1
√ u0
u √
2 u
eu u0 .eαu
u0
ln u
u
230
2 Dérivées d’ordre supérieure
2.1 Définitions
L’idée est que si f est dérivable sur un intervalle I. Si la fonction dérivée f 0 est encore dérivable on dira que
la fonction est deux fois dérivable et que se dérivée seconde est f 00 = ( f 0 )0 . Précisément :
Définition [Link]
Soit I un intervalle et f une fonction définie sur I. On définit les dérivées d’ordre 0, 1, · · · , n par récurrence
quand elles existent par :
∀ x ∈ I, f (n) ( x ) = ( f (n−1) )0 ( x ).
La fonction f (n) s’appelle la dérivée n-ième. Si elle existe, la fonction f est dite n fois dérivable.
Notation : L’ensemble des fonctions n fois dérivables sur un intervalle I se note D n ( I ). On note aussi C n ( I )
l’ensemble des fonctions n fois dérivable et dont la dérivée n-ième est continue. 2
On a donc :
· · · ⊂ D n +1 ⊂ C n ⊂ D n ⊂ · · · ⊂ D 2 ⊂ C 1 ⊂ D 1 ⊂ C 0
On notera aussi C ∞ les fonctions infiniment dérivables, c’est à dire que l’on peut dériver autant de fois que
l’on veut.
Proposition [Link]
Exemples :
p!
1. Soit p ∈ N et n un entier inférieur à p alors ( x p )(n) = x p−n .
( p − n)!
2. Soit α ∈ R et f : x 7→ x α . Pour tout réel strictement positif x et tout entier n,
f ( n ) ( x ) = α ( α − 1) · · · ( α − n + 1) x α − n .
2. la condition ne porte que sur la dérivée n-ième car les autres étant dérivables elles sont obligatoirement continues.
231
Corollaire [Link]
Dn : D n(I) → F ( I, R)
f 7→ f (n)
est linéaire.
Démonstration : Montrons par récurrence sur n ∈ N? que pour tout entier non nul n, « Si f et g appartiennent
à C n ( I ), ( f .g) aussi et ( f .g)(n) = ∑nk=0 (nk) f (k) .g(n−k) . ».
— Initialisation : pour n = 1, c’est la propriété vue précédemment. On a bien
1
1 ( k ) (1− k )
( f .g)0 = f 0 g + g0 f = ∑ f g .
k =0
k
— Hérédité : On suppose que f et g sont n + 1 fois dérivables. Alors elles sont n fois dérivables et de ce fait
( f g) aussi et
n
n (k) (n−k)
( f .g) = ∑
(n)
f .g .
k =0
k
La forme de droite est dérivable, on en déduit que celle de gauche aussi et
!0
n
n (k) (n−k)
( f g) ( n +1)
= ∑ k f .g
k =0
n 0
n
= ∑ f (k) .g(n−k)
k =0
k
n
n ( k +1) ( n − k )
= ∑ f .g + f ( k ) g ( n +1− k )
k =0
k
! !
n n
n ( k +1) ( n − k ) n ( k ) ( n +1− k )
= ∑ k f .g + ∑
k
f g
k =0 k =0
! !
n +1 n
n n ( k ) ( n +1− k )
= ∑ k − 1 f .g ( k ) ( n +1− k )
+ ∑
k
f g
k =1 k =0
0 (0) ( n +1) n +1 n n n ( n +1) (0)
= f g +∑ + ( k ) ( n +1− k )
f .g + f g
0 k =1
k − 1 k n
n +1
n + 1 ( k ) ( n +1− k )
= ∑ f .g
k =0
k
232
Proposition [Link] (Composée)
Soit f une fonction définie sur I et g une fonction définie sur J. On suppose que g( J ) ⊂ I. Si f
appartient à C n ( I ) et g appartient à C n ( J ) alors f ◦ g est un élément de C n ( J ).
ATTENTION
La formule de la dérivée n-ieme d’une composé est TRES compliquée. C’est la formule de Faà di
Bruno : !m j
n ( j) ( x )
n! g
( f ◦ g )(n) ( x ) = ∑ f (m1 +···+mn ) ( g( x )) × ∏ .
m1 ! · · · m n ! j =1
j!
La somme est prise sur tous les n-uplets (m1 , . . . , mn ) tels que m1 + 2m2 + · · · + nmn = n.
Soit f : I → J une bijection. Si f est n fois dérivable sur I et si f 0 ne s’annule pas alors f −1 est n fois
dérivable sur J.
3 Accroissements finis
3.1 Extremums
Définition [Link]
Remarque : Un extremum global est aussi un extremum local le contraire est faux.
233
Définition [Link]
Soit I un intervalle et a ∈ I.
1. On dit que a est un point intérieur à I s’il appartient à I et que ce n’est pas une borne.
2. Soit f une fonction définie et dérivable sur I. On dit que a est un point critique de f si f 0 ( a) = 0.
Théorème [Link]
Soit f une fonction dérivable sur un intervalle I et a un point intérieur de I. Si a est un extremum
local pour f alors f 0 ( a) = 0. C’est un point critique.
Remarques :
1. Il faut faire attention que le point a peut-être un extremum sans que la dérivée ne s’annule si c’est une
borne. Par exemple x 7→ x sur [0, 1].
2. La réciproque est bien sûre fausse. Par exemple, le point 0 pour la fonction f : x 7→ x3 .
Démonstration : Soit a, on suppose que c’est un extremum local. Soit ε > 0 tel que a soit un maximum global
sur ] a − ε, a + ε[⊂ I. On a alors
f ( a + h) − f ( a)
f 0 ( a) = lim .
h →0 h
f ( a + h) − f ( a)
Pour tout h ∈] − ε, 0[ on a > 0 car le numérateur et le dénominateur sont négatifs. Par contre
h
f ( a + h) − f ( a)
Pour tout h ∈]0, ε[ on a 6 0 car le numérateur est encore négatif mais le dénominateur est
h
positif. On en déduit que
f ( a + h) − f ( a) f ( a + h) − f ( a)
lim > 0 et lim 6 0.
h →0− h h →0 + h
On en déduit que f 0 ( a) = 0.
Soit f une fonction continue sur [ a, b] et dérivable sur ] a, b[. Si f ( a) = f (b) il existe c ∈] a, b[ tel que
f 0 (c) = 0.
Démonstration : Si la fonction est constante, c’est évident. On élimine donc ce cas. La fonction f est alors
continue sur un intervalle fermé et bornée, elle est donc bornée et atteint ses bornes. Elle a donc soit un
maximum, soit un minimum dans ] a, b[. On l’appelle c, il vérifie f 0 (c) = 0.
Remarques :
1. Cela se voit bien sur un dessin.
2. Il faut faire attention aux hypothèses et il faut les connaître. Cela est vrai de manière plus générale avec
f dérivable sur [ a, b] mais
√ le petit raffinement permet de l’utiliser avec des fonctions définies à l’aide de
fonctions comme x 7→ x ou x 7→ arcsin x.
Le théorème de Rolle sert à démontrer le suivant :
Soit f une fonction continue sur [ a, b] et dérivable sur ] a, b[. Il existe c ∈] a, b[ tel que
f (b) − f ( a)
= f 0 ( c ).
b−a
234
Remarques :
1. Cela se voit aussi géométriquement, c’est une version « penchée » du théorème de Rolle. En effet, cela
signifie qu’il y a une tangente parallèle à la droite (AB) où A = ( a, f ( a)) et B=(b, f (b)).
2. Ce théorème s’appelle aussi « égalité des accroissements finis ».
Démonstration : On veut se ramener au théorème de Rolle. On considère la fonction g définie sur [ a, b] par
f (b) − f ( a)
∀ x ∈ [ a, b], g( x ) = f ( x ) − x.
b−a
On a alors que g est encore continue sur [ a, b] et dérivable sur ] a, b[. De plus g( a) = g(b). On applique le
f (b) − f ( a)
théorème de Rolle. Il existe c ∈] a, b[ tel que g0 (c) = 0 or g0 (c) = f 0 (c) − . On en déduit que
b−a
f (b) − f ( a)
= f 0 ( c ).
b−a
x
Exemple : Montrons que pour tout x > 0, il existe c ∈]0, x [ tel que ln(1 + x ) = . On applique le théorème
1+c
des accroissements finis à f : x 7→ ln(1 + x ) entre 0 et x. Il existe c ∈]0, x [ tel que
ln(1 + x ) − 0 1 1
= car f 0 ( x ) = .
x−0 1+c 1+x
En particulier, ln(1 + x ) 6 x.
Soit f une fonction continue sur [ a, b] et dérivable sur ] a, b[. On suppose que la dérivée f 0 est bornée
sur ] a, b[. Soit (m, M ) ∈ R2 tels que ∀ x ∈] a, b[, m 6 f 0 ( x ) 6 M alors
m ( b − a ) 6 f ( b ) − f ( a ) 6 M ( b − a ).
Remarques :
1. Ce corollaire est très utile pour majorer la différence de deux valeurs prises par une fonction.
2. Si, et c’est le cas le plus courant, la fonction f est de classe C 1 sur [ a, b] alors la dérivée est obligatoirement
bornée sur [ a, b] donc sur ] a, b[. C’est ce qui explique que l’on est fréquemment en situation d’utiliser cette
formule.
Soit f une fonction continue sur [ a, b] et dérivable sur ] a, b[. On suppose que la dérivée f 0 est bornée
sur ] a, b[. Soit M ∈ R tels que ∀ x ∈] a, b[, | f 0 ( x )| 6 M alors
B La plupart des résultats donné dans le chapitre s’étend aux fonctions à valeurs dans C mais pas le théorème
de Rolle (et donc pas le théorème des accroissements finis) car on peut « tourner »autour de 0 dans C. Par
exemple, la fonction f : t 7→ exp 2itπ. Elle vérifie, f (0) = f (2π ) = 1. Sa dérivée ne s’annule pourtant pas.
Cependant l’inégalité des accroissements finis reste vraie. On peut en effet la démontrer par d’autres moyens
comme l’intégration. Si on suppose que pour tout t dans I, | f 0 (t)| 6 k alors
Z y Z y
| f ( x ) − f (y)| = f 0 (t) dt 6 | f 0 (t)| dt = k| x − y|.
x x
235
Définition [Link]
∀( x, y) ∈ I 2 , | f ( x ) − f (y)| 6 k| x − y|.
On dit qu’une fonction est lipschitzienne s’il existe k ∈ R+ tel qu’elle soit k-lipschitzienne.
Proposition [Link]
Démonstration
Remarques :
√
1. Il existe des fonctions continues qui ne sont pas lipschitziennes. Par exemple, x 7→ e x sur R ou x 7→ x
sur [0, 1].
2. Une fonction de classe C 1 (et même C ∞ ) peut ne pas être lipschitzienne sur un intervalle non borné. Par
exemple x 7→ exp( x ).
Remarque : Ce théorème est très classique et très utile. Il faut faire attention que le fait que I soit un intervalle
est essentiel. Par exemple sur R? la dérivée de x 7→ 1/x est toujours négative mais la fonction n’est pas
décroissante sur R? .
Démonstration : On va se contenter de démontrer le 2.
f ( x ) − f ( a)
— ⇒ Soit a ∈ I. On sait que f 0 ( a) = lim ϕ a ( x ) ou ϕ a ( x ) = .
x→a x−a
Or pour tout x > a, on a f ( x ) > f ( a) d’où f ( x ) − f ( a) > 0 et x − a > 0. On en déduit que ϕ a ( x ) > 0.
De même, pour tout x 6 a, on a f ( x ) 6 f ( a) d’où f ( x ) − f ( a) 6 0 et x − a 6 0. On en déduit que
ϕ a ( x ) > 0.
Par passage à la limite, f 0 ( a) > 0.
— ⇐ Soit x et y des éléments de I. On suppose que x 6 y. On peut appliquer le théorème des accroissements
finis entre x et y. Il existe c ∈] x, y[ tels que f (y) − f ( x ) = f 0 (c)(y − x ) or f 0 (c) > 0 par hypothèses donc
f (y) − f ( x ) > 0.
Il y a une variante avec des inégalités strictes. Il faut cependant faire un peu plus attention.
Proposition [Link]
236
Remarque : On n’a plus que l’implication dans ce sens, qui se démontre encore en utilisant le théorème des
accroissements finis. La démonstration de la réciproque n’est plus bonne car l’inégalité stricte ne survie pas au
passage à la limite. Et de fait le résultat est faux comme le prouve la fonction x 7→ x3 .
On a quand même un énoncé plus précis
Proposition [Link]
Soit I un intervalle et f une fonction dérivable sur I. La fonction f est strictement monotone si et
seulement si f 0 est de signe constant et ne s’annule pas sur un sous intervalle de I non réduit à un
point.
Démonstration
On utilise la plupart du temps le corollaire suivant :
Corollaire [Link]
Soit f une fonction dérivable sur I. Si f 0 est de signe constant et ne s’annule qu’en un nombre fini de
points elle est strictement monotone.
Théorème [Link]
Soit f une fonction continue sur un intervalle I et a ∈ I. On suppose que f est dérivable sur I \ { a}.
Soit ` ∈ R.
f ( x ) − f ( a)
Si lim f 0 ( x ) = ` alors lim = `.
x→a x→a x−a
En particulier, si ` ∈ R, alors f est dérivable en a et f 0 ( a) = `. Par contre si ` ∈ {±∞} la fonction f
n’est pas dérivable et sa courbe admet une tangente verticale.
237
Démonstration : Avec le théorème des accroissements finis.
Corollaire [Link]
Soit f une fonction continue sur un intervalle I et a ∈ I. On suppose que f est de classe C 1 sur
I \ { a}. Si la dérivée f 0 ( x ) a une limite finie quand x tend vers a alors la fonction f est de classe C 1
sur I.
Exemples :
1. On considère la fonction x 7→ arccos x. On sait qu’elle est continue sur [−1, 1] et dérivable sur ] − 1, 1[. De
−1
plus, pour tout x de ] − 1, 1[, arccos0 ( x ) = √ . On particulier
1 − x2
On en déduit que arccos n’est pas dérivable en −1 et 1 et que la courbe admet des tangentes verticales.
2. On considère la fonction définie sur R? par
x−1
f ( x ) = exp .
x2
Étudions son prolongement en 0. On remarque d’abord que f est de classe C 1 sur R? . De plus lim f ( x ) = 0.
x →0
On peut donc la prolonger par continuité.
Maintenant, pour tout x de R? ,
−x + 2 x−1 −1 x−1
f 0 (x) = exp ∼ exp .
x3 x2 0 x2 x2
Corollaire [Link]
Soit I un intervalle et a ∈ I. Soit f une fonction de classe C n sur I \ { a}. Si pour tout k ∈ [[ 0 ; n ]]
la dérivée k-ième f (k) ( x ) a une limite finie quand x tend vers a alors la fonction f se prolonge par
continuité et ce prolongement est de classe C n sur I.
2
Exemple : Considérons f : x 7→ e−1/x définie sur R∗ .
Elle se prolonge naturellement par continuité en posant f (0) = 0.
On peut montrer de plus que pour tout entier n et tout réel non nul x,
Pn ( x ) −1/x2
f (n) ( x ) =
e
x3n
où Pn est un polynôme donné par la relation de récurrence :
Par croissances comparées on en déduit alors que pour tout entier n, f (n) ( x ) −→ x→0 0. D’après le théorème
précédent, on en déduit que le prolongement par continuité de f est de classe C ∞ .
238
Suites récurrentes :
16
u n +1 = f ( u n )
1 Généralités 239
1.1 Représentation graphique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239
1.2 Existence de la suite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
2 Méthodes d’étude 240
2.1 Caractérisation de la limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240
2.2 Utilisation des accroissements finis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2.3 Cas où f est croissante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
2.4 Cas où f est décroissante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
3 Méthode de Newton 244
1 Généralités
Nous allons nous intéresser à des suites définies par une relation du type un+1 = f (un ) où f est une fonction
définie sur un intervalle I. On se placera le plus souvent sur des intervalles fermés c’est à dire de la forme [ a, b],
[ a, +∞[,] − ∞, b] ou R.
u0 u1 u2
u3 u2 u1 u0
239
1.2 Existence de la suite
La première chose à vérifier est que la suite est entièrement définie. C’est-à-dire que l’on puisse bien définir
un pour tout entier n. Si la fonction f est définie sur R c’est évident. Dans un autre cas, cela ne l’est pas.
Définition [Link]
Proposition [Link]
S’il existe N ∈ N tel que u N existe et appartienne à une partie stable par f alors la suite est définie et
de plus : ∀n > N, un ∈ X.
2 Méthodes d’étude
2.1 Caractérisation de la limite
Définition [Link]
Proposition [Link]
On suppose que f est continue. Si la suite (u) converge et que I est fermé alors la limite ` appartient
à I et est un point fixe de f .
Démonstration : L’intervalle I est défini avec des inégalités larges donc, en passant à la limite, ` ∈ I. On peut
donc utiliser la continuité de f en `. On a donc
Or la suite ( f (un )) est la suite (un+1 ) qui converge aussi vers `. Par unicité de la limite, on obtient f (`) = `.
Remarques :
1. C’est un résultat important pour déterminer la limite d’une suite mais il faut démontrer au préalable que
la suite converge.
2. Ce n’est pas à proprement parlé un résultat du programme. Il faut donc le redémontrer à chaque fois.
240
2.2 Utilisation des accroissements finis
√
On veut étudier la suite définie par u0 > −2 et ∀n ∈ N, un+1 = 2 + un .
√
— On commence par remarquer que [−2, +∞[ est stable par f : x 7→ 2 + x donc la suite est définie.
√
— La fonction f étant continue, si (un ) converge ce sera vers une solution de 2 + x = x ⇐⇒ x = 2. On va
donc essayer de montrer que |un − 2| tend vers 0 en la majorant par une suite géométrique.
— Pour cela il faut se restreindre à un intervalle où la dérivée de f est strictement inférieure à 1. On voit
1 1
que f 0 ( x ) = √ . En particulier si x > 0 alors | f 0 ( x )| 6 a = √ < 1. Maintenant u1 > 0 et
2 x+2 2 2
∀n ∈ N, un > 0. On peut donc appliquer le théorème de l’inégalité des accroissements finis : pour tout
entier n > 1,
|un+1 − 2| = | f (un ) − f (2)| 6 a|un − 2|.
On en déduit par une récurrence immédiate que
Comme | a| 6 1, la suite de droite tend vers 0 donc celle de gauche aussi et (un ) tend 2. On a même une
majoration de la vitesse de convergence. Si on veut que |u2 − 2| 6 10− N il suffit de prendre n tel que
− N ln(10) − ln(2)
an−1 × 1 6 10− N ⇐⇒ (n − 1) > on a ln( a) < 0.
ln a
Remarque : L’argument clé est que la dérivée de f est strictement inférieure à 1 en valeur absolue au voisinage
du point fixe. Dans ce cas la fonction f est k-lipschitzienne avec |k| < 1. On dit alors que f est contractante.
Proposition [Link]
Soit (un ) une suite définie par u0 ∈ X et un+1 = f (un ) où X est stable par f est f est croissante sur
X. La suite (un ) est monotone. Pour connaitre son sens de variations il suffit de calculer u1 − u0 .
u0 u1 u2
u3 u2 u1 u0
241
On cherche les points fixes de la fonction f . Soit x ∈ R+ ,
2 x2
f (x) = x ⇔ + =x
3 3
⇔ 2 − 3x + x2 = 0
⇔ x = 1 ou x = 2.
On distingue alors les cas suivant les valeurs de u0 .
On peut remarquer tout de suite que si u0 = 1 ou si u0 = 2 alors la suite est constante. Elle converge donc
vers sa valeur.
Si u0 ∈ [0, 1[
1. On localise les termes de la suite. L’intervalle [0, 1[ est stable, donc par récurrence, ∀n ∈ N, un ∈ [0, 1[.
2. On sait que (un ) est monotone et u1 > u0 car u1 − u0 = f (u0 ) − u0 et f : x 7→ f ( x ) − x est positive
sur [0, 1[. Donc (un ) est croissante. On peut ici, éviter la récurrence en disant que pour tout entier,
un+1 − un = f (un ) − un > 0.
3. On étudie la convergence. On a vu que la suite (un ) est croissante et majorée (car tous les termes de la
suite sont inférieurs à 1). La suite (un ) est donc convergente. Notons ` sa limite. D’après la proposition
ci-dessus, ` est un point fixe de f . On en déduit que ` = 1 ou ` = 2. Or comme tous les termes de la suite
sont inférieurs à 1, la limite ` aussi. On a donc
lim(un ) = 1.
Si u0 ∈]1, 2[
La suite (un ) est décroissante donc pour tout entier n, un 6 u0 < 2. On en déduit que ` 6 u0 < 2. Donc
lim(un ) = 1.
Si u0 ∈]2, +∞[
lim(un ) = +∞.
242
Premier exemple
On considère la suite définie par u0 = 0 et ∀n ∈ N, un+1 = cos(un ). On pose f : x 7→ cos( x ) et on remarque
que l’intervalle I = [0, 1] est stable par f . De ce fait la suite est bien définie et ∀n ∈ N, un ∈ [0, 1].
On peut appliquer le théorème de la bijection à g : x 7→ f ( x ) − x pour monter qu’il existe un unique point
fixe de f que nous noterons α et qui vérifie, α = cos(α). Si la suite (un ) converge cela ne peut-être que vers α.
Maintenant, comme f est décroissante sur [0, 1], on en déduit que f ◦ f est croissante sur [0, 1]. De ce fait les
suites extraites (vn ) = (u2n ) et (wn ) = (u2n+1 ) sont monotone car ∀n ∈ N, vn+1 = ( f ◦ f )(vn ) et de même pour
(wn ). On en déduit que les (vn ) et (wn ) sont convergentes car monotone est bornée.
Cependant, on voit que α est un point fixe de f ◦ f mais il se pourrait qu’il y en ait d’autre (ce n’est pas le
cas). Il n’est donc pas évident de montrer que (vn ) et (wn ) convergent vers α.
Le plus simple est d’alors de retourner aux accroissements finis. En effet sur [0, 1], la fonction f est dérivable
et | f 0 ( x )| = | sin x | 6 sin 1 < 1.
1.4
1.2
1.0
0.8
0.6
0.4
0.2
0.0
0.0 0.2 0.4 0.6 0.8 1.0 1.2 1.4
Deuxième exemple
3
On considère la suite définie par u0 = 3 et ∀n ∈ N, un+1 = f (un ) où on pose f : x 7→ . La fonction
1 + 2x2
12x
est dérivable sur R de dérivée, f 0 : x 7→ − . En particulier, elle est strictement décroissante sur R+ et
(1 + 2x2 )2
comme f (0) = 3 on en déduit que I = [0, 3] est stable par f . La suite (un ) est bien définie et ∀n ∈ N, un ∈ [0, 3].
Là encore, la fonction f n’a qu’un point fixe dans I qui est 1. On remarque cette fois que, contrairement au cas
12 4
précédent, | f 0 (1)| = = > 1. On ne peut donc par utiliser un argument de type accroissements finis.
9 3
Là encore, on peut introduire les suites extraites (vn ) = (u2n ) et (wn ) = (u2n+1 ). Elles sont monotones. Si on
calcule les premiers termes on trouve.
3 1083 430923
u0 = 3 ; u1 = ' 0, 16 ; u2 = ' 2.86 < u0 ; u3 = ' 0, 17 > u1 .
19 379 2489419
En particulier, on en déduit que (vn ) est décroissante et (wn ) est croissante. On pourrait penser que les suites
(vn ) et (wn ) sont adjacentes et que de ce fait (un ) converge mais ce n’est pas le cas.
3.0
2.5
2.0
1.5
1.0
0.5
3 + 12x2 + 12x4
Si on étudie la fonction f ◦ f : x 7→ . On peut voir (avec Mathematica) qu’elle admet
√ √ 19 + 4x2 + 4x4
3− 7 3+ 7
α= ' 0, 177 et β ' 2, 823 comme point fixe en plus de 1. De ce fait, (vn ) tend vers β et (un )
2 2
tend vers α et donc (un ) diverge.
243
3.5
3.0
2.5
2.0
1.5
1.0
0.5
3 Méthode de Newton
La méthode de Newton est abordée dans le cours d’IPT La convergence est quadratique.
244
Corps des fractions
17
1 Généralités 245
1.1 Corps des fractions d’un anneau intègre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
1.2 Le corps K( X ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
1.3 Degré . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
1.4 Pôles et zéros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
1.5 Fonction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
1.6 Dérivation (HP ?) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
1.7 Composition par un polynôme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
2 Décomposition en éléments simples 251
2.1 Partie entière d’une fraction rationnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
2.2 Partie polaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
2.3 Décomposition en éléments simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
2.4 Méthodes de calcul . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
2.5 Décomposition en éléments simple dans R( X ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
1 Généralités
P
On va vouloir définir les fractions rationnelles qui sont des quotients où P et Q sont des polynômes avec
Q
Q non nul à l’image de ce que l’on fait pour passer de Z à Q. Nous allons d’abord le faire dans un cas général.
Définition [Link]
∀( a, b) ∈ A2 , ab = 0 ⇒ a = 0 ou b = 0.
245
Exemple : Les anneaux Z et K[ X ] sont intègres.
Soit A un anneau intègre on considère l’ensemble C = A × ( A \ {0}) = {( a, b) ∈ A2 | b 6= 0}.
L’ensemble C n’est pas celui que l’on veut car, si on revient sur l’exemple des rationnels, on veut que les
1 2
couples (1, 2) et (2, 4) soient « les mêmes » car c’est juste = .
2 4
Définition [Link]
Soient ( a, b) et (c, d) deux éléments de C. On dit qu’ils sont équivalents et on note ( a, b) ∼ (c, d) si ad = bc.
Proposition [Link]
Définition [Link]
On note Frac( A) l’ensemble des classes d’équivalences de la relation ∼ sur C. Soit x un élément de Frac( A).
On appelle représentant de x tout couple ( a, b) de C qui appartient à x. La classe d’un élément ( a, b) se note
a
.
b
Remarque : De fait l’ensemble Frac( A) est un ensemble de parties de C. Mais il ne faut surtout pas se l’imaginer
ainsi. Il faut voir ses éléments comme des couples ( a, b) où a est dans A et b est non nul. Cependant, on identifie
deux couples ( a, b) et (c, d) qui vérifient ad = cb car de fait « cela donne la même fractions ». Il faut quand
même faire la différence entre une fraction et son représentant.
Proposition [Link]
+: A) × Frac
Frac( ( A) → Frac( A) ×: A) × Frac
Frac( ( A) → Frac( A)
a a0 ab0 + a0 b et a a0 aa0 .
, 7→ , 7→
b b0 bb0 b b0 bb0
ATTENTION
Il faut comprendre qu’il y a quelque chose à démontrer. En effet, il faut vérifier que si on choisit
différents représentants pour les fractions de départs on obtiendra un élément différent de C mais
qui sera toujours un représentant de la même fraction à la fin.
Démonstration : Par symétrie, il suffit de montrer que si ( a, b) ∼ (α, β) alors ( ab0 + a0 b, bb0 ) ∼ (αb0 + a0 β, b0 β)
ce qui ce vérifie par le calcul. De même, si ( a, b) ∼ (α, β) alors ( aa0 , bb0 ) ∼ (αa0 , b0 β).
246
Théorème [Link]
a
Avec les notations précédentes, ( Frac( A), +, ×) est un corps. En particulier, si est un élément non
b
b
nul de Frac( A) alors a 6= 0 et son inverse et .
a
De plus il existe une application injective de A dans Frac( A) compatible aux opérations (morphisme
d’anneaux)
ι : A → Frac( A)
a .
a 7→
1
1.2 Le corps K( X )
Définition [Link]
Le corps des fractions de l’anneau K[ X ] s’appelle corps des fractions rationnelles sur K. Il se note K( X ). Pour
P
toute fraction rationnelle F il existe un représentant ( P, Q) ∈ (K[ X ])2 avec Q 6= 0 tel que F = .
Q
Remarques :
1. Il suffit de remarquer que K[ X ] est un anneau intègre (donc commutatif).
2. Si ( P, Q) est un représentant d’une fraction rationnelle, les couples ( PR, QR) où R est un polynôme non
nul représente la même fraction rationnelle.
Exemples :
1 + 3X − X 2 X + 3X 2 − X 3
1. Le terme est une fraction rationnelle qui est égale à
3 − 2X 3X − 2X 2
P
2. Tout polynôme P peut être vu comme la fraction rationnelle via l’injection ι.
1
0 0
3. On appelle fraction rationnelle nulle la fraction rationnelle qui est égale à pour tout Q non nul.
1 Q
1 P
4. On appelle fraction rationnelle unité la fraction rationnelle qui est égale à pour tout P non nul.
1 P
Définition [Link]
P1 P P Q + P2 Q1
+ 2 = 1 2 .
Q1 Q2 Q1 Q2
P1 P2
2. Soit et deux fractions rationnelles, on pose
Q1 Q2
P1 P PP
× 2 = 1 2 .
Q1 Q2 Q1 Q2
Remarque : C’est la construction précédente. Il faut juste remarquer que si on change le représentant d’une
fraction rationnelle, on ne change pas le résultat (mais on trouve peut-être un autre représentant de la même
fraction).
247
Définition [Link]
Remarque : C’est l’équivalent de la notion de fraction irréductible dans Q. Là on a de plus besoin de la notion
de représentant unitaire car les éléments inversibles de K[ X ] sont les constantes et pas juste {±1}.
Proposition [Link]
Démonstration :
P
— Existence : Notons un représentant de la fraction. On sait qu’il existe P1 et Q1 premiers entre eux tels
Q
que
P = ( P ∧ Q) P1 et Q = ( P ∧ Q) Q1 .
De plus si on note a le coefficient dominant de Q1 . On a alors
P P P/a
= 1 =
Q Q1 Q/a
et Q/a est unitaire.
P P
— Unicité : Soit = 1 deux représentants unitaires irréductibles d’une même fraction. On a donc
Q Q1
PQ1 = QP1 . Or Q| QP1 dont Q| PQ1 mais comme Q est premier avec P alors Q| Q1 . Par symétrie, Q1 | Q.
On en déduit qu’il existe λ dans K tel que Q1 = λQ comme ils sont unitaires, Q = Q1 et par suite, P = P1 .
Exemples :
1 2
X3 − 1 ( X + X + 1)
1. Soit F = . Son représentant irréductible unitaire est 2 .
2X 4 − 2 X3 + X2 + X1 + 1
0
2. Le représentant irréductible unitaire de la fraction nulle est .
1
1.3 Degré
Proposition [Link]
P1 P2
Soit F une fraction rationnelle et et deux représentants de F. On a
Q1 Q2
Remarque : Les grandeurs deg P1 − deg Q1 et deg P2 − deg Q2 sont bien définies car Q1 et Q2 n’étant pas nuls
on n’a pas de « forme indeterminée ». Cette égalité est dans Z ∪ {−∞}.
Démonstration : On a P1 Q2 = P2 Q1 . De ce fait, deg P1 + deg Q2 = deg P2 + deg Q1 et donc deg P1 − deg Q1 =
deg P2 − deg Q2 .
Proposition [Link]
P
Soit F un fraction rationnelle, on appelle degré de F et on note deg F le terme deg P − deg Q où
Q
est un représentant de F. En particulier deg F ∈ Z ∪ {−∞}.
248
Exemples :
P
1. Si P est un polynôme alors la fraction rationnelle a pour degré le degré de P. En particulier, deg F =
1
−∞ ⇐⇒ F = 0.
2X − 1
2. Le degré de est 0.
X−6
Proposition [Link]
Démonstration :
P1 P2
1. Si on choisit des représentants, F1 = et F2 = . On a alors
Q1 Q2
P1 P2
F1 F2 = .
Q1 Q2
D’où
2. On a aussi
P1 Q2 + P2 Q1
F1 + F2 = .
Q1 Q2
D’où
deg( F1 F2 ) = deg( P1 Q2 + P2 Q1 ) − deg( Q1 ) − deg( Q2 ) 6 Max(deg P1 − deg Q1 , deg P2 − deg Q2 ) = Max(deg F1 , deg F
P
Soit F une fraction rationnelle et un représentant irréductible.
Q
1. On appelle zéro (ou racine) de F toute racine de P.
2. On appelle pole de F toute racine de Q.
3. Si F 6= 0. On appelle ordre de multiplicité du zéro (ou du pole) a son ordre de multiplicité en tant que
racine de P (ou de Q).
Remarques :
1. Il est essentiel de prendre un représentant irréductible. En effet on a par exemple
X3 − 1 X2 + X + 1
F= = .
X4 − 1 X3 + X2 + X + 1
On voit que 1 est racine de X 3 − 1 et de X 4 − 1. Par contre les zéros de F sont j et j2 . Ses pôles sont −1, i et
−i.
2. Soit F une fraction rationnelle et a un élément de K, il ne peut pas être un zéro et un pole de F car sinon
P
X − a divise P et Q où est un représentant irréductible de F.
Q
3. Dans C, le degré de F est le nombre de zéros (comptés avec multiplicité) moins de nombre de pôles
(comptés avec multiplicité).
249
1.5 Fonction rationnelle
De même que l’on peut associer une fonction polynomiale à un polynôme, on peut associer une fonction
rationnelle à un fraction rationnelle.
Définition [Link]
P
Soit F une fraction rationnelle et un représentant irréductible. Si on note Z l’ensemble des pôles de A. On
Q
appelle fonction rationnelle associée à F la fonction
F: K\Z → K
P( x )
x 7→ .
Q( x )
Remarques :
1. Là encore, il faut prendre un représentant irréductible pour ne pas avoir une forme indéterminée du type
0
.
0
2. L’application qui associe à une fraction rationnelle sa fonction rationnelle est compatible à la somme et au
produit en prolongeant éventuellement les fonctions par continuité sur les pôles qui ont disparus. Par
exemple si
1 −X
F1 = 2 et F2 = 2
X −1 X −1
1−X 1
La fraction F1 + F2 = 2 =− .
X −1 X+1
P
Soit F une fraction rationnelle et F = un représentant. On appelle dérivée de F et on note F 0 la fraction
Q
P0 Q − PQ0
rationnelle dont un représentant est .
Q2
Remarques :
1. Là encore, il faut vérifier que si on change de représentant de F on obtient un représentant de la même
fraction.
2. Cette dérivation est compatible avec la dérivation des fonctions rationnelles.
3. L’ensemble des pôles de F 0 est inclus dans l’ensemble des pôles de F.
X3 − 1 − X 6 + 4X 3 − 3X 2
Exemple : Si on prend F = 4
. Alors F 0 = .
X −1 ( X 4 − 1)2
Soit F une fraction rationnelle et R polynôme non constant. On note F ( R) la fraction dont un représentant est
P◦R P
où est un représentant de F.
Q◦R Q
Remarques :
1. Pour justifier cette définition il faut vérifier que si on prend un autre représentant de F alors on obtient un
autre représentant de la même fraction.
250
2. Dans la pratique on ne l’utilise que pour R un polynôme de degré 1.
3. Cela justifie la notation F ( X ) pour F.
Définition [Link]
Soit F une fraction rationnelle, elle est dite paire (reps. impaire) si F (− X ) = F ( X ) (resp. F (− X ) = F ( X )).
X4 − 1 1
Exemple : La fraction 3
est impaire alors que 2 est paire.
X −X X
E+F
Démonstration :
— Unicité : Si E1 + F1 = E2 + F2 où E1 et E2 sont des polynômes et F1 , F2 des fractions rationnelles de degré
strictement négatif.
On a alors E1 − E2 = F2 − F1 où E1 − E2 est un polynôme et F2 − F1 est une fraction rationnelle de degré
inférieur à Max(deg F1 , deg F2 ) < 0. On en déduit que deg( E1 − E2 ) < 0 donc E1 = E2 et F1 = F2 .
P
— Existence : Si on choisit un représentant F = . On peut faire la division euclidienne de P par Q. On a
Q
P = QS + R. On a alors
QS + R R
F= = S+ .
Q Q
R
On a S qui est un polynôme et deg R < deg Q donc deg < 0.
Q
Définition [Link]
Proposition [Link]
Exemples :
1. Si P est un polynôme vu comme une fraction rationnelle. Il est égale à sa partie entière.
1
2. Si P est un polynôme non constant, la partie entière de est nulle.
P
251
X4 − 1
3. Si F = . On voit que deg F = 1 donc la partie entière de F n’est pas nulle et elle est de degré 1. On
X3 − 1
voit que X 4 − 1 = X ( X 3 − 1) + ( X − 1) donc
X−1 1
F= X+ = X+ 2 .
X3 − 1 X +X+1
Proposition [Link]
1. La partie entière d’une somme de deux fractions rationnelles est la somme des parties entières.
2. La partie entière d’une fraction paire (resp impaire) est paire (resp. impaire)
Soit F une fraction rationnelle et a un pole de F d’ordre n > 1. Il existe un unique n-uplet d’éléments
de K ( ak )16k6n tel que
ak
F = F0 + ∑
16k6n ( X − a)k
ak
où F0 est une fraction rationnelle n’ayant pas a pour pôle. L’expression ∑ ( X − a)k
s’appelle la
16 k 6 n
partie polaire en a de F.
Démonstration :
ak bk
— Unicité : Si F0 + ∑ k
= F1 + ∑ k
où F0 et F1 n’ont pas de poles en a. On suppose
16k6n ( X − a ) 16 k 6 n ( X − a )
par l’absurde que ( ak )16k6n 6= (bk )16k6n . On note p = Max{k ∈ [[ 1 ; n ]] | ak 6= bk on a donc
p
bk − a k
F0 − F1 = ∑ k
.
k =1 ( X − a )
Le terme de droite admet un pole d’ordre 1 en a alors que le terme de gauche n’a pas de pole en a. C’est
donc absurde. On en déduit que ( ak ) = (bk ) et donc F0 = F1 .
P
— Existence : On considère un représentant irréductible F = et on note Q = ( X − a)n R où R est premier
Q
avec ( X − a). D’après le théorème de Bézout, il existe U, V tels que 1 = U ( X − a)n + VR. On en déduit
que
PU ( X − a)n + PVR PU PV
F= = + .
( X − a)n R R ( X − a)n
n −1
Si utilise la formule de Taylor en a pour le polynome PV = ∑ ak (X − a)k + T où T est divisible par
k =0
( X − a)n . On en déduit que
PU T n −1
ak n a0k
F= + + ∑
( X − a ) n k =0 ( X − a ) n − k
= F0 + ∑ k
k =1 ( X − a )
R
252
Exemple : Nous verrons plus loin de nombreuses méthodes pour déterminer les parties polaires d’une fraction
X4 − 1 X3 + X2 + X + 1
rationnelle. Si F = 3 = . On sait que les pôles (simples) de F sont j et j = j2 . En
X −1 X2 + X + 1
a
particulier, F = F0 + . Pour déterminer a, il suffit de multiplier F par X − j et d’évaluer en j. On a en effet
X−j
X3 + X2 + X + 1
= F0 ( X − j) + a.
X − j2
Donc
j3 + j2 + j + 1 j2
a= = .
j − j2 1−j
Remarque : Avec les notations précédentes, F0 a les mêmes pôles (et de même ordre) que F si on enlève a.
Théorème [Link]
Soit F une fraction rationnelle dans C( X ). La fraction est la somme de sa partie entière et de toutes
ses parties polaires. C’est-à-dire que si on note x1 , . . . , xn les pôles de F et que l’on note r1 , . . . , rn les
ordres alors F s’écrit de manière unique sous la forme
n rk
a
F = E+ ∑ ∑ (X −kix i
k =1 i =1 k)
où E est un polynôme.
n rk rk
aki a
On voit que E est la partie entière car deg ∑ ∑ ( X − x )i < 0. De même, si on écrit Fj = E + ∑ ∑ (X −kix )i
k =1 i =1 k k 6 = j i =1 k
de sorte que
rj
a ji
F = Fj + ∑ .
i =1 ( X − x j )i
rj
a ji
Alors Fj n’admet pas de pôle en x j et de ce fait ∑ ( X − x )i est la partie polaire de F.
i =1 j
— Existence : Il suffit de procéder par récurrence sur le nombre de pôle et remarquant que, sur C, une
fraction rationnelle sans pôle est un polynôme (ce qui est faut si K = R).
n
Exemple : Soit P un polynôme. On note P = λ ∏ ( X − ak )rk sa factorisation sur C. On a alors
k =1
n
P 0 = λ ∑ r j ( X − a j ) r j −1 ∏ ( X − a k ) r k .
j =1 k6= j
Dès lors
P0 n rj
P
= ∑ X − aj .
j =1
Exercice :
253
1. Soit P un polynôme scindé sur R. Montrer que les racines de P0 sont des barycentres à coefficients positifs
des racines de P. On pourra montrer que les racines de P0 sont toutes entre deux racines de P en utilisant
le théorème de Rolle.
2. Soit P un polynôme sur C (donc scindé). Montrer que les racines de P0 sont des barycentres à coefficients
positifs des racines de P. Interprétation géométrique.
Substitution
On peut toujours substituer autant de valeurs que le nombre de coefficients inconnus dans la décomposition
en éléments simples. Cela donne un système linéaire. Cette méthode est à n’utiliser que s’il n’y a qu’un ou deux
coefficients à déterminer.
254
On a donc
λ2 = G ( a ).
De plus si on dérive on obtient :
G 0 = 2( X − a) F0 + ( X − a)2 F00 + λ1
et donc
λ1 = G 0 ( a ).
X 3 + 2X 2 − X + 6
Exemple : Soit F = . La encore, on trouve que la partie principale est 1. On déterminer les
( X − 1)2 ( X − 2)
parties polaires en 1 et en 2 avec les méthodes précédentes et on trouve :
−14 −8 20
F = 1+ + + .
X − 1 ( X − 1)2 X−2
Parité
Si F est une fraction rationnelle paire ou impaire et si a est un pole d’ordre n alors − a est aussi un pole
d’ordre n. Cela permet de simplifier certain calculs. Par exemple si
1 a b c d
F= = + + + .
( X 2 − 1)2 X − 1 ( X − 1)2 X + 1 ( X + 1)2
a = −c et b = d
1 = −a + b + c + d
Fraction réelle
Si F est une fraction rationnelle réelle et si a est un pôle d’ordre n alors a est aussi un pôle d’ordre n et de
plus sa partie polaire est obtenue en conjuguant les coefficients de la partie polaire de a. Il suffit de conjuguer la
relation
n
λk
F = F0 + ∑ k
k =1 ( X − a )
7X 2 − 8X + 4 a1 a2 a3
F = 3+ 3
= 3+ + 2
+ .
( X − 1) X − 1 ( X − 1) ( X − 1)3
X (7X 2 − 8X + 4) a X a2 X a3 X
Alors 3
= 1 + 2
+ . En faisant tendre x vers +∞ on récupère, 7 = a1 .
( X − 1) X − 1 ( X − 1) ( X − 1)3
De plus, en multipliant par ( X − 1)3 on a a3 = 3. Pour finir en prenant X = 0 on a −4 = − a1 + a2 − a3 et
donc a2 = 6. Finalement,
7X 2 − 8X + 4 7 6 3
F = 3+ 3
= 3+ + 2
+ .
( X − 1) X − 1 ( X − 1) ( X − 1)3
255
2.5 Décomposition en éléments simple dans R( X )
Pour certains calculs, il se peut que l’on ne veuille que travailler dans R( X ). On a, là encore un théorème de
décomposition en éléments simples. La difficultés est que le dénominateur n’est pas toujours scindé
Théorème [Link]
alors
n rk λkj m sk µij X + γij
F = E+ ∑ ∑ (X − a )j
+∑ ∑ (X2 − α X + β ) j .
k =1 i =1 k i =1 i =1 i i
où E est un polynôme.
Démonstration : Il « suffit » de faire la décomposition dans C( X ) puis de regroupe même si cela n’est pas si
simple que cela.
Pour déterminer la décomposition le plus simple n’est pas toujours (et même rarement) de revenir sur C. On
essaye plutôt d’appliquer les méthodes directement. Voyons sur des des exemples
Exemples :
1. Soit
X+1 X+1 aX + b cX + d
F= = 2 2
= 2 + 2 .
X4 2
+X +1 ( X + X + 1)( X − X + 1) X +X+1 X −X+1
j+1 − j2 j
= = .
j2 −j+1 −2j 2
X+1 ( aX + b)( X 2 − X + 1)
= cX + d + .
X2 + X + 1 X2 + X + 1
α+1
On évalue en α = eiπ/3 et on trouve = cα + d.
+α+1α2
Or α2 + α + 1 = 2α et α + 1 = −α2 + 2α. On en déduit que cα + d = (−1/2)α + 1. En conclusion
256
Développements
18
limités et analyse
asymptotique
1 Introduction 257
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
1.2 Rappel sur les notation de Landau . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2 Développements limités 258
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
2.2 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
2.3 Calculs de développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
2.4 Opérations sur les développements limités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262
3 Applications des développements limités 265
3.1 Développements limités et équivalents . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
3.2 Détermination de limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
3.3 Étude locale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
3.4 Développements asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
1 Introduction
1.1 Introduction
Le but du développement limité est de donner une approximation d’une fonction au voisinage d’un point.
Regardons la fonction exponentielle x 7→ e x au voisinage de x = 0.
— A l’ordre 0 : on a e x ' 1. On peut écrire
e x = 1 + ε( x ) et lim ε( x ) = 0.
x →0
257
ex − 1
Or lim = 1 donc le terme entre parenthèses tend vers 0 d’où :
x →0 x
e x = 1 + x + x.ε( x ) et lim ε( x ) = 0.
x →0
Le problème est que cette approximation pourra ne pas être suffisante car on ne sait rien sur ε( x ) à part le fait
qu’il tende vers 0. Si on veut calculer par exemple :
ex − 1 − x
lim .
x →0 x2
Il faudra aller plus loin pour écrire, par exemple,
Remarque : On peut penser au développement limité comme à l’approximation décimale. En effet, on a pour π
valeurs précision
3 1
3, 1 10−1
3, 14 10−2
3, 142 10−3
valeurs précision
1 o (1)
1+x o (x)
1+x+ x2 /2 o x2
Soit I un intervalle, f une fonction définie sur I et a ∈ I. Tout fonction de la forme ( x 7→ f ( x ).ε( x )) où ε est
une fonction tendant vers 0 quand x tend vers a sera noté o ( f ).
2 Développements limités
2.1 Définition
Définition [Link]
Soit I in intervalle, a un point de I qui n’est pas une borne. Soit n ∈ N et f une fonction définie sur I. On dit
que f admet un développement limité à l’ordre n en a et on note f ∈ DLn,a s’il existe ( a0 , a1 , . . . , an ) ∈ Rn+1
tel que
∀ x ∈ I, f ( x ) = a0 + a1 .( x − a) + · · · + an ( x − a)n + o (( x − a)n ).
En particulier pour a = 0, f admet un développement limité à l’ordre n en 0 s’il existe ( a0 , a1 , . . . , an ) ∈ Rn+1
tel que
∀ x ∈ I, f ( x ) = a0 + a1 .x + · · · + an x n + o ( x n ).
258
Exemple : On a montré dans l’introduction que la fonction exponentielle admettait un développement limité à
l’ordre 1 en 0 :
e x = 1 + x + o ( x ).
Remarques :
1. On peut reformuler cette définition en écrivant :
2. On fera attention au fait que le développement limité ne donne que des informations locales.
3. On peut définir aussi la notion de développement asymptotique de la même manière en considérant des
fonctions ( f i )i∈N telles que
∀i ∈ N, f i+1 = o ( f i ) .
a
Soit I in intervalle, a un point de I qui n’est pas une borne. Soit n ∈ N et f une fonction définie sur I admettant
un développement limité à l’ordre n en a. On appelle, si elle existe, forme normalisée du développement limité
l’écriture :
f ( a + h ) = h p α0 + α1 h + · · · + α n − p h n − p + o h n − p où α0 6= 0.
h →0
Proposition [Link]
2.2 Généralités
Proposition [Link] (Unicité)
Avec les notations précédentes, si f admet un développement limité en a à l’ordre n il est unique.
Démonstration
Soit I un intervalle, a un point de I qui n’est pas une borne. Soit n ∈ N et f une fonction n fois
dérivable sur I. Alors pour tout x dans I
f (n) ( a )
f ( x ) = f ( a) + f 0 ( a)( x − a) + · · · + ( x − a)n + o (( x − a)n ).
n!
Remarques :
1. Cette formule ne donne des informations qu’au voisinage de a.
2. Ce théorème sera démontré plus tard comme conséquence de la formule de Taylor avec reste intégral (on
supposera que f est de classe C n+1 ).
Démonstration
259
Corollaire [Link]
Étudions la réciproque :
Proposition [Link]
Soit I un intervalle, f une fonction définie sur I et a un point de I qui n’est pas une borne.
— Si f ∈ DL0,a alors f est continue en a.
— Si f ∈ DL1,a alors f est dérivable en a.
— Une fonction peut admettre des développements limités d’ordre supérieur sans être deux fois
dérivable.
Démonstration :
— OK
— OK
— Le problème est que l’on ne peut pas dériver un développement limité car une fonction peut être "très
petite" et avoir une dérivée "très grande". Par exemple
4 1
x 7→ x sin .
x6
260
Théorème [Link] (A SAVOIR)
— La fonction x 7→ e x est de classe C ∞ elle admet des développement à tout ordre en 0 et, pour
tout n ∈ N :
x2 xn
∀ x ∈ R, e x = 1 + x + +···+ + o ( x n ).
2! n!
— Les fonctions x 7→ ch x et x 7→ sh x sont de classe C ∞ elles admettent des développement à
tout ordre en 0 et, pour tout n ∈ N :
x2 x2n
∀ x ∈ R, ch x = 1 + +···+ + o ( x2n+1 ).
2! 2n!
x3 x2n+1
∀ x ∈ R, sh x = x + +···+ + o ( x2n+2 ).
3! (2n + 1)!
— Les fonctions x 7→ cos x et x 7→ sin x sont de classe C ∞ elles admettent des développement à
tout ordre en 0 et, pour tout n ∈ N :
x2 x2n
∀ x ∈ R, cos x = 1 − + · · · + (−1)n + o ( x2n+1 ).
2! 2n!
x3 x2n+1
∀ x ∈ R, sin x = x − + · · · + (−1)n + o ( x2n+2 ).
3! (2n + 1)!
— La fonction x 7→ ln(1 + x ) est de classe C ∞ elle admet des développement à tout ordre en 0 et,
pour tout n ∈ N :
x2 xn
∀ x > −1, ln(1 + x ) = x − + · · · + (−1)n+1 + o ( x n ).
2 n
α ( α − 1) x 2 α ( α − 1) · · · ( α − n + 1) x n
∀ x > −1, (1 + x )α = 1 + αx + +···+ + o ( x n ).
2! n!
Remarques :
1. Les formules de cos et sin se retrouve à partir du développement de e x avec
2. Les DLs de cosinus et sinus n’ont que des termes paires ou impairs, c’est pour cela que l’on les donne à
l’ordre 2n ou 2n + 1. Mais si on fait n = 5 dans la formule du DL de cosinus, on trouver le DL à l’ordre 10
(et même 11). Si on veut le DL à l’ordre 5, on prend n = 2 et on trouve :
x2 x4
cos x = 1 − + + o ( x 4 ).
2 24
3. Il n’y a pas de factorielles dans le développement de ln(1 + x )
4. Cas particulier à savoir pour (1 + x )α
— α = −1 : on a
1 1
= (1 + x )−1 = 1 − x + x2 + · · · + (−1)n x n + o ( x n ) et = (1 − x ) −1 = 1 + x + x 2 + · · · + x n + o ( x n ).
1+x 1−x
— α = 1/2 :
√ 1 x2
1 + x = (1 + x )1/2 = 1 + x − + o ( x2 )
2 8
— α = −1/2 :
1 1 3x2
√ = (1 + x )−1/2 = 1 − x + + o ( x2 )
1+x 2 8
261
5. Attention que l’on ne donne ci-dessus que des développements limités en 0. Essayons par exemple de
calculer le développement limité de x 7→ e x en 2 à l’ordre 2. On pose x = 2 + h (ou h = x − 2). Dès lors on
a:
ex = e 2+ h
= e2 .eh
h2 h3
= e2 (1 + h + + ) + o ( h3 )
2 6
( x − 2)2 ( x − 2)3
= e2 (1 + ( x − 2) + + + o (( x − 2)3 ).
2 6
Somme
Proposition [Link]
Soit n un entier. Soit f et g deux éléments de DLn,a . Alors la fonction f + g est un élément de DLn,a .
De plus, si les développements limités de f et g sont donnés par les polynômes P et Q alors :
Remarque : la proposition ci-dessus dit que le développement limité d’une somme est la somme des dévelop-
pements limités.
Exemple : Regardons au voisinage de 0 la fonction définie sur ] − 1, +∞[ par x 7→ sin( x ) − ln(1 + x ). On ne
peut pas utiliser des équivalents, en effet sin x ∼ x et ln(1 + x ) ∼ x mais on n’a pas sin x − ln(1 + x ) ∼ 0. Nous
allons faire des développements à l’ordre 1 (ce qui revient à des équivalents). On a
sin x = x + o ( x ) et ln(1 + x ) = x + o ( x ).
On en déduit que
sin x − ln(1 + x ) = o ( x ).
Maintenant, si on veut un équivalent de sin x − ln(1 + x ) on fait des développements à l’ordre 2 :
x2
sin x = x + o ( x2 ) et ln(1 + x ) = x − + o ( x 2 ).
2
On en déduit que
x2 x2
+ o ( x2 ) d’où sin x − ln(1 + x ) ∼ .
sin x − ln(1 + x ) =
2 2
Exercice : Déterminer le développement limité à l’ordre 3 de sin x en π/4.
Produit
Exemple : Essayons de déterminer un développement limité à l’ordre 3 en 0 de la fonction x 7→ e x . sin x. On a
pour tout x réel :
x x2 x3 x3
ex = 1 + x + + + o ( x3 ) et sin x = x − + o ( x 3 ).
+ 2 6 6
Comme ce qui précède sont des vraies égalités ont peut faire le produit et on a :
x2 x3 x3
e x . sin x = 1+x+ + + o ( x3 ) . sin x = x − + o ( x3 )
2 6 6
= Faire le calcul explicite
x3
= x − x2 + + o ( x3 )
3
262
Proposition [Link]
Soit n un entier. Soit f et g deux éléments de DLn,a . Alors la fonction f × g est un élément de DLn,a .
De plus, si les développements limités de f et g sont donnés par les polynômes P et Q alors :
Remarque : la proposition signifie que pour obtenir le développement limité d’un produit de fonctions, on fait
le produit des développements limités des fonctions considérées et on tronque à l’ordre désiré.
Exercice : calculer le développement limité de x 7→ sin x. cos x à l’ordre 4 en 0.
ATTENTION
et
f 2 ( a + h ) = h p2 α 0 + α 1 h + · · · + α n2 − p2 h n2 − p2 + o h n2 − p2
h →0
Composition
Commençons par un lemme.
Lemme [Link]
263
Proposition [Link]
Soit n un entier. Soit f un élément de DLn,a et g un élément de DLn,b où b = f ( a). Alors la fonction
g ◦ f est un élément de DLn,a . De plus, si les développements limités de f et g sont donnés par les
polynômes P et Q alors :
∀ x ∈ I, ( g ◦ f )( x ) = Tn ( Q ◦ P)( x − a) + o (( x − a)n ),
ATTENTION
Corollaire [Link]
Le développement limité d’une fonction paire (resp. impaire) en 0 n’a que des termes d’exposants
pairs (resp. impairs).
1
Soit n un entier. Soit f un élément de DLn,a tel que f ( a) 6= 0 alors ∈ DLn,a .
f
1 + e x = 1 + 1 + x + x2 /2 + x3 /6 + o ( x3 ).
D’où
1
f (x) = .
2 + x + x2 /2 + x3 /6 + o ( x3 )
La méthode consiste à factoriser, de sorte à obtenir une fonction du type 1/(1 + X ) avec X tendant vers 0. Ici on
pose
1 1
f (x) = .
2 1 + x/2 + x2 /4 + x3 /12 + o ( x3 )
On fait alors le DL de 1/(1 + X ) avec X = x/2 + x2 /4 + x3 /12 + o ( x3 ).
sin x
Exemple : Calculons le DL de tan à l’ordre 3 en 0. On sait que tan x = de ce fait
cos x
3
x − x6 + o x3
tan x =
x2
1− + o ( x3 )
2
x3 3 x2
= x− +o x × 1+ + o x3
6 2
x3
= x+ + o x3
3
Il faut connaitre ce DL jusqu’à l’ordre 3, nous verrons en exercice comment calculer les ordres suivant de
manière plus efficace.
264
Intégration
Proposition [Link]
Soit f un élément de DLn,a . La fonction f est continue elle admet une primitive que l’on note F. Alors
F ∈ DLn+1,a . De plus si
∀ x ∈ I, f ( x ) = a0 + a1 ( x − a) + · · · + an ( x − a)n + o (( x − a)n )
alors
( x − a )2 ( x − a ) n +1
∀ x ∈ I, F ( x ) = F ( a) + a0 ( x − a) + a1 + · · · + an + o (( x − a)n+1 ).
2 n+1
Exemples :
1. On sait que
1
∀ x ∈ R, = 1 − x 2 + x 4 + o ( x 5 ).
1 + x2
Donc,
x3 x5
∀ x ∈ R, arctan( x ) = x − + + o ( x 6 ).
3 5
De manière générale
x3 x5 x2n+1
∀ x ∈ R, arctan( x ) = x − + + · · · + (−1)n + o ( x2n+2 ).
3 5 (2n + 1)!
−1
2. On sait que la dérivée d’arccos est x 7→ √ or,
1 − x2
1 1 3
∀ x ∈] − 1, 1[, √ = 1 − x 2 + x 4 + o ( x 5 ).
1− x2 2 4
Donc,
π x3 3x5
∀ x ∈] − 1, 1[, arccos( x ) = +x− + + o ( x 6 ).
2 6 20
Exercice : Calculer les DL de arccos à l’ordre 3 en 1/2.
Remarque : il faut faire plus attention avec la dérivation des développements limités. En effet comme on l’a vu
précédemment, une fonction peut avoir un développement limité à l’ordre n sans que sa dérivée n’ait même de
limite. Cependant, si on suppose qu’une fonction f est de classe C n+1 au voisinage d’un point a pour n ∈ N? .
Alors f admet un développement limité à l’ordre n en a de plus la dérivée g = f 0 de f est de classe C n et admet
de ce fait un développement limité à l’ordre n − 1. Maintenant, les développements limités de f et g sont donnés
par la formule de Taylor-Young or, pour tout entier 1 6 k 6 n, g(k−1) = f (k) , on en déduit que si
f ( x ) = a0 + · · · + an ( x − a)n + o (( x − a)n )
alors
an
g ( x ) = a1 + · · · + ( x − a)n−1 + o (( x − a)n−1 ).
n
265
x2
1. On cherche un équivalent à f ( x ) = sin x + cos x − 1. On disait que sin x ∼ x et que cos x − 1 ∼ − donc
2
que la fonction devait être équivalente à x et on le démontrait. Là on peut le faire simplement.
x2
f ( x ) = ( x + o ( x2 )) + − + o ( x2 ) = x + o ( x ) ∼ x.
2
2. Par contre si on regarde g( x ) = x sin x + cos x − 1, on pouvait essayer de faire de même. Les deux sont
équivalents à des termes en x2 qui ne se compensent pas. On obtient :
x2 x2
g( x ) = + o ( x2 ) ∼ .
2 2
x
3. Pour finir si on regarde h( x ) = sin x + cos x − 1, on peut essayer de faire de même. Mais là, les deux
2
sont équivalents à des termes en x2 qui se compensent. On doit vraiment faire un développement limité
afin d’obtenir le terme en x3 ou en x4 .
x2 x2
h( x ) = + o ( x3 ) − + o ( x 3 ) = o ( x 3 ).
2 2
Le terme en x3 est nul, on doit pousser plus loin de DL.
x2 x4 x2 x4 x4 x4
h( x ) = − + o ( x4 ) − + + o ( x4 ) = − + o ( x4 ) ∼ − .
2 12 2 24 24 24
Remarque : C’est vraiment dans ce dernier cas, que les DL sont essentiel. Si les termes principaux se com-
pensent, on est obligé d’aller chercher des termes « plus loin dans le DL ».
Proposition [Link]
f ( x ) = a0 + a1 ( x − a) + a2 ( x − a)2 + o (( x − a)2 ).
Alors f admet pour tangente au point d’abscisse a la droite d’équation y = a0 + a1 ( x − a). De plus, si
a2 > 0, la courbe est au-dessus de sa tangente au voisinage de a et si a2 < 0, la courbe est au-dessous
de sa tangente au voisinage de a.
Remarques :
266
1. La proposition précédente, ne donne pas d’informations dans le cas ou a2 = 0. Plus généralement si f
admet un développement limité de la forme :
f ( x ) = a0 + a1 ( x − a) + a p ( x − a) p + o (( x − a) p )
avec a p le plus petit terme non nul de degré strictement supérieur à 1.
Si p est impair, la courbe traverse sa tangente au point d’abscisse p. On sait de plus dans quel sens en
étudiant le signe de a p . Si p est pair, la courbe reste du même coté de la tangente et on a le même résultat
que si p = 2.
2. Cette méthode est souvent plus rapide qu’un calcul direct de dérivé, en particulier si la fonction f est
définie via un quotient.
Exemple : Soit f la fonction définie par x 7→ e x ln( x ). Trouver l’équation de la tangente au point x = 1 ainsi
que la position de la courbe par rapport à la tangente.
On obtient
( x − 1)2
f ( x ) = e ( x − 1) + + o (( x − 1)2 ).
2
D’où la tangente au point d’abscisse 1 est y = e( x − 1). De plus la courbe est au-dessus de sa tangente.
Un développement asymptotique en 0
√
On cherche à faire un développement de sin x en 0. On ne peut√peut-être pas faire de développement limité
√
car on sait bien que cette fonction n’est pas dérivable en 0 (on a sin x ∼ x). On va quand même pouvoir
faire un développement asymptotique. On a en effet sin x = x − x3 /6 + o x3 . De ce fait
0
√ r
sin x = x − x3 /6 + o ( x3 )
0
√ q
= x 1 − x2 /6 + o ( x2 )
√ x2
= x 1− + o x2
12 0
√ √
√ x2 x
= x− + o x2 x .
12
√
Ici on utilise l’échelle des x n x.
Un développement asymptotique en ∞
Soit f une fonction définie au voisinage de ±∞. On cherche des réels ( a0 , . . . , an ) ∈ Rn+1 tel que, pour tout
x proche de +∞ (resp. −∞),
n n
1 1 1
f ( x ) = a0 + a1 + · · · + an +o .
x x x
Remarque : cela revient à faire un développement limité de la fonction g : t 7→ f (1/t) au voisinage de 0. En
particulier, tous les théorèmes vus précédemment
√ restent
√vrais.
Exemple : On considère la fonction f : x 7→ x2 + x − x2 − x. On a au voisinage de +∞
p p √ √
x2 + x − x2 − x = x 1 + 1/x − 1 − 1/x
1 1 1
= x 1+ −1+ +o
2x 2x x
1
= + o (1).
2
267
On en déduit que
lim f ( x ) = 1/2.
x →+∞
Il faut faire attention dans ce genre de calcul, qu’il y a une multiplication par x à la fin et que cela fait
descendre de 1 l’ordre du développement
q fait. q
√ √
Exercice : Déterminer lim x x+ x+1− x+ x−1 .
x →+∞
f ( x ) = a0 x + a1 + ε( x ) avec lim ε( x ) = 0.
x →∞
1 + 1/x2 1 1 1 1
= 1+ 2 1+ + 2 +o
1 − 1/x x x x x2
1 2 1
= 1+ + 2 +o .
x x x2
On en déduit que
2 1
f (x) = x + 1 + + o .
x x
= x + 1 et la fonction est au-dessus de son asymptote.
L’asymptote est donc y√
Exercice : Étude x 7→ x2 + x + 1 en ±∞.
f n+1 ( xn ) > 0 = f n+1 ( xn+1 ) ⇒ xn > xn+1 car f n−+11 est croissante
La suite ( xn ) est décroissante et minorée par 0 donc elle converge. Si on note ` sa limite. Montrons par
l’absurde que ` = 0. On suppose que ` > 0. Dans ce cas, nxn ∼ n` et donc tend vers +∞, on nxn = 1 − xn5
qui est bornée.
On en déduit que
( xn ) → 0
1 1
Remarque : On aurait aussi pu voir que f n (1/n) = + 1 − 1 = 5 > 0 et donc 0 < xn < 1/n.
n5 n
268
— On cherche maintenant la suite du développement asymptotique. On remarque que comme ( xn ) → 0
alors xn5 = o ( xn ) de ce fait, xn5 + nxn ∼ nxn . On a donc nxn ∼ 1 et donc
1
xn ∼ .
n
1
— On cherche maintenant la suite du développement asymptotique. On pose xn = + αn où donc αn =
n
o (1/n) c’est-à-dire que nαn → 0. En remplaçant dans l’équation
5
1 1 1
+ αn +n + αn =1 ⇐⇒ (1 + nαn )5 + nαn = 0
n n n5
1
⇐⇒ (1 + 5nαn + o (nαn )) + nαn = 0
n5
1
⇐⇒ nαn + o (nαn ) = − 5
n
1
On en déduit que αn ∼ −
n6
En conclusion
1 1
− 6 + o 1/n6 xn =
n n
Remarque : En recommençant on peut trouver que
1 1 5
xn = − 6 + 11 + o 1/n11
n n n
Formule de Stirling
Notre but est de démontrer la formule de Stirling qui donne un équivalent de factoriel n :
On a √ √
n! ∼ nn e−n 2πn ou nn+1/2 e−n 2π
Démonstration : Commençons par essayer de « justifier » d’où vient cette formule. On considère
n
ln(n!) = ∑ ln k.
k =2
Étant donné la croissance du logarithme, on peut se dire que cela ne doit pas être trop loin de n ln n. On pose
donc vk = k ln k − (k − 1) ln(k − 1) et on a
n
n ln n = ∑ vk .
k =2
k−1
Maintenant, vk = ln k − (k − 1) ln . On en déduit que
k
n
1
n ln n = ln(n!) − ∑ (k − 1) ln 1 − . (A)
k =2
k
269
n n
1 1 1 1
où αk ∼
6k 2
. En conclusion, ln ( n! ) = n ln n − n + ∑ 2k
+ α k . Il ne reste plus qu’à voir que ∑ 2k
= ln n +
2
k =2 k =2
n
γ + o (1) (série harmonique) et que ∑ αk converge vers une constante réelle (cela sera prouvé en fin d’année)
k =2
pour en conclure que
ln(n!) − (n + 1/2) ln n + n → ` ∈ R.
n!en
En prenant l’exponentielle tend vers une constante non nulle K et donc
nn+1/2
n! ∼ Knn+1/2 e−n .
ATTENTION
On peut démontrer plus simplement ce fait (quand on connait le résultat). On considère en effet
n!en
un = √ .
nn n
C’est une suite strictement positive. Le but est alors de montrer que (un ) converge vers une limite
non nulle. On considère alors
" n+1/2 #
u n +1 n
ln = ln e
un n+1
1
= 1− n+ ln(1 + 1/n)
2
1
= − 2
+ o 1/n2
12n
u n +1
On en déduit que la série de terme général ln est convergente. Or
un
N
u n +1
∀ N ∈ N, ∑ ln
un
= ln(u N +1 ) − ln(u1 ).
n =1
On en déduit que ln(un ) tend vers une limite finie et donc (un ) aussi.
Pour conclure la démonstration il reste à calculer la valeur de K. On introduit pour cela l’intégrale de Wallis :
Z π/2
∀n ∈ N, In = sinn t dt.
0
— A l’aide d’une classique intégration par partie on obtient que
∀n > 2, nIn = (n − 1) In−2 .
π
— En remarquant que I0 = on en déduit que pour n = 2p,
2
2p − 1 2p − 3 1 (2p)! π
I2p = × × · · · × I0 = 2p × .
2p 2p − 2 2 2 ( p!)2 2
270
Maintenant en utilisant la formule trouvée ci dessus et l’équivalent précédent on obtient que
√
K (2p)2p+1/2 e−2p π 2 π π
I2p ∼ 2p 2 2p+1 −2p ∼ √ ∼ p .
2 K ( p) e 2 K p2 K 2p
271
Espaces vectoriels
19
1 Espaces vectoriels 272
1.1 Défintion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
1.2 Combinaisons linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
2 Sous-espaces vectoriels 275
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 275
2.2 Sous-espace vectoriel engendré par une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . 276
3 Familles de vecteurs 277
3.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
3.2 Familles génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
3.3 Familles libres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 278
3.4 Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 279
4 Somme de sous-espaces vectoriels 280
4.1 Défintions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 280
4.2 Somme directe et supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 281
4.3 Somme directe d’un nombre fini de sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . 282
5 Sous-espaces affines 283
5.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
5.2 Sous-espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 284
5.3 Intersection . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 285
Dans ce chapitre K désignera R ou C (et éventuellement Q). Dans la pratique la grande majorité des résultats
restent vrais dès que K est un corps.
1 Espaces vectoriels
1.1 Défintion
Si on considère l’ensemble des vecteurs de R2 et R3 . C’est un ensemble sur lequel on a deux opérations : la
somme et la multiplication par un réel. Nous allons construire la structure d’espace vectoriel pour généraliser
ce concept.
272
Définition [Link]
On appelle K−espace vectoriel (ou espace vectoriel sur K) tout ensemble E muni d’une loi de composition
interne (notée +) et d’une loi externe c’est-a-dire une application K × E → E notée λ.x (où λ ∈ K et x ∈ E)
vérifiant :
1. ( E, +) est un groupe commutatif ;
2. ∀ x ∈ E, ∀(λ, µ) ∈ K2 , α.( β.x ) = (αβ).x.
3. ∀(λ, µ) ∈ K2 , ∀ x ∈ E, (λ + µ).x = λ.x + µ.x
4. ∀ x ∈ E, 1.x = x
5. ∀( x, y) ∈ E2 , ∀λ ∈ K, λ.( x + y) = λ.x + λ.y.
Terminologie :
1. Les éléments de E s’appellent des vecteurs. Cependant, pour alléger on ne les désigne pas avec des flèches.
2. L’élément neutre de ( E, +) s’appelle le vecteur nul. On le désigne par 0 ou 0E si on veut le différencier du
0 de K.
3. Les éléments de K s’appellent des scalaires.
4. On note souvent λx pour λ.x s’il n’y a pas de confusion.
5. Le corps K s’appelle corps de la base de l’espace vectoriel. Il arrive de l’omettre dans la notation. On dira
alors « soit E un espace vectoriel ».
Exemples :
1. L’ensemble R2 avec les opérations classiques est un espace vectoriel sur R. Rappelons la définition des
lois sur R2 . Soit u = ( x, y), v = ( x 0 , y0 ) et λ ∈ R on définit :
Nous démontrons ci-dessous, dans un cas plus général, que c’est bien un espace vectoriel.
2. On munit l’ensemble Kn des opérations suivantes :
∀( f , g) ∈ F2 , f + g : x 7→ f ( x ) + g( x ) et ∀ f ∈ F, ∀λ ∈ K, λ. f : x 7→ λ. f ( x ).
273
6. Soit E et F deux espaces vectoriels. L’ensemble produit E × F est muni d’une structure d’espace vectoriel.
On pose
∀(( x, y), ( x 0 , y0 )) ∈ ( E × F )2 , ∀λ ∈ K, ( x, y) + ( x 0 , y0 ) = ( x + x 0 , y + y0 ) et λ.( x, y) = (λ.x, λ.y).
7. On généralise le cas précédent à un nombre fini d’espace vectoriel. Si E1 , . . . , En sont des espaces vectoriels
alors ∏ Ei = E1 × · · · × En est muni d’une structure d’espace vectoriel que l’on appelle structure d’espace
i
vectoriel produit.
8. Soit K un corps et Ł un sur-corps alors Ł est un K espace vectoriel. En particulier, R est un Q-espace
vectoriel et C est un R-espace vectoriel.
Proposition [Link]
Démonstration
Soit E un K espace vectoriel. Soit n ∈ N et (u1 , . . . , un ) n vecteurs de E. On appelle combinaison linéaire des
vecteurs u1 , . . . , un tout vecteur v pouvant s’écrire :
n
v = λ1 u1 + · · · + λ n u n = ∑ λk uk .
k =1
Remarque : Si n = 0, on récupère une somme sur un ensemble vide qui vaut 0 par convention. De ce fait
l’ensemble des combinaisons linéaires des vecteurs de l’ensemble vide est {0}.
Exemples :
1. Dans R2 on se donne u1 = (1, 4). Un combinaison linéaire de u1 est un vecteur u tel qu’il existe λ ∈ R tel
que u = λ.u1 = (λ, 4λ). Par exemple (4, 16) est une combinaison linéaire de u1 et (7, 7) n’en n’est pas une.
2. Dans R2 on se donne u1 = (1, 4) et u2 = (−2, 1). Un combinaison linéaire de u1 et u2 est un vecteur u tel
qu’il existe (λ, µ) ∈ R2 tel que u = λ.u1 + µ.u2 = (λ − 2µ, 4λ + 2µ). Montrons alors que tous vecteurs de
R2 est une combinaison linéaire de u1 et u2 .
2,5
-5 -2,5 0 2,5
-2,5
274
3. Dans R3 on se donne les vecteurs u1 = (1, 1, 0) et u2 = (−1, 1, −2). L’ensemble des combinaisons linéaires
de u1 et u2 est alors un plan vectoriel.
4. Dans K[ X ], les combinaisons linéaires des vecteurs 1, X et X 2 sont les polynômes de degré inférieur à 2.
Remarques :
1. On voit en particulier que particulier que le vecteur nul est une combinaison linéaire de toute famille de
vecteurs (et même de la famille vide).
2. La notion de combinaison linéaire ne dépend pas de l’ordre des vecteurs u1 , . . . , un . Cependant on gardera
le plus souvent un ordre pour préparer à la notion de base
On va étendre la notion de combinaison linéaire au cas d’une famille infinie de vecteurs. Il faut faire attention
que ’lin ne considérera alors que la somme d’un nombre fini de vecteur.
Définition [Link]
v= ∑ λi ui
i∈ I
Exemple : Dans F (R, R), on pose A = { x 7→ x n | n ∈ N}. L’ensemble des combinaisons linéaires des éléments
de A est l’ensemble des fonctions polynomiales.
Remarque : Cette année nous travaillerons assez rarement avec des familles de vecteurs infinies.
Notation : Avec les notation précédente, on note VectA l’ensemble des combinaisons linéaires des vecteurs de
A (où A est un ensemble ou une famille).
2 Sous-espaces vectoriels
Dans tout ce paragraphe on se fixe E un K-espace vectoriel.
2.1 Définitions
Définition [Link]
Démonstration
Remarques :
275
1. On peut alléger la deuxième condition en ne demandant que 0 ∈ F et ∀(u, v) ∈ F2 , ∀λ ∈ K, λ.u + v ∈ F.
Cependant, ce faisant on perd la symétrie de l’expression.
2. De même on peut remplacer 0 ∈ F par F 6= ∅ mais dans 99,9%, c’est le vecteur nul que nous chercherons
comme élément de F.
3. Comme pour les groupes/anneaux, quand on veut démontrer qu’un ensemble est un espace vectoriel on
essaye très souvent de démontrer que c’est un sev d’un espace vectoriel connu.
Exemples :
1. L’ensemble C 0 (R, R) des fonctions continues sur de R dans R est un sev de F (R, R).
2. L’ensemble Kn [ X ] est polynômes de degré inférieur à n.
3. Si on considère C comme un R espace vectoriel alors R = {z ∈ C | Im(z) = 0} est un sev de C.
4. Dans R2 , l’ensemble H = {( x, y) | x − 2y = 0} est un sev. Par contre ni {( x, y) | x = y2 } ou {( x, y) | x + y =
1} en est un.
5. Dans R3 , l’ensemble {( x, y, z) | x − 3y + 2z = 0} est un sev.
6. Dans tout espace vectoriel E, E en entier et {0} sont des sev.
Proposition [Link]
Démonstration : On voit que par définition λ1 u1 + λ2 u2 appartient à F. Ensuite on en déduit que (λ1 u1 +
λ2 u2 ) + λ3 u3 aussi. Et ainsi de suite. De fait, on peut procéder par récurrence sur n.
Remarque : Cela signifie qu’un sev est stable par combinaisons linéaires.
Démonstration
Exemple : Par exemple si on prend deux plans vectoriels non confondus dans R3 . Leur intersection sera une
droite vectorielle qui sera un sev.
Remarque : Cela n’est plus du tout vrai pour l’union. Par exemple si on considère les deux droites d’équation
x = y et y = 2x dans R2 . Nous verrons plus loin le « substitut » à l’union.
Proposition-Définition [Link]
Soit A une partie de E. Il existe un plus petit espace vectoriel contenant A. On l’appelle espace
vectoriel engendré par A et on le note Vect( A).
Remarques :
1. On trouve aussi (mais plus rarement dans ce cadre) la notation < A > .
2. Si A = ∅, Vect( A) = {0}.
Démonstration : Il suffit de voir que l’ensemble
\
I des sous-espaces vectoriels de E contenant A n’est pas vide
(car il contient E lui même). L’ensemble F est un sev et il contient A.
F∈ I
276
Proposition [Link]
Soit A une partie de E. Le sous-espace vectoriel Vect( A) est l’ensemble des combinaisons linéaires
de vecteurs de A.
Démonstration : Notons F l’ensemble des combinaisons linéaires des vecteurs de A et montrons par double
inclusion que F = Vect( A).
— F ⊂ Vect( A) Soit w un élément de F. Il existe u1 , . . . , un des vecteurs de A et λ1 , . . . , λn des scalaires
n
tels que w = ∑ λi ui . Maintenant, par définition, tous les ui appartiennent à A donc à Vect( A). D’après
i =1
la proposition, ci-dessus, la combinaison linéaire w appartient aussi à Vect( A). On a bien F ⊂ Vect( A).
— Vect( A) ⊂ F Il suffit de remarquer que F est un sev de E car il est non vide et il est stable par combinaison
linéaire. Comme, de plus il contient A, on a bien Vect( A) ⊂ F.
Exemples :
1. Dans R2 , soit u1 = (2, 1). L’espace vectoriel engendré par u1 est l’ensemble Vect(u1 ) = {(2x, x )| x ∈
R} = {( x, y) ∈ R2 | x = 2y}. Si on ajoute u2 = (2, 0). Alors Vect(u1 , u2 ) = R2 .
2. Dans K[ X ], on a Kn [ X ] = Vect(1, X, X 2 , . . . , X n ).
3. Dans RN . Si on note u la suite constante à 1 et v la suite définie par vn = n. On a Vect( A) = {suites arithmétiques}.
C’est donc un sev de RN .
3 Familles de vecteurs
On se fixe un espace vectoriel E.
Soit (ui )i∈ I une famille de vecteurs de E. On dit que la famille est génératrice de E (ou qu’elle engendre E) si
E = Vect(ui ). C’est-à-dire que tout vecteur de E peut s’écrire comme une combinaison linéaire des vecteurs
de la famille.
ATTENTION
277
Exemples :
1. Dans l’exemple précédent la famille (u1 ) n’engendre par R2 . Par contre (u1 , u2 ) et (u1 , u2 , u3 ) engendrent
R2 .
2. La famille (1, X, X 2 , X n ) n’engendre par K[ X ] mais elle engendre Kn [ X ].
B Le caractère générateur d’une famille dépend de l’espace vectoriel dans lequel on la considère comme on
le voit à l’exemple ci-dessus.
Proposition [Link]
Remarques :
1. En gros, plus il y a de vecteurs dans une famille plus elle a de chances d’être génératrice.
2. La notion de famille génératrice ne dépend pas de l’ordre. On pourra donc parler de parties génératices
Soit (u1 , . . . , un ) une famille finie de vecteurs de E. On dit que la famille est libre ou que les vecteurs u1 , . . . , un
sont linéairement indépendants si
n
∀(λi ) ∈ Kn , ∑ λi ui = 0 ⇒ λ1 = λ2 = · · · = λn = 0.
i =1
Terminologie : Dans le cas contraire on dit que la famille est liée ou que les vecteurs sont linéairement
dépendants. Dans ce cas il existe une relation du type λ1 u1 + · · · λn un = 0 avec les λi non tous nuls (ce qui n’est
pas la même chose que tous non nuls). Cette relation s’appelle relation de dépendance linéaire des vecteurs
u1 , . . . , u n .
On généralise cela au cas d’une famille éventuellement infinie
Définition [Link]
Soit (ui ) une famille de vecteurs. Elle est dite libre si toute sous-famille finie est libre ce qui revient à dire que
pour toute famille (λi ) presque nulle telle que ∑ λi ui = 0 on a ∀i ∈ I, λi = 0.
i
ATTENTION
Le fait d’être libre ne dépend de l’espace vectoriel dans lequel on regarde la famille.
Exemples :
1. On reprend notre exemple de R2 . Les familles (u1 ) et (u1 , u2 ) sont libres mais pas la famille (u1 , u2 , u3 )
par exemple −4u1 − 5u2 + 3u3 = 0. C’est une relation de dépendance linéaire.
2. La famille (1, X, X 2 , X n ) est libre. En effet, un polynôme est nul si et seulement si tous ses coefficients sont
nuls.
3. De même la famille ( X i )i∈N est libre dans K[ X ].
4. Dans le R-espace vectoriel C, les vecteurs 1 et j sont libres.
278
5. Un famille composée d’un seul vecteur non nul est libre.
6. Un famille contenant le vecteur nul est liée.
7. Soit u et v deux vecteurs. La famille (u, v) est liée, s’il existe des scalaires λ, µ tels que λu + µv = 0. On dit
λ
que les deux vecteurs sont colinéaires. En particulier si u n’est pas nul, alors µ non plus et on a v = − u.
µ
ATTENTION
Ce dernier point n’est plus vrai pour 3 vecteurs. Par exemple si u = (1, 0, 0), v = (0, 1, 0) et
w = (1, 1, 0) alors (u, v) ne sont pas colinéaires (comme (v, w) et (u, w)) mais la famille est liée car
w = u + v.
Proposition [Link]
Soit (ui ) une famille libre de vecteurs de E. Pour tout vecteur w de Vect(ui ) il existe une unique
combinaison linéaire de (ui ) égale à w.
Démonstration
Proposition [Link]
Remarque : En gros, moins il y a de vecteurs dans une famille plus elle a de chances d’être libre.
3.4 Bases
Définition [Link]
Soit (ui ) une famille de vecteurs. On dit que la famille est une base si elle est libre et génératrice.
Remarques :
1. Comme dans le cas de la famille génératrice, cela dépend de l’espace vectoriel E.
2. Là encore, l’ordre des vecteurs n’est pas important.
Exemples :
1. Dans R2 , la famille (u1 , u2 ) est une base. De même pour la famille (1, 0), (0, 1).
2. Dans Kn , on note ei = (0, . . . , 1, 0, . . .). La famille (e1 , . . . , en ) est une base de Kn . On l’appelle la base
i
canonique.
3. La famille (1, X, . . . , X n ) est une base de Kn [ X ] (mais pas de K[ X ]). Elle s’appelle la base canonique. La
famille (1, X, . . .) est une base de K[ X ].
4. La famille ( X, X − 1, X − 2) est une base de K2 [ X ].
Théorème [Link]
Soit B = (u1 , . . . , un ) une base finie de E. Pour tout vecteur w de E il existe une unique (λ1 , . . . , λn ) ∈
Kn tel que
n
w= ∑ λi ui .
i =1
279
Démonstration
ATTENTION
Les coordonnées d’un vecteur dans une base DEPENDENT du vecteur, de la base (en particulier de
l’ordre des vecteurs dans la base)
λ1
Notation : On note ... les coordonnées d’un vecteur.
λn
Théorème [Link]
Soit B = (ui ) une base de E. Pour tout vecteur w de E il existe une unique famille presque nulle (λi )
tel que
w = ∑ λi ui .
i
Exemples :
−1/9
1. Dans On considère notre base B = (u1 , u2 ). Le vecteur w = (1, −1) a pour coordonnées
R2 . .
5/9
1
Dans la base canonique ce même vecteur w a pour coordonnées . On prendra soin de ne pas
−1
confondre le vecteur (1, −1) avec ses coordonnées dans la base canonique même si ce sont les mêmes
chiffres.
2. Trouver une base de H = {( x, y, z) ∈ R3 | x + y − z = 0}.
5
3. Dans R2 [ X ] le polynôme X 2 − 3X + 5 a pour coordonnées −3 dans la base canonique. Il a pour
1
3
coordonnées −2 dans la base (1, X − 1, X ( X − 1)).
1
Exercice : Calculer les coordonnées de i dans la base (1, j) du R-espace vectoriel C.
4.1 Défintions
On a vu que si on se donne deux sous-espaces vectoriels F et G de E, l’ensemble F ∪ G n’en n’est plus un.
On va définir un sous-espace vectoriel contenant F et G.
Proposition-Définition [Link]
F + G = {u + v | u ∈ F, v ∈ G }.
280
Donc F + G est un sev et il contient F et G.
De plus, soit H un sev contentant F et G on veut montrer que F + G ⊂ H. Soit w = u + v un élément de
F + G. On sait que u et v appartiennent à H car ils appartiennent respectivement à F et à G donc, H étant un
sev, u + v ∈ H.
Exemples :
1. Dans R3 . On considère u1 = (−1, 2, −1) et u2 = (0, 1, −1) ainsi que F1 = Vect(u1 ) et F2 = Vect(u2 ).
Alors F1 + F2 est un plan défini par x + y + z = 0.
2. Dans R3 . On considère H1 = {( x, y, z) | x + y + z = 0} et H2 = {( x, y, z) | x = 0}. On a H1 + H2 = R3 .
Définition [Link]
Proposition [Link]
Démonstration : En execice
Soit F et G deux sous-espaces vectoriels de E. On dit que F et G sont en somme directe si pour tout w dans
F + G il existe un unique couple (u, v) ∈ F × G tels que w = u + v. On note alors F ⊕ G le sous-espace
vectoriel somme.
Exemples :
1. On reprend les exemples précédents, F1 ⊕ F2 = H.
2. Les sev H1 et H2 ne sont pas en somme directe.
Proposition [Link]
Soit F et G deux sous-espaces vectoriels. Ils sont en somme directe si et seulement si F ∩ G = {0}.
Démonstration :
— Montrons que si F ∩ G = {0} alors F et G sont en somme directe. Soit w ∈ F + G. On suppose que
w = u1 + v1 = u2 + v2 avec (u1 , u2 ) ∈ F2 et (v1 , v2 ) ∈ G2 . Dès lors u1 − u2 = v2 − v1 ∈ F ∩ G. On en
déduit que u1 = u2 et v1 = v2
— Réciproquement on suppose que F et G sont en somme directe et on veut montrer que F ∩ G = {0}. Soit
u ∈ F ∩ G. On a alors
u = u + 0G = 0F + u.
Par unicité de la décomposition, u = 0
281
Définition [Link]
Soit F et G deux sous-espaces vectoriels de E. On dit qu’ils sont supplémentaires (ou que G est un supplé-
mentaire de F ou réciproquement) si F ⊕ G = E. C’est-à-dire que pour tout w de E il existe un unique couple
(u, v) de F × G tel que w = u + v.
Remarque : Dans la pratique, pour montrer que deux sevs sont supplémentaires, on le fait en deux fois. On
montre que F + G = E et que F ∩ G = {0}.
Exemples :
1. Dans R2 , on pose F = {( x, 0)| x ∈ R} et G = {( x, x ) | x ∈ R}. Ils sont supplémentaires.
2. Dans K[ X ]. On pose F = K0 [ X ] et G = { P ∈ K[ X ] | P(0) = 0}. Alors F ⊕ G = K[ X ].
3. Dans F (R, R). On pose P l’ensemble des fonctions paires et I l’ensemble des fonctions impaires. Ils
sont supplémentaires.
En particulier, exp = ch + sh .
Exercice : Soit Q un polynôme non nul. On pose F = { P ∈ K[ X ] | deg P < deg Q} et G = { PQ | P ∈ K[ X ]}.
1. Montrer que F et G sont des sevs.
2. Montrer qu’ils sont supplémentaires.
Soit F1 , . . . , Fn des sous-espaces vectoriels de E. On dit que les Fi sont en somme directe si pour tout w
n n
Ln
dans ∑ Fi il existe un unique (u1 , . . . , un ) ∈ F1 × · · · × Fn tels que w = ∑ ui . On note alors i =1 Fi =
i =1 i =1
F1 ⊕ · · · ⊕ Fn le sous-espace vectoriel somme.
ATTENTION
Il n’est plus vrai que si Fi ∩ Fj = {0} pour i 6= j alors les Fi sont en somme directe. Par exemple dans
R2 , si on pose F1 = Vect(1, 1), F2 = Vect(1, 2) et F3 = Vect(1, 3)
Proposition [Link]
Soit F1 , . . . , Fn des sous-espaces vectoriels de E. Il sont en somme directe si et seulement s’il existe un
n
unique (u1 , . . . , un ) ∈ F1 × · · · × Fn tels que ∑ ui = 0. C’est-à-dire :
i =1
n
∀(u1 , . . . , un ) ∈ F1 × · · · × Fn , ∑ ui = 0 ⇒ u1 = · · · = un = 0.
i =1
Démonstration :
— ⇒ Évident.
— ⇐ Soit w ∈ ∑in=1 Fi , (u1 , . . . , un ) et (v1 , . . . , vn ) tels que
w = u1 + · · · + u n = v1 + · · · + v n .
On en déduit que
n
0= ∑ ( ui − vi )
i =1
et donc ∀i ∈ [[ 1 ; n ]] , ui = vi
Ln
Exemple : On a Kn [ X ] = i =0 Vect( X i ).
282
5 Sous-espaces affines
5.1 Définition
On a vu dans les exemples précédents que les sous-espaces vectoriels de R2 et R3 pouvaient être visualisés
comme les droites et plans passant par 0. On voudrait maintenant pouvoir travailler avec les autres droites /
plans.
Pour cela on va définir la structure affine d’un espace vectoriel. Nous n’allons pas trop entrer dans le détail
car nous ne l’utiliserons que dans des cas très simples.
Soit E un K-espace vectoriel, on le munit d’une structure affine en notant E l’ensemble des points et E
l’ensemble des vecteurs. Ces deux ensembles sont les mêmes objets mais vu différemment. Afin de bien
différencier les objets les éléments de E (les points) seront notés par les lettres majuscules A, B, C, M, N, . . . alors
−→
que les éléments de E (les vecteurs) seront notés par des lettres minuscules avec des flèches − →u , i ,...
On a alors une opération :
+: E ×E → E
( A, −
→
u ) 7→ M = A + − →u
Dans le terme de droite la somme est juste la somme classique de l’espace vectoriel.
A+−
→
u
−
→
u
O
Notation : Dans toute quand on considérera la structure affine d’un espace vectoriel on notera avec une lettre
scripte l’ensemble des points et une lettre droite l’ensemble des vecteur.
Exemple : Pour E = R2 . Si A = (3, 1) et − →
u = (1, −3) alors A + −→u = (4, −2).
ATTENTION
Il est important de comprendre (et d’utiliser des notations cohérentes) la différence entre les points
et les vecteurs même si, à la fin, ce sont les mêmes objets
Définition [Link]
t−
u :
→ E → E
A 7→ M = A+−
→
u
Proposition [Link]
Remarque : La propriété ci-dessus peut s’exprimer en disant que l’ensemble T des translations est un sous-
groupe des bijections de E .
Proposition [Link]
−→
Soit ( A, B) ∈ E 2 . Il existe un unique vecteur −
→
u tel que A + −
→
u = B. On le note AB ou B − A.
283
Démonstration : Il suffit de voir que A + −
→
u = B ⇐⇒ −
→
u = B − A (en se rappelant que les points sont aussi
des éléments de E).
ATTENTION
De fait
— Une somme de points dont la somme des coefficients est 0 est un vecteur.
— Une somme de points dont la somme des coefficients est 1 est un point.
— Tout autre somme n’a pas de sens. Par exemples A + B.
Ω + F = {Ω + −
→
u |−
→
u ∈ F}
Exemples :
1. Pour E = R2 . Si on note Ω = (2, 1) et F = Vect−
→
u où −
→
u = (1, 1) alors
Ω + F = {(2 + t, 1 + t) | t ∈ R}
Ω + F = {( x, y) ∈ R2 | x − y = 1}.
y0 + y = x (E)
y0 + y = 0 (H)
SE = f 0 + S H .
Définition [Link]
Une partie F de E est un sous-espace affine s’il existe un point Ω et un sous-espace vectoriel F de E tels que
F = Ω + F.
ATTENTION
Pour une même partie F la donnée du point Ω n’est pas unique (sauf si F = {0}). En effet si −
→
u ∈ F,
on a
Ω + F = (Ω + − →u ) + F.
Par contre, F est unique en effet F = { B − A | ( A, B) ∈ F 2 } (démonstration en exercice)
284
Définition [Link]
Avec les notations précédentes, F s’appelle la direction du sous-espace affine F . On dit que F est le sous-espace
affine passant par Ω et de direction F.
a∈F ⇐⇒ x + y − 4z = 2
⇐⇒ ( x − 2) + y − 4z = 0
⇐⇒ a − Ω ∈ F où F = {( X, Y, Z ) | X + Y − 4Z = 0}.
On en déduit que F = Ω + F.
5.3 Intersection
Commençons par traiter quelques exemples
Exemples :
1. Dans R3 on considère les deux droites :
On voit alors que D1 ∩ D2 = ∅ car on ne peut pas trouver (s, t) ∈ R2 tels que
(1 + s, s, s) = (3, 1 + t, 1)
P1 = {( x, y, z) ∈ R3 | x − y + z = 4} et P2 = {( x, y, z) ∈ R3 | x + 3y = −1}.
En résolvant le système :
x−y+z = 4
(S) =
x + 3y = −1
on trouve que
P1 ∩ P2 = {(11/4, −5/4, 0) + z(1/4, 1/4, 1) | z ∈ R}
C’est donc l’espace affine Ω + F où Ω = (11/4, −5/4, 0) et F = Vect(1/4, 1/4, 1) = Vect(1, 1, 4). On
peut remarquer que si l’on résout le système homogène associé à (S) alors on trouve que F est l’intersection
des directions P1 = {( x, y, z) ∈ R3 | x − y + z = 0} et P2 = {( x, y, z) ∈ R3 | x + 3y = 0}.
285
Espaces vectoriels
20
de dimension finie
1 Espaces vectoriels de dimension finie 286
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
1.2 Existence d’une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 287
1.3 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 288
1.4 Dimension et famille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 289
2 Sous-espaces vectoriels 290
2.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291
2.2 Somme et supplémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 292
2.3 Rang d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
2.4 Première approche des calculs matriciels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 294
2.5 Détermination du rang d’une famille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
2.6 Extraction d’une base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
3 Retour aux sous-espaces affines 295
3.1 Dimension d’un sous-espace affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
3.2 Quelques exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
On voudrait dire que R2 est de dimension 2, R3 est de dimension 3 et ainsi de suite. On peut remarquer que
c’est le nombre de vecteurs de la base canonique et de toutes les bases que l’on a trouvé.
Soit E un espace vectoriel on dit que E est de dimension finie s’il existe une famille génératrice de cardinal fini.
Remarques :
286
1. On va voir que ce qui va nous intéresser sera plutôt une base avec un nombre fini de vecteurs mais il est
plus simple de demander une famille génératrice car cela nous évitera de vérifier qu’elle est libre.
2. Dans le cas contraire, on dit que E est de dimension infinie.
Exemples :
1. Soit n un entier, l’espace vectoriel Kn est de dimension finie car la base canonique est une famille
génératrice finie.
2. Soit n un entier, l’espace vectoriel Kn [ X ] est un espace vectoriel de dimension finie pour la même raison.
3. L’espace vectoriel K[ X ] n’est pas de dimension finie. Supposons en par l’absurde qu’il existe une famille
génératrice finie : ( P1 , . . . , Pn ). Tout polynôme P s’écrit alors comme combinaison linéaire des ( Pi ) :
P = ∑ λi Pi . On en déduit alors que deg( P) 6 Max(deg( Pi )). C’est absurde. Donc K[ X ] n’est pas de
i i
dimension finie.
Lemme [Link]
Soit E un espace vectoriel, G une famille génératrice finie et F un sous famille de G libre. On peut
compléter la famille F avec des vecteurs de G pour obtenir une base B. On a donc
F ⊂ B ⊂ G.
Démonstration : Le principe est de rajouter des vecteurs pour rendre la famille génératrice mais pas trop pour
qu’elle reste libre.
On note (u1 , . . . , un ) la famille G telle que, quitte à échanger l’ordre des vecteurs, F = (u1 , . . . , ur ). On va
procéder de manière algorithmique. On note p = n − r :
— Si F est une famille génératrice alors, comme elle est libre, c’est une base : c’est gagné !
— Si F n’est pas une famille génératrice. Alors il existe un vecteur de G \ F qui n’est pas une combinaison
linéaire des vecteurs de F . En effet, si tous les vecteurs de G s’écrivaient comme combinaison linéaire des
vecteurs de F , la famille F serait génératrice. Quitte à inverser l’ordre des vecteurs (ur+1 , . . . , un ) dans
G , on peut supposer que ur+1 n’est pas une combinaison linéaire des vecteurs de F . On ajoute alors ur+1
r +1
à F . La famille obtenue reste libre. En effet soit (λi ) tels que ∑ λi ui = 0. On sépare les cas. On ne peut
i =1
pas avoir λr+1 différent de 0 car ur+1 n’est pas une combinaison linéaire des vecteurs de F et si λr+1 est
nul alors λ1 = · · · = λr 0 car (u1 , . . . , ur ) est libre.
On peut alors recommencer avec la nouvelle famille F et p = p − 1.
L’algorithme s’arrête au plus tard quand p = 0.
Remarque : On peut aussi, de manière moins constructive, considérer les familles libres comprises entre F et
G et prendre une famille de cardinal maximal.
Soit E un espace vectoriel de dimension finie. Il admet une base. De plus, on peut extraire une base
de toute famille génératrice finie.
Exemple : Dans R3 . On considère les vecteurs u1 = (1, 2, 3), u2 = (2, −2, 1), u3 = (4, 2, 7) et u4 = (1, 1, 1). La
famille est liée car par exemple 2u1 + u2 − u3 = 0. On peut enlever u3 et voir que (u1 , u2 , u4 ) est une base de R3 .
Démonstration : On applique le lemme en prenant pour F la sous-famille vide qui est libre ou (si E 6= {0})
une famille à un élément qui n’est pas le vecteur nul.
On a aussi le théorème suivant
287
Théorème [Link] (Théorème de la base incomplète)
Soit E un espace vectoriel de dimension finie et F une famille libre. On peut la compléter en une
base. C’est-à-dire qu’il existe une famille G qui soit une base et telle que F ⊂ G .
Exemple : Toujours dans R3 . Soit u1 = (1, 2, 3) et u2 = (2, −2, 1). La famille est libre mais elle n’engendre pas
R3 . On peut la compléter avec par exemple u3 = (1, 0, 0). La famille obtenue est une base.
Démonstration : Il suffit de considérer une base de E que l’on note B. On a alors F ⊂ (F ∪ B ) et on applique
le lemme précédent.
Remarque : On a utilisé ci-dessus le fait que la famille F était finie (pour que F ∪ B soit finie). On verra plus
loin que c’est systématique.
1.3 Dimension
Notre but est de montrer que toutes les bases ont le même nombre de vecteurs. Par exemple dans R2 on a
bien vu que les famille avec strictement moins de deux vecteurs n’engendraient pas R2 et que les familles avec
strictement plus de deux vecteurs n’étaient pas libres. On veut généraliser ce fait.
Proposition [Link]
Soit E un espace vectoriel et n un entier naturel. Soit F une famille de n vecteurs. Toute famille G de
n + 1 vecteurs de Vect(F ) est liée.
Démonstration : On procède par récurrence sur n. On pose Hn = « Pour toute famille F de n vecteurs. Toute
famille G de n + 1 vecteurs de Vect(F ) est liée ».
— I : Pour n = 0, la famille F est vide et donc Vect(F ) = {0}. La famille G ne contient qu’un vecteur qui
est nécessairement le vecteur nul et donc la famille G est liée. Si cet argument ne vous convainc pas, on
peut aussi regarder pour n = 1. On a alors F = (u) et Vect(F ) = Vect(u). La famille G est composée
de deux vecteurs colinéaires. Elle est liée.
— H : Soit n ∈ N? . On suppose Hn . On veut démontrer Hn+1 . On note (u1 , . . . , un+1 ) la famille F et
(v1 , . . . , vn+2 ) la famille G . On sait que tous les vecteurs (vi ) s’écrivent comme combinaison linéaire des
(ui ). Notons pour tout i ∈ [[ 1 ; n + 2 ]], αi le coefficient de un+1 dans une décomposition de (vi ).
— Si tous les αi sont nuls alors les vecteurs de G appartiennent à Vect(F \ {un+1 }). On en déduit
qu’une sous famille à n + 1 élément de G est liée et donc G est liée.
— S’il existe un αi qui n’est pas nul, qui à échanger l’ordre des vecteurs on peut supposer que c’est αn+2 .
On construit alors la famille
αi
wi = v i − vn+2 pour i ∈ [[ 1 ; n + 1 ]] .
α n +2
Corollaire [Link]
Soit E un espace vectoriel de dimension finie. Toutes les bases ont le même nombre d’éléments.
Démonstration : Supposons par l’absurde qu’il existe deux bases B et B 0 qui n’ont pas le même nombre
d’éléments. Par symétrie, on peut supposer que Card(B ) = n et Card(B 0 ) = n0 > n. Dès lors on peut extraire
une sous-famille libre de B 0 contenant n + 1 éléments. Cela est absurde d’après la proposition précédente.
288
Définition [Link]
Soit E un espace vectoriel de dimension finie. On appelle dimension de E et on note dim E le nombre d’éléments
dans les bases de E.
Remarque : Pour déterminer la dimension d’un espace vectoriel on essayer d’en trouver une base.
Exemples :
1. La dimension de l’espace vectoriel {0} est 0 car la famille vide est une base.
2. On a pour tout entier n, dim Kn = n. Il suffit de considérer la base canonique.
3. De même, l’espace vectoriel Kn [ X ] est de dimension (n + 1).
4. Soit H = {( x, y, z) ∈ R3 | x + y − z = 0}. On a vu que la famille ((1, 0, 1), (0, 1, 1)) est une base donc
dim H = 2.
5. On a vu que C en tant que C espace vectoriel est de dimension 1. Par contre il est dimension 2 en tant que
R espace vectoriel (une base est 1 et i).
6. Soit E une equation différentielle linéaire homogène d’ordre 1. On a vu que l’ensemble des solutions est
un espace vectoriel de dimension 1.
7. Soit E une equation différentielle linéaire homogène d’ordre 2 à coefficients constants. On a vu que
l’ensemble des solutions est un espace vectoriel de dimension 2.
Proposition [Link]
1. Soit E et F deux espaces vectoriels de dimension finie. Si (u1 , . . . , un ) est une base de E et
(v1 , . . . , v p ) est une base de F alors la famille ((u1 , 0), . . . , (un , 0), (0, v1 ), . . . , (0, v p ) est une
base de E × F. En particulier l’espace vectoriel E × F est de dimension finie et dim( E × F ) =
dim E + dim F.
n
2. Soit E1 , E2 , . . . , En des espaces vectoriels de dimension finie. Alors ∏ Ei est de dimension finie
i =1
et !
n n
dim ∏ Ei = ∑ dim(Ei ).
i =1 i =1
Démonstration
Proposition [Link]
Remarque : On voit que les assertions 1’ et 2’ sont les contraposées des assertions 1 et 2.
Exemple : Si on considère quatre polynômes de degré au plus 2. Ils forment une famille liée car c’est une
famille de R2 [ X ] qui est de dimension 3.
Démonstration :
1. L’assertion 1’ est juste la proposition vue précédemment. En effet, on considère une base B contenant n
vecteurs et si F est une famille de n + 1 vecteurs (ou plus) elle est liée.
289
2. L’assertion 2. découle aussi de cette proposition. En effet, supposons par l’absurde que F est une famille
génératrice de N < n vecteurs. Alors une base B de E est un famille de n > N + 1 de Vect(F ). Elle est
donc liée ce qui est absurde car c’est une base de E.
Soit E un espace vectoriel de dimension finie. Soit F une famille libre. On peut la compléter en une
base de E.
Démonstration : Il suffit d’utiliser le lemme ci-dessus en remarquant que F est une sous-famille libre de
F ∩ B où B est une base de E.
Remarque : C’est l’analogue du fait que l’on peut extraire une base d’une famille génératrice.
Théorème [Link]
Remarque : Ce théorème est très utile. En particulier, pour prouver qu’une famille est une base d’un espace
vectoriel dont on connait la dimension. Il suffit de vérifier qu’elle a le bon nombre de vecteurs (autant que
dim E) et qu’elle est libre.
Démonstration : De manière évidente i.) implique ii.) et iii.).
— Montrons que ii.) implique i.) : On sait que l’on peut extraire une base d’une famille génératrice. Or la
famille contenant déjà n vecteurs, la base extraite est égale à la famille entière.
— Montrons que iii.) implique i.) : On vient de voir que l’on peut compléter une famille libre en une base. On
conclut comme précédemment.
Exemples :
1. Soit n ∈ N. On sait que Kn [ X ] est de dimension n + 1 (car on sait que la base canonique a n + 1 vecteurs).
Soit α. Considérons maintenant, la famille {( X − α)i }06i6n . La formule de Taylor nous dit que cette famille
est génératrice. Comme elle comporte le bon nombre de vecteurs (n + 1) c’est une base (que l’on appelle
base de Taylor). Les coordonnées d’un polynôme P dans cette base est donnée par P(k) /k!.
2. Dans Kn on considère la famille des n vecteurs ui = (1, 1, . . . , 1, 0 . . . , 0). Vérifions que cette famille est
i
libre. Soit (λi ) des scalaires tels que w = ∑ λi ui est nul. La dernière coordonnées de w est λn . On en
i
déduit que λn = 0 et ainsi de suite (si on veut le faire « bien »on suppose par l’absurde que la famille n’est
pas nul et on considère n0 le plus grand indice tel que λn0 6= 0.) Cette famille étant libre et avec n vecteurs,
c’est une base de Kn .
3. Soit A ⊂ CN l’ensemble des suites vérifiant une relation de récurrence linéaire
aun+2 + bun+1 + cun = 0 où a 6= 0.
On a vu que c’est un espace vectoriel. Une base est donnée par les suites (u, v) définies par u0 = 1, u1 = 0
et v0 = 0, v1 = 1. On en déduit que A est de dimension 2. Si on suppose que aX 2 + bX + c = 0 a deux
racines distinctes (∆ 6= 0) que l’on note α et β. On sait que (αn ) et ( βn ) sont deux suites de A. Elles sont
libres car (1, α) et (1, β) est libre. On en déduit directement que c’est une base. Vous pouvez comparer à la
démonstration du cours au début de l’année.
Exercice : Montrer qu’une famille échelonnée en degré de Kn [ X ] est une base.
2 Sous-espaces vectoriels
On se fixe un espace vectoriel de dimension finie et on note n = dim E.
290
2.1 Généralités
Proposition [Link]
Soit F un sous-espace vectoriel de E. L’espace vectoriel F est de dimension finie et dim F 6 dim E.
Démonstration : On considère l’ensemble des familles libres de vecteurs de F. On sait que cet ensemble contient
la famille vide. Il n’est donc pas vide. On sait de plus qu’une famille de F (et donc de E) avec plus de n + 1
vecteurs ne peut pas être libre. Il existe donc une famille libre de vecteurs de F de cardinal maximal. Notons
(u1 , . . . , u p ) une telle famille. On va montrer que c’est une base de F. Déjà elle est libre. Maintenant pour tout v
de F, la famille (u1 , . . . , u p , v) n’est pas libre car de cardinal p + 1. Or une relation de dépendance linéaire s’écrit
λ1 u1 + · · · + λ p u p + α.v = 0
λ1 λp
v=− u1 − · · · − up.
α α
Comme ceci est possible avec tout vecteur v de F, on en déduit que la famille (u1 , . . . , u p ) est génératrice de F.
C’est donc une base et dim F = p 6 n = dim E.
Exemples :
1. Soit P = {( x, y, z, t) ∈ R4 | x + y + z + t = 0 et x − y + z − t = 0}. On peut supposer que cet espace
vectoriel est de dimension 4-2 =2. Il faut donc trouver, pour le prouver, une base contenant deux vecteurs.
On remarque que si les valeurs de x et de y sont fixées alors il n’y a plus de choix pour z et t qui vérifient
le système
z + t = −x − y
z − t = −x + y
1 1
L’unique solution de ce système est z = (− x − y − x + y) = x et t = (− x − y + x − y) = −y. On pose
2 2
donc
u1 = (1, 0, 1, 0) et u2 = (0, 1, 0, −1).
Cette famille est bien libre et génératrice donc c’est une base de H.
2. De manière générale dans R3 il y a des sous-espaces vectoriels de dimension 0 : {0} ; des sous-espaces
vectoriels de dimensions 1 (des droites vectorielles) ; des sous-espaces vectoriels de dimension 2 (des plans
vectoriels) et R3 en entier.
Terminologie : On appelle droite vectorielle tout sous-espace vectoriel de dimension 1, plan vectoriel tout
sous-espace de dimension 2 et hyperplan vectoriel tout sous-espace vectoriel de dimension n − 1 dans un espace
vectoriel de dimension n. On dit qu’il est codimension 1.
Proposition [Link]
dim F = dim E ⇒ F = E.
Remarques :
1. La réciproque est aussi vraie mais triviale.
2. C’est très utile pour montrer l’égalité de deux espaces vectoriels de dimension finie. On montre que l’un
est inclus dans l’autre et qu’ils ont la même dimension.
Exemple : On se place dans R3 . On considère les vecteurs u1 = (1, 0, 0), u2 = (0, 1, 0), v1 = (1, 1, 0) et
v2 = (1, −1, 0). On veut montrer que F = Vect(u1 , u2 ) est égal à G = Vect(v1 , v2 ). Remarquons pour
commencer que les familles (u1 , u2 ) et (v1 , v2 ) sont des bases respectives de F et G. Donc dim F = dim G = 2.
Maintenant, v1 = u1 + u2 et v2 = u1 − u2 . On a donc G ⊂ F donc F = G.
291
2.2 Somme et supplémentaires
Commençons par remarquer que tout sous-espace vectoriel admet un supplémentaire.
Proposition [Link]
Démonstration : On considère une base (u1 , . . . , u p ) de F comme une famille libre de E. Elle peut être complété
en une base (u1 , . . . u p , v1 , . . . , vr ) de E. On pose F 0 = Vect(v1 , . . . , vr ). Il ne reste plus qu’à vérifier que
F ⊕ F 0 = E.
Exemples :
1. On considère F = Vect(1, 1) dans R2 . Un supplémentaire est donné par F 0 = Vect(1, −1).
2. Soit n ∈ N. On pose E = K2n [ X ]. On considère P = Vect( X 2i )06i6n . C’est l’ensemble des polynôme
paires. On peut aisément voir que I = Vect( X 2i+1 )06i6n−1 est un supplémentaire.
Proposition [Link]
Soit F et G deux sous-espaces vectoriels de E Soit (u1 , . . . , un ) une base de F et (v1 , . . . , v p ) une base
de G.
1. La famille (u1 , . . . , un , v1 , . . . , v p ) est une famille génératrice de F + G.
2. La famille (u1 , . . . , un , v1 , . . . , v p ) est une base de F + G si et seulement si F et G sont en somme
directe.
Démonstration :
1. Evident
2. — ⇒ On suppose que (u1 , . . . , un , v1 , . . . , v p ) est une base de F + G et on veut montrer que F et G sont
en somme directe. Supposons par l’absurde que F et G ne sont pas en somme directe. Il existe alors
un vecteur w ayant deux décompositions :
w = f + g = f 0 + g0
où ( f , g) 6= ( f 0 , g00 ). Par symétrie on peut suppose que f 6= f 0 . En décomposant f , g, f 0 et g0
dans les bases (u1 , . . . , un ) et (v1 , . . . , v p ) on en déduit deux décompositions de w dans la base
(u1 , . . . , un , v1 , . . . , v p ) ce qui est absurde. On a donc bien que F et G sont en somme directe.
— ⇐ On suppose maintenant que F et G sont en somme directe et on veut montrer que (u1 , . . . , un , v1 , . . . , v p )
est libre. Soit (λ1 , . . . , λn , µ1 , . . . , µ p ) ∈ Kn+ p tels que
( λ1 u1 + · · · + λ n u n ) + ( µ1 v1 + · · · + µ p v p ) = 0
Comme la somme est directe on a que
(λ1 u1 + · · · + λn un ) = (µ1 v1 + · · · + µ p v p ) = 0.
Maintenant, en utilisant que (u1 , . . . , un ) et (v1 , . . . , v p ) sont des bases on obtient que
λ1 = · · · = λn = µ1 = · · · = µ p = 0.
La famille est donc libre.
Remarque : On voit de manière directe que cette proposition se généralise au cas de plus de deux sous-espaces
vectoriels.
Définition [Link]
p
M
Soit F1 , · · · , Fp des sous-espaces vectoriels de E tels que E = Fi . On appelle base adaptée à la décomposition
i =1
précédente toute base obtenue en juxtaposant des bases de chaque Fi .
292
Corollaire [Link] (Formule de Grassmann)
Démonstration :
1. Evident
2. Notons H = F ∩ G. On considère une base (u1 , . . . , u p ) de H. On peut la compléter en une base de
G : (u1 , . . . , u p , w1 , . . . , wr ). Ici, dim( H ) = dim( F ∩ G ) = p et dim G = p + r. Considérons aussi F 0 =
Vect(w1 , . . . , wr ) ⊂ G. On remarque que G = F 0 ⊕ H.
On va montrer que F ⊕ F 0 = F + G.
— Soit z un vecteur de F ⊕ F 0 . Il s’écrit z = z1 + z2 avec z1 ∈ F et z2 ∈ F 0 ⊂ G. Donc z ∈ F + G
et on a F ⊕ F 0 ⊂ F + G. Réciproquement soit z0 un vecteur de F + G il s’écrit z = z1 + z2 avec
z1 ∈ F et z2 ∈ G. Maintenant, z2 peut s’écrire z2 = z3 + z4 avec z3 ∈ F ∩ G et z4 ∈ F 0 . On a donc
z = z1 + ( z3 + z4 ) = ( z1 + z3 ) + z4 ∈ F + F 0 .
— Montrons que F ∩ F 0 = {0}. Soit z ∈ F ∩ F 0 . L’élément z est dans F 0 donc dans G. Or il est dans F
donc dans F ∩ G = H. Il appartient donc à H ∩ F 0 = {0} d’ou z = 0.
On conclut en disant que dim( F + G ) = p + q + r = ( p + q) + ( p + r ) − p = dim F + dim G − dim( F ∩ G ).
Exemple : Intersection de deux plans dans l’espace.
On peut généraliser cela à plus de deux sous-espaces vectoriels.
Proposition [Link]
Démonstration : La première partie se démontre directement par récurrence sur p. Étudions la deuxième
partie.
— ⇒ On suppose que l’on a égalité des dimensions. On sait de plus qu’en « collant » les bases de chaque
p
sous-espace vectoriels on obtient une famille génératrice qui a ∑i=1 dim Fi vecteurs qui est donc la
dimension de l’espace somme. On en déduit que c’est une base. De ce fait, la somme est directe.
— ⇐ Si la somme est directe, on sait que l’on peut obtenir une base en « collant » les bases de chaque
sous-espace vectoriels. On a donc bien
!
p p
dim ∑ Fi = ∑ dim Fi .
i =1 i =1
Exemple : Dans Kn [ X ] on considère F0 = { P | P(0) = 0}, F1 = { P | P(1) = 0}. On veut montrer que
F0 ⊕ F1 ⊕ Kn−2 [ X ] = Kn [ X ]. On remarque déjà que dim F0 + dim F1 + dim Kn−2 [ X ] = 1 + 1 + n − 2 = n + 1 =
n
dim Kn [ X ]. De plus, F0 + F1 + Kn−2 [ X ] = Kn [ X ]. En effet, si P = ∑ ak X k alors
k =0
n −2 n −1
k
n
P = a n X + a n −1 ( X − 1 )
| {z } | {z
n −1
}
+ ∑ ak X k
− a n −1 ∑ n−1
Xk .
k =0 k =0
∈ F0 ∈ F1 | {z }
∈ K n −2 [ X ]
293
On a donc bien
dim ( F0 + F1 + Kn−2 [ X ]) = dim F0 + dim F1 + dim Kn−2 [ X ].
Proposition [Link]
Indépendance linéaire
On se donne une famille (v1 , . . . , v p ) que l’on peut décomposer dans la base B. De ce fait, pour (λ1 , . . . , λ p )
des scalaires l’équation
λ1 v1 + · · · + λ p v p = 0
peut s’écrire (en projetant sur les coordonnées définies par la base B)
∀i ∈ [[ 1 ; n ]] λ1 xi1 + · · · + λ p xip = 0
où le vecteur v j a pour coordonnées ( x1j , . . . , xnj ) dans la base B. Ce qui donne en utilisant l’écriture matricielle
des systèmes
x11 · · · x1p
.. .. .
. .
xn1 · · · xnp
(le second membre n’est pas nécessaire car le système est homogène). Il ne reste plus qu’à échelonner ce système
— Si on obtient des inconnues auxiliaires (s’il reste des colonnes sans pivots) alors le système admet des
solutions non triviales (ce qui signifie que la famille n’est pas libre)
— A l’inverse la famille est libre.
294
2.5 Détermination du rang d’une famille
On utilise les mêmes notations et on procède de la même manière. Le nombre de pivots non nuls que l’on
obtient correspond au nombre de vecteurs maximal d’une sous-famille libre. C’est donc le rang de la famille
Exercice : Déterminer le rang de la famille
Soit E un espace vectoriel de dimension finie. On appelle dimension d’un sous-espace affine de E la dimension
de sa direction.
Notation :
1. Un sous-espace affine de dimension 1 s’appelle une droite (affine)
2. Un sous-espace affine de dimension 2 s’appelle un plan (affine)
3. Un sous-espace affine de dimension n − 1 s’appelle un hyperplan (affine)
Définition [Link]
Soit E un espace vectoriel de dimension finie. On appelle repère affine la donnée d’un point Ω qui est le centre
−−→
du repère et d’une base B de E. De ce fait pour tout point M de E, on peut décomposer le vecteur ΩM dans la
base B. Ce sont les coordonnées du point M dans le repère (Ω, B ).
295
1
Dénombrements
Ensembles finis et cardinal
21 296
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
1.2 Propriété du cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 298
1.3 Opérations et cardinal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
2 Dénombrements classiques 301
2.1 Applications de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 301
2.2 Applications injectives de E dans F . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
2.3 Parties à p éléments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 303
Définition [Link]
Soit E et F deux ensembles. On dit que E et F sont equipotents s’il existe une bijection ϕ : E → F. On note
E ' F.
Proposition [Link]
Démonstration :
i) Tout ensemble est équipotent à lui-même, il suffit de prendre l’application indentité.
ii) Si E est équipotent à F alors F est équipotent à E. Il suffit en effet de prendre ϕ−1 qui est encore une
bijection.
iii) De même, la composée de deux bijections étant une bijection on en déduit que si E, F et G sont trois
ensembles et que E ' F et F ' G alors E ' G.
296
Cependant, on ne dira pas que c’est une relation d’équivalence car nous ne disposons pas d’ensemble de tous
les ensembles.
Une bijection associe à un élément de l’ensemble de départ un et un seul élément de l’ensemble d’arrivée et
réciproquement. On imagine donc que deux ensembles équipotents doivent avoir le même nombre d’éléments.
Proposition [Link]
Avant de démontrer cette proposition, nous allons avoir besoin d’un lemme.
Si on place quatre paires de chaussettes dans trois tiroirs, un tiroir contient au moins deux paires.
Soit n et p deux entiers et ϕ une application de Fn dans Fp . Si n > p alors ϕ n’est pas injective.
ATTENTION
Le lemme des tiroirs peut aussi s’utiliser par contraposée. Soit n et p deux entiers et ϕ une application
de Fn dans Fp . Si ϕ est injective alors n 6 p.
— Initialisation : Pour p = 0. Pour tout n > 0 il n’y a pas d’applications de Fn dans F0 car F0 est vide et pas
Fn .
— Hérédité : Soit p ∈ N. On suppose H p . On veut montrer H p+1 . Pour cela on se donne n > p + 1 et
ϕ : Fn → Fp et on veut montrer que ϕ n’est pas injective. On considère p + 1 ∈ Fp .
— Si p + 1 a plusieurs antécédent c’est gagné.
— Si p + 1 n’a pas d’antécédents alors ϕ est une fonction de Fn dans Fp et on applique H p .
— Si p + 1 a un unique antécédent α dans Fn . On a n > 1. On construit ϕ̃ de Fn−1 dans Fp en enlevant α
dans Fn et p + 1 dans Fp+1 . Précisément on pose
ϕ(u) si u < α
ϕ̃(u) =
ϕ ( u + 1) si u > α
Corollaire [Link]
297
Démonstration : Remarquons que les deux assertions sont la contraposée l’une de l’autre. Montrons la
deuxième. S’il existe une surjection ϕ de Fn dans Fp alors on peut construire ψ : Fp → Fn telle que pour
tout x de Fp , ϕ(ψ( x )) = x. En effet pour tout x de Fp on choisit pour ψ( x ) un antécédent de x par ϕ. On voit
alors que ψ est injective car pour ( x, x 0 ) ∈ Fp2 :
ψ( x ) = ψ( x 0 ) ⇒ ϕ(ψ( x )) = ϕ(ψ( x 0 )) ⇒ x = x 0 .
Définition [Link]
Soit E un ensemble. On dit que E est un ensemble fini s’il existe un entier n tel que E soit équipotent à Fn . De
plus, dans ce cas cet entier n est unique. On l’appelle le cardinal de E et on le note Card( E). On trouve aussi
les notations | E| et #E.
Remarques :
1. L’unicité découle du fait que s’il existait n et p des entiers distincts tels que E ' Fn et E ' Fp , alors Fn ' Fp
ce qui est impossible.
2. Le cardinal correspond au nombre d’éléments d’un ensemble.
3. En particulier une bijection ϕ entre Fn et E permet de numéroter les éléments de E en posant xi = ϕ(i ).
On a alors E = { x1 , . . . , xn }
Exemple : Soit E = {−2, π, 6, 100000}. On a Card( E) = 4. Par exemple l’application ϕ : [[ 1 ; 4 ]] → E définie
par ϕ(1) = π, ϕ(2) = −2, ϕ(3) = 100000 et ϕ(4) = 6 est une bijection.
Démonstration :
1. Procédons par double implication
— ⇒ :
On veut montrer que si n = Card( E) 6 Card( F ) = p alors il existe une injection de E dans F. On
sait par définition qu’il existe une bijection ϕ E de E dans Fn et une bijection ϕ F de F dans Fp . On
construit d’abord une injection i de Fn dans Fp . On peut prendre par exemple l’application qui associe
i à i. Il ne reste plus qu’à composer. L’application ϕ− 1
F ◦ i ◦ ϕ E est bien une injection (comme composée
d’injections) de E dans F.
E /F
ϕE ϕF
Fn / Fp
— ⇐ : On suppose qu’il existe une injection de E dans F. On garde les même notations. On voit que
ϕ E ◦ i ◦ ϕ− 1
F est une injection de Fn dans Fp . Donc n 6 p d’après le lemme des tiroirs.
298
2. Comme ci-dessus mais en utilisant la propriété sur les surjections.
3. Il suffit d’utiliser que la composition de deux bijections est une bijection.
Corollaire [Link]
Soit f une application de E dans F où E et F sont deux ensembles finis de même cardinal. Les
assertions suivantes sont équivalentes :
i.) L’application f est injective.
ii.) L’application f est surjective.
iii.) L’application f est bijective.
Remarques :
1. Cela fait penser au cas des familles de n vecteurs dans un espace vectoriel de dimension n.
2. Ce résultat est faux si E et F ne sont pas finis ou pas de même cardinal. Par exemple n 7→ n + 1.
Démonstration :
— Montrons que i.) implique ii.) Par contraposée, on est ramené à montrer que si f n’est pas surjective
alors elle n’est pas injective. Soit α un élément de F qui n’a pas d’antécédent (il existe car f n’est pas
surjective). L’application f peut donc être vue comme une application de E dans F \ {α}. Maintenant,
comme | E| > | F \ {α}| on en déduit que f n’est pas injective d’après le proposition précédente.
— Montrons que ii.) implique iii.) Le raisonnement est un peu similaire au précédent. On suppose que f est
surjective. Supposons par l’absurde que f n’est pas bijective (donc pas injective). Soit α un élément ayant
au moins deux antécédents. On note x1 et x2 deux de ces antécédents. Alors f˜ la restriction de f à E \ { x1 }
est encore surjective ce qui est absurde car Card( E \ { x1 }) < Card( E).
Corollaire [Link]
Soit E un ensemble fini et A une partie de E (A ∈ P ( E)). Alors A est un ensemble fini et Card( A) 6
Card( E). De plus, dans ce cas on a A = E ⇔ Card( A) = Card( E).
Ne pas faire
Démonstration : Il suffit de remarquer qu’il y a une injection i de A dans E. Si ϕ est une bijection de E vers Fn
où n = Card( E). On note X ⊂ E l’image de ϕ ◦ i. Alors A est en bijection avec X. Maintenant X est un ensemble
fini de cardinal inférieur à n. Il suffit de renuméroter ses éléments par ordre croissant. Dans la deuxième partie,
le sens ⇒ est évident et le sens ⇐ découle de ce qui précède.
299
1. On suppose qu’il existe ϕ A : A → Fn et ϕ B : B → Fp des bijections. On construit alors
ψ: A∪B → Fn+ p
ψA (x) si x ∈ A
x 7→
n + ψB ( x ) sinon
Corollaire [Link]
n
Soit E un ensemble fini et ( Ai )i∈[[ 1 ; n ]] une partition. Card( E) = ∑ Card( Ai ).
i =1
Dessin avec des patates pour faire deviner les formules pour Card( A ∪ B ∪ C ) et Card( A ∪ B ∪ C ∪ D ).
Proposition [Link]
Corollaire [Link]
Soit E un ensemble fini. Pour tout entier naturel p non nul, Card( E p ) = Card( E) p .
300
2 Dénombrements classiques
2.1 Applications de E dans F
Proposition [Link]
Démonstration : Il suffit de remarquer que si l’on note E = { x1 , . . . , x p } (via une bijection de E dans Fp ) alors
FE → Fp
f 7→ ( f ( x1 ), . . . , f ( x p ))
ATTENTION
Par contre cela ne correspond pas à une application dans l’autre sens. On associe pas à une boite une
boule car il y a des boites avec plusieurs boules et à l’inverses des boites sans boules
3. On dispose d’une urne avec 10 boules numérotées. On tire dedans 5 boules avec ordre et remise. Un
tirage peut alors être vu comme une application de [[ 1 ; 5 ]] dans l’ensemble B des boules. Il y a donc 105
tirages possibles. Ce sont des tirages avec ordre et avec repetitions.
Soit E un ensemble. On associe à toute partie A de E une application χ A de E dans {0, 1} définie par
1A = χA : E → {0, 1}
1 si x ∈ A
x 7→
0 sinon.
Proposition [Link]
Φ: P ( E) → {0, 1} E Ψ : {0, 1} E → P ( E)
et
A 7→ χA f 7→ f −1 ({1})
301
Démonstration : Il suffit de vérifier que ∀ A ∈ P ( E), (Ψ ◦ Φ)( A) = χ− 1
A ({1}) = A. On a bien Ψ ◦ Φ = IdP ( E) .
De même Φ ◦ Ψ = Id{0,1}E .
Exercice : Soit E = {0, 1, 2}. Vérifier que P ( E) a bien 8 éléments et exhiber les bijections ci-dessus entre P ( E),
{0, 1} E et {0, 1}3 .
Soit E et F deux ensembles finis. On note p = Card( E) et n = Card( F ). L’ensemble des applications
injectives de E dans F est une partie de F E . En particulier il est fini. De plus, il est en bijection avec
l’ensembles des p-listes d’éléments de E deux à deux disjoints . Son cardinal est
n!
p = n(n − 1) · · · (n − p + 1) si p 6 n
An = (n − p)!
0 sinon.
Définition [Link]
Soit E un ensemble fini. On appelle permutation de E une application bijective de E dans lui même. On note
SE l’ensemble des permutations de E.
Remarque : Cela correspond à la notion intuitive de permutation. En effet, si on note E = { x1 , . . . , xn } (via une
bijection de E dans Fn ) on associe à tout permutation f de E le n-uplet ( f ( x1 ), . . . , f ( xn )) qui est une écriture
des éléments x1 , . . . , xn dans un autre ordre.
Proposition [Link]
Démonstration : ll suffit de remarquer que comme E à le même cardinal que E alors une application bijective
de E dans E est la même chose qu’une application injective. D’où Card(SE ) = Ann = n!
302
2.3 Parties à p éléments
Définition [Link]
Soit E un ensemble fini de cardinal n et p un entier naturel on note P p ( E) l’ensemble des parties de E de
cardinal p. On a
P p ( E) = { X ∈ P ( E) | Card( X ) = p}.
n
L’ensemble P p ( E) est fini et on note son cardinal.
p
p n
Notation : on trouve encore couramment la notation Cn pour .
p
Proposition [Link]
Démonstration : On pourrait dire qu’une même combinaison donne lieu à p! arrangements (les p! permutations
correspondent à toutes les manières d’ordonner les p éléments) et que de ce fait
p
n A
= n.
p p!
Par exemple écrivons les pour p = 3 et n = 4. Cependant nous allons faire une démonstration rigoureuse. Pour
cela nous allons avoir besoin d’un lemme
Lemme [Link] (Formule de Pascal)
n
Démonstration du lemme : Rappelons au préalable que pour le moment ne désigne que le cardinal de
p
P p ( E). On ne connaît pas encore la formule.
Notons d’abord que si p > n alors tous les termes sont nuls. On suppose donc que p 6 n. On considère un
ensemble E à n + 1 éléments. Prenons par exemple E = [[ 1 ; n + 1 ]]. On cherche à dénombrer les partie de E de
cardinal p + 1. On sépare alors ses parties en deux.
n
— soit n + 1 est dedans, et il reste alors à choisir les p autres éléments parmi [[ 1 ; n ]] . Il y a donc telles
p
parties.
n
— soit n + 1 n’est pas dedans, et il reste alors à choisir les p + 1 éléments parmi [[ 1 ; n ]] . Il y a donc
p+1
telles parties.
n+1 n n
Cela forme une partition. On a donc = + .
p+1 p+1 p
n
Démonstration de la proposition : On va donc montrer par récurrence que ∀n ∈ N, « ∀ p ∈ [[ 0 ; n ]] , =
p
n!
. ».
p!(n − p)!
— Initialisation : pour n = 0 on a (00) = 1. Pour n = 1 on a (10) = (11) = 1.
303
n n!
— Hérédité : Soit n un entier fixé. On suppose que ∀ p ∈ [[ 0 ; n ]] , = . Soit p ∈ [[ 0 ; n + 1 ]]. Si
p p! ( n − p)!
n+1 ( n + 1) !
p = 0, =1= .
0 ( n + 1) !
Si p > 0, on utilise la formule de Pascal :
n+1 n n
= +
p p p−1
n! n!
= +
p!(n − p)! ( p − 1)!(n − p + 1)!
n!(n − p + 1) n!p
= +
p!(n − p + 1)! p!(n − p + 1)!
n!(n + 1)
=
p!(n − p + 1)!
( n + 1) !
=
p!(n − p + 1)!
n n!
Donc, par récurrence, ∀n ∈ N, ∀ p ∈ [[ 0 ; n ]] , = .
p p!(n − p)!
Remarques :
1. La formule de Pascal permet de construire le triangle de Pascal qui permet de calculer simplement les
coefficients binomiaux.
!! p
!! 0 1 2 3 4 5 6
n !
0 1
1 1 1
2 1 2 1
3 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
6 1 6 15 20 15 6 1
Proposition [Link]
304
2. On dispose d’une urne avec 10 boules numérotées. On tire dedans 5 boules sans ordre et sans remise. Un
tirage peut alors être vu comme une partie à 5 éléments de l’ensemble B des boules. Il y a donc (10
5 ) tirages
possibles. Ce sont des tirages sans ordre et sans repetitions.
3. Soit E un ensemble à n éléments. On note Pk = { A ⊂ E | Card( A) = k}. On a alors
n
[
P ( E) = Pk ( E ).
k =0
5. Soit (n, p) ∈ N2 . On note SC( p, n) l’ensemble des applications strictement croissantes de [[ 1 ; p ]] dans
[[ 1 ; n ]] . Se donner une application croissante revient à se donner les p éléments de [[ 1 ; n ]] qui sont les les
images. On en déduit que
n
Card(SC( p, n)) = .
p
On note de même C(p,n) les applications croissantes de [[ 1 ; p ]] dans [[ 1 ; n ]] . On peut remarquer que
Φ: C(p,n) → C(p,n+p-1)
f 7 → ( Φ ( f ) : x 7 → f ( x ) + x − 1)
305
Applications
22
linéaires
1 Applications linéaires 306
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
1.2 Applications linéaires et sous-espaces vectoriels . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308
1.3 Composition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
2 L’ensemble des applications linéaires 309
2.1 Structure de L ( E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
2.2 Structure de L ( E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 310
2.3 Ensemble GL( E) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 312
3 Elements remarquables de L ( E) 313
3.1 Sous-espaces stables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
3.2 Projecteurs et symétries . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 313
4 Applications linéaires données dans une base 316
4.1 Caractérisation d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316
4.2 Caractérisation des isomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 317
4.3 Dimension de L ( E, F ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 318
4.4 Théorème du rang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
4.5 Formes linéaires et hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 322
Dans ce chapitre K désigne encore un corps le plus souvent égal à R ou C (voire Q).
1 Applications linéaires
1.1 Définitions
On va définir une application linéaire entre deux K-espace vectoriel comme une application qui « préserve
la structure ».
306
Définition [Link]
Soit E et F deux K-espaces vectoriels. On appelle application linéaire toute application f de E dans F telle que
Remarque : Le corps des scalaires K doit être le même pour les deux espaces vcetoriels.
Terminologie :
1. On note L ( E, F ) l’ensemble des applications linéaires de E dans F.
2. Une application linéaire de E dans E est un endomorphisme de E et on note L ( E) pour L ( E, E).
3. Une application linéaire bijective de E dans F s’appelle un isomorphisme.
4. Une application linéaire bijective de E dans lui même s’appelle un automorphisme de E. On note GL( E)
l’ensemble des automorphismes.
5. Une application linéaire de E dans K s’appelle une forme linéaire. L’ensemble des formes linéaires sur E
se note E? et s’appelle l’espace dual de E.
Remarque : On voit que si f est une application linéaire, f (0E ) = f (0.0E + 0.0E ) = 0 f (0E ) + 0 f (0E ) = 0F .
Exemples :
1. Cherchons les applications linéaires de K dans lui même. Si on note α = f (1) alors pour tout x dans K,
f ( x ) = f ( x.1) = x. f (1) = αx. On voit donc que les applications linéaires de K dans K sont les applications
linéaires....
2. Soit E et F des espaces vectoriels. L’application nulle de E dans F est linéaire.
3. Soit E un espace vectoriel. L’application identité de E dans lui même qui associe u à u est linéaire. On
l’appelle application identité. Elle se note IdE .
4. Soit E un espace vectoriel. Soit λ ∈ K. On appelle homothétie de rapport λ l’application linéaire λIdE :
u 7→ λ.u.
5. Soit f : R2 → R3 définie par f ( x, y) = ( x + 2y, x − y, 3x ). C’est une application linéaire.
6. La dérivation ∆ : K[ X ] → K[ X ] définie par ∆( P) = P0 est un endomorphisme de K[ X ]. On peut aussi
définir ∆n de Kn [ X ] dans lui même ou de Kn [ X ] dans Kn−1 [ X ].
7. Si on appelle C ∞ l’ensemble des fonctions indéfiniment dérivables. On peut définir ∆ sur C ∞ .
Z b
8. Soit E = C 0 (R, R). Pour tout ( a, b) ∈ R2 , l’application ϕ : f 7→ f est une application linéaire de E dans
a
R.
9. L’application pi de Kn dans K qui associe à ( x1 , . . . , xn ) l’élément xi est une forme linéaire. On l’appelle la
i-ème projection.
10. Soit ( x1 , . . . , xn ) ∈ Kn deux à deux distincts. L’application
K[ X ] → Kn
P 7→ ( P( x1 ), . . . , P( xn ))
est linéaire.
Théorème [Link]
Démonstration :
307
1. Par récurrence sur n.
2. Soit w dans E. Il existe (u1 , . . . , un ) des vecteurs de F et λ1 , . . . , λn des scalaires tels que
n
w= ∑ λk uk .
k =1
Dès lors
n n
f (w) = ∑ λ k f ( u k ) = ∑ λ k g ( u k ) = g ( w ).
k =1 k =1
Démonstration
Définition [Link]
Ker f = {u ∈ E | f (u) = 0F }.
Exemples :
2 3
l’application f : ( x + 2y, x − y, 3x ) de R dans R . On peut déterminer Ker f en résolvant
1. Si on considère
x + 2y = 0
le système x − y = 0 On trouve que Ker f = {0}. Pour Im f . On voit que, par définition, Im f =
3x = 0
Vect(1, 1, 3), (2, −1, 0).
2. Pour ∆ : K[ X ] → K[ X ], on a Ker ∆ = K0 [ X ] et Im ∆ = K[ X ]. Par contre, Im ∆n = Kn−1 [ X ].
Proposition [Link]
Soit E et F deux espaces vectoriels et f ∈ L ( E, F ). On suppose que (ui )i∈ I est une famille génératrice
de E. On a alors
Im f = Vect( f (ui )i∈ I .
Proposition [Link]
308
Proposition [Link]
Démonstration
Exemples :
1. Si on considère E = C 2 (R, C) et D : f 7→ ay00 + by0 + cy. On trouve alors que D est linéaire et la proposition
précédente redonne la structure des solutions des équations différentielles linéaires du second ordre.
2. Si on considère ( x1 , . . . , xn ) ∈ Kn deux à deux distincts et Φ l’application
Φ: K[ X ] → Kn
P 7→ ( P( x1 ), . . . , P( xn ))
On voit alors que si on se donne Y = (y1 , . . . , yn ) ∈ Kn , on sait que le polynôme interpolateur de Lagrange
L ∈ Kn−1 [ X ] vérifie l’équation Φ( P) = Y. De ce fait, l’ensemble des solutions est L + Ker Φ. De plus,
n
Ker Φ est l’ensemble des polynômes s’annulant en tous les xi . C’est -à-dure les mulitples de ∏( X − xi ).
i =1
1.3 Composition
Proposition [Link]
Démonstration
Proposition [Link]
Corollaire [Link]
Démonstration
309
2.1 Structure de L ( E, F )
Dans ce paragraphe on se fixe E et F deux sous-espaces vectoriels
Proposition [Link]
Démonstration
Corollaire [Link]
Proposition [Link]
Démonstration
Remarque : L’application :
◦ : L ( E, F ) × L ( F, G ) → L ( E, G )
( f , g) 7→ g◦ f
est linéaire à droite (en f ) et à gauche (en g). On dit qu’elle est bilinéaire.
2.2 Structure de L ( E)
Le cas de L ( E) est un cas particulier de L ( E, F ). C’est donc aussi un espace vectoriel. Cependant L ( E) a
une autre opération interne : la composition.
Proposition [Link]
Démonstration :
— On sait que L ( E) est un espace vectoriel c’est donc, en particulier un groupe abélien pour +.
— La loi ◦ est une loi de composition interne de L ( E) et elle est associative.
— L’application IdE est un élément neutre pour ◦.
— Soit ( f , g, h) ∈ L ( E)3 ,
( f + g) ◦ h = f ◦ h + g ◦ h (par définition)
et
f ◦ ( g + h) = f ◦ g + f ◦ h (par linéarité).
310
ATTENTION
Comme dans tout anneau on peut définir les puissances. Pour tout f dans L ( E) et k ∈ N, on pose f k =
f ◦ f ◦ · · · ◦ f . C’est-à-dire : 0
f = IdE
f p = f ◦ f p−1 si p > 0
Définition [Link]
Soit K un corps. On appelle K-algèbre, un ensemble E muni de deux lois de compositions internes (notées +
et ×) et d’une loi de composition externe (noté .) telles que
— On a ( E, +, .) est un K-espace vectoriel.
— On a ( E, +, ×) est un anneau.
— Les deux multiplications sont compatibles : ∀(λ, µ) ∈ K2 , ∀( x, y) ∈ E2 , (λ.x ) × (µ.y) = (λµ).( x ×
y ).
Remarque : Nous demandons ici plus que la définition classique d’algèbre qui ne nécessite par que la multi-
plication soit associative ni qu’il existe un élément neutre pour la multiplication. Cependant c’est ce cadre qui
nous sera utile ici.
Remarque : On voit que K[ X ] est une K-algèbre.
Proposition [Link]
Démonstration : Il suffit juste de vérifier la compatibilité des multiplications. Soit λ, µ des scalaires et f , g des
endomorphismes de E.
311
Définition [Link]
n
Soit P un polynôme de K[ X ] et f ∈ L ( E). On note P = ∑ ak X k . On note alors
k =0
n
P( f ) = ∑ ak f k .
k =0
ay00 + by0 + cy = 0.
Proposition [Link]
Soit ( P, Q) ∈ K[ X ]2 , f ∈ L ( E) et λ ∈ K. On a
n
Démonstration : Faisons le cas de ( P × Q)( f ) = P( f ) ◦ Q( f ). Si on note P = ∑ ak X k . On a donc
k =0
n
( P × Q) = ∑ a k ( X k Q ).
k =0
D’où
n
( P × Q)( f ) = ∑ ak ( f k ◦ Q( f )) = P( f ) ◦ Q( f ).
k =0
Soit f un endomorphisme de E.
f est inversible (dans l’anneau L ( E)) ⇐⇒ f est bijective.
312
Proposition [Link]
L’ensemble (GL( E), ◦) est un groupe. Son élément neutre est IdE .
Proposition [Link]
3 Elements remarquables de L ( E)
Dans tout ce chapitre on se fixe un espace vectoriel E.
∀u ∈ F, f (u) ∈ F.
Exemple : Soit ∆ : K[ X ] → K[ X ] l’endomorphisme de dérivation. Soit F = Kn [ X ]. Il est stable par ∆. Par contre,
G = { P ∈ K[ X ] | P(0) = 0} n’est pas stable par ∆.
Définition [Link]
Soit f ∈ L ( E) et F un sous-espace vectoriel de E stable par f . On appelle endomorphisme induit par f sur F
et on note f | F l’endomorphisme de F défini par u 7→ f (u).
Démonstration : Notons p l’application de E dans E définie comme ci-dessus. Montrons que c’est un endomor-
phisme de E. Soit λ1 , λ2 deux scalaires et u1 , u2 deux vecteurs de E. On sait que u1 et u2 s’écrivent uniquement
sous la forme
u1 = v1 + w1 et u2 = v2 + w2
où v1 , v2 sont dans F et w1 , w2 dans G. Par définition, v1 = p(u1 ) et v2 = p(u2 ). On a alors
λ 1 u 1 + λ 2 u 2 = ( λ 1 v 1 + λ 2 v 2 ) + ( λ 1 w1 + λ 2 w2 ) .
p ( λ1 u1 + λ2 u2 ) = λ1 v1 + λ2 v2 = λ1 p ( u1 ) + λ2 p ( u2 ).
313
Exemples :
1. Soit E = R3 . On pose F = {( x, y, z) ∈ R3 | x + y − z = 0} et G = Vect(1, 2, 1). On trouve alors
1 1
p( x, y, z) = ( x, y, z) + (− x − y + z)(1, 2, 1) = ( x − y + z, −2x + 2z, − x − y + 3z).
2 2
2. Soit E = C 0 (R, K). Si on considère P et I l’ensemble des fonctions paires et impaires. On sait que
P ⊕ I = E. De plus, pour tout fonction f , la projection sur P parallèlement à I est p( f ) : x 7→
f ( x ) + f (− x )
.
2
3. Soit E = Kn . On note Hi = {( x1 , . . . , xn ) | xi = 0} et ∆i = Vectei . La projection sur ∆i parallèlement à Hi
est u 7→ pi (u)ei où pi est la i-ème projection.
Proposition [Link]
Démonstration
Définition [Link]
Proposition [Link]
Remarques :
1. On trouve cette caractérisation comme définition d’un projecteur.
2. On dit que p est un idempotent de L ( E).
3. On en déduit par une récurrence immédiate que pour tout entier k non nul, pk = p.
Démonstration :
— ⇒ Soit p une projection sur un sous-espace vectoriel F. Pour tout vecteur u de E, p(u) ∈ F. On en déduit
que p2 (u) = p( p(u)) = p(u) car on a vu qu’un projection sur F laissait invariant les éléments de F.
— ⇐ Soit p un endomorphisme vérifiant p2 = p. C’est plus délicat car il faut « trouver » les sous-espaces
vectoriels F et G. On pose F = Imp et G = Ker p. Montrons que F et G sont supplémentaires.
— Soit u ∈ F ∩ G. On sait que u ∈ Im p. Il existe donc v tel que u = p(v). D’où p(u) = p( p(v)) =
p(v) = u. Or u ∈ Ker p donc p(u) = 0 et u = 0.
— Soit u ∈ E. On remarque que u = p(u) + (u − p(u)). Or p(u) ∈ F et u − p(u) ∈ G car p(u − p(u)) =
p(u) − p2 (u) = 0.
Maintenant, Tout vecteur u de E s’écrit v + w avec v ∈ F et w ∈ G. On a alors
314
Proposition-Définition [Link]
Soit F et G deux sous-espaces vectoriels de E tels que F ⊕ G = E. On appelle symétrie par rapport F
parallèlement à G l’unique endomorphisme s de E qui associe à un vecteur u le vecteur u − w où
u = v + w avec v ∈ F et w ∈ G. En particulier s = 2p − IdE où p est la projection sur F parallèlement
à G.
2. Soit E = C 0 (R, K). Si on considère P et I l’ensemble des fonctions paires et impaires. On sait que
P ⊕ I = E. De plus, pour tout fonction f , la symétrie par rapport à P parallèlement à I est s( f ) : x 7→
f (− x ).
Proposition [Link]
Démonstration
Remarque : On voit alors que F et G sont stables par s et que s| F = IdF et s|G = −IdG .
Définition [Link]
On appelle symétrie de E toute symétrie par rapport à un espace vectoriel F de E parallèlement à un supplé-
mentaire de F.
Proposition [Link]
Remarques :
1. On trouve cette caractérisation comme définition d’une symétrie.
2. On dit que s est un élément involutif de L ( E).
Démonstration :
— ⇒ Soit s une symétrie par rapport à sous-espace vectoriel F. Pour tout vecteur u de E, on pose u = v + w
avec v ∈ F et w ∈ G. On a alors :
315
1
— ⇐ Il suffit de poser p = (s + IdE ). On a alors
2
1 2 1
p2 = (s + 2s + IdE ) = (s + IdE ) = p.
4 2
On en déduit que p est un projecteur sur F (avec F = Ker ( p − IdE ) = Ker (s − IdE )) parallèlement à G
(avec G = Ker p = Ker (s + IdE )).Comme maintenant on a s = 2p − IdE on en déduit bien que s est la
symétrie par rapport à F et parallèlement à G.
Soit (ui )i∈ I une base de E. Soit (vi )i∈ I une famille d’un espace vectoriel F. Il existe une unique
application linéaire f de E dans F telle que
∀i ∈ I, f (ui ) = vi .
u= ∑ λi ui et u0 = ∑ λi0 ui
i∈ I i∈ I
alors
αu + βu0 = ∑(αλi + βλi0 )ui .
i∈ I
On en déduit
!
0
f (αu + βu ) = f ∑(αλi + βλi0 )ui
i∈ I
= ∑(αλi + βλi0 )vi
i∈ I
! !
n
= α ∑ λi vi +β ∑ λi0 vi
i∈ I i =1
= α f ( u ) + β f ( u 0 ).
Exemples :
316
1. On peut définir une application linéaire de R3 dans R2 en demandant que f (1, 0, 0) = (2, 8), f (0, 1, 0) =
(−4, 0) et f (0, 0, 1) = (−1, 1). Dans ce cas,
2. Il existe une unique application linéaire de R2 dans R2 telle que f (1, 1) = (−4, 1) et f (1, −1) = (2, 0).
Corollaire [Link]
où
f (e1 ) = f (1, 0, . . . , 0) = ( a11 , . . . , a p1 ), . . . , f (en ) = f (0, 0, . . . , 0, 1) = ( a1n , . . . , anp ).
Proposition [Link]
Lp
On se donne E1 , . . . E p des sous-espaces vectoriels de E tels que E = i∈1 Ei ainsi que pour tout
i ∈ [[ 1 ; p ]] une application ui ∈ L ( Ei , F ). Il existe une unique application linéaire u de E dans F
telle que
∀i ∈ [[ 1 ; p ]] , u|Ei = ui .
Remarque : C’est une généralisation du cas précédent. Ce dernier étant obtenu en prenant Ei = Vectui . La
démonstration est analogue.
Afin de ne pas avoir de problèmes sur les existences de bases ou de supplémentaires, on se place
désormais dans le cadre des espaces vectoriels de dimension finie.
Proposition [Link]
Démonstration :
— ii.) ⇒ i.) est evident.
— i.) ⇒ iii.). Soit (ui ) une base de f telle que ( f (ui )) est une famille libre. On veut montrer que f est injective.
On calcule donc Ker f . Soit w = ∑ λi ui . On suppose que f (w) = 0 ce qui donne ∑ λi f (ui ) = 0. Or la
i
famille est libre d’où ∀i ∈ [[ 1 ; n ]] , λi = 0. On a bien w = 0.
— iii.) ⇒ ii.) On suppose que f est injective et que (ui ) est une base de E. On!veut montrer que ( f (ui ))
est libre. Soit λi tels que ∑ λi f (ui ) = 0. On a donc, par linéarité, f ∑ λi ui = 0. L’application étant
i i
injective, ∑ λi ui = 0. On conclut en utilisant que la famille (ui ) est libre car c’est une base de E.
i
317
On a les propriétés analogues
Proposition [Link]
Démonstration : En exercice
Proposition [Link]
Corollaire [Link]
Soit E et F deux espaces vectoriels de dimension finie. Ils sont isomorphes si et seulement s’ils ont la
même dimension. En particulier, tout K espace vectoriel de dimension n est isomorphe à Kn .
Exemple : L’espace vectoriel Kn [ X ] est isomorphe à Kn+1 . Un isomorphisme est donné par
ϕ : X k 7 → e k +1 .
4.3 Dimension de L ( E, F )
On a vu que L ( E, F ) était un espace vectoriel. On va montrer que si E et F sont de dimension finie alors
L ( E, F ) aussi. On va commencer par le cas ou F = K c’est-à-dire, le cas de l’espace dual E? de E.
Définition [Link]
Soit E un espace vectoriel de dimension finie et (ui )16i6n une base de E. On définit des formes linéaires f i par
Proposition [Link]
n
Avec les notations précédentes, pour tout vecteur w = ∑ λi ui , on a
i =1
∀i ∈ [[ 1 ; n ]] , ui∗ (w) = λi
318
Remarque : La forme linéaire ui∗ donne donc la coordonnées selon le vecteur ui de la décomposition d’un
vecteur dans la base.
Exemples :
1. Soit E = Kn . On considère la base canonique (e1 , . . . , en ). On a
ei? : ( x1 , . . . , xn ) 7→ xi .
Proposition [Link]
Avec les notations précédentes les (ui∗ )16i6n forment une base de E? . En particulier, dim E? = dim E.
Démonstration
Définition [Link]
Avec les notations précédentes, la base (ui∗ ) s’appelle la base duale de la base (ui ).
Proposition [Link]
∀k ∈ [[ 1 ; n ]] f ij (uk ) = δik v j .
Démonstration
Remarque : On voit donc que si (u1 , . . . , un ) est une base de E (ou une famille génératrice),
Proposition [Link]
Démonstration :
1. On sait que Im f est un sev de F. D’où rg ( f ) = dim Im f 6 dim F. De plus,
319
f surjective ⇐⇒ Im f = F ⇐⇒ rg ( f ) = dim Im f | = dim F.
2. On sait que si (u1 , . . . , un ) est une base de E alors Im f = Vect( f (u1 ), . . . , f (un )). On en déduit que Im f a
une famille génératrice avec n vecteurs donc sa dimension, qui est le rang de f , est inférieure à n = dim E.
De plus
Soit f une application linéaire de E dans F. Soit S un supplémentaire de Ker f , l’application f induit
un isomorphisme de S sur Im f . En particulier,
Remarques :
1. Il faut savoir écrire et reconnaitre la formule sous toutes ses formes. Par exemple, dim Ker f + dim Im f =
dim E.
2. La première partie du théorème se généralise au cas où les espaces vectoriels ne sont pas de dimension
finie.
ATTENTION
Même dans le cas d’un endomorphisme, on n’a pas toujours que Ker f ⊕ Im f = E car, à priori,
Ker f ∩ Im f n’est pas réduit à {0}.
Démonstration : Soit S un supplémentaire de Ker f et f˜ l’application induite par f sur S à valeurs dans Im f .
— Soit u ∈ Ker f˜. On a donc u ∈ S et de plus f˜(u) = f (u) = 0. Donc u ∈ Ker f . D’où u = {0} car
S ∩ Ker f = {0}. L’application f˜ est injective.
— Soit v ∈ Im f . Il existe, par définition u dans E tel que f (u) = v. On décompose u = u1 + u2 avec u1 ∈ Ker f
et u2 ∈ S. On a alors f (u2 ) = v et donc v ∈ Im f˜. Donc f˜ est surjective.
On a bien f˜ qui est bijective. De ce fait, rg f = dim Im f = dim S = dim E − dim Ker f .
Exemples :
1. Soit ∆ : Kn [ X ] → Kn [ X ] la dérivation. On sait que Ker ∆ = K0 [ X ] et S = { P ∈ Kn [ X ] | P(1) = 0} est un
supplémentaire. De plus Im f = Kn−1 [ X ] d’où
e : S → Kn [ X ]
∆ 1
X k +1 − 1
est un isomorphisme. Sa réciproque et l’unique primitive qui s’annule en 1 définie par X k 7→ .
( k + 1) !
2. On a vu quand on a résolu l’équation différentielle linéaire
quelle forme on pouvait prendre prendre pour la solution particulière. On peut justifier ce résultat ici. On
suppose que m est racine simple de aX 2 + bX + c. On pose
En = {t 7→ P(t)emt | P ∈ Cn [ X ]}.
320
On a f k0 = k f k−1 + m f k et f k00 = k(k − 1) f k−2 + 2mk f k−1 + m2 f k . On en déduit que
Corollaire [Link]
Soit f une application linéaire de E dans F avec dim E = dim F. Les assertions suivantes sont
équivalentes.
i.) L’application f est injective.
ii.) L’application f est surjective.
iii.) L’application f est bijective.
Remarques :
1. Cela s’applique en particulier au cas des endomorphismes.
2. Dans la pratique pour montrer qu’une application linéaire est bijective on montre souvent qu’elle est
injective quand on sait que dim E = dim F.
Corollaire [Link]
Soit f un endormorphisme de E. S’il existe g tel que f ◦ g = IdE (ou g ◦ f = IdE ) alors f est un
automorphisme.
et que
(∃ g ∈ L ( E), g ◦ f = IdE ) ⇒ f est injective
Proposition [Link]
Remarque : Cela signifie que l’on ne modifie pas le rang d’une application linéaire en composant à droite ou à
gauche par un isomorphisme.
Démonstration : Étudions Im ( g ◦ f ).
Im ( g ◦ f ) = { g( f (u)) | u ∈ E} = g(Im f ).
321
4.5 Formes linéaires et hyperplans
On se donne E un espace vectoriel.
Définition [Link]
Proposition [Link]
Si E est de dimension finie avec dim E = n. Les hyperplans sont les espaces vectoriels de dimension
n − 1.
Démonstration :
— Si H est un hyperplan et f une forme linéaire telle que H = ker f , le théorème du rang nous dit que
dim H = n − 1 car rg ( f ) = 1.
— Soit H un sous-espace vectoriel de dimension n − 1. On considère une base (u1 , . . . , un−1 ) de H. On peut
la compléter en une base (u1 , . . . , un−1 , un ) de E. Il suffit de prendre f = u∗n la forme coordonnée.
Proposition [Link]
Démonstration : Soit a un vecteur non nul de D. On a D = Vect( a). Comme D n’est pas contenue dans H
alors H ∩ D = {0}. On en déduit que H et D sont en somme directe. Soit f maintenant une forme linéaire qui
définie H. On a f ( a) 6= 0 et, quitte à diviser par f ( a) on peut supposer que f ( a) = 1. Dès lors, pour tout vecteur
x de E
x = f (x)a + x − f (x)a
où f ( x ) a ∈ D et x − f ( x ) a ∈ H.
Proposition [Link]
Démonstration :
— ⇐ Evident.
— ⇒ Soit D = Vect(u) un supplémentaire de H. On a f (u) et g(u) qui sont non nuls donc il existe λ tel
que f (u) = λg(u). Maintenant tout vecteur w s’écrit w1 + αu où w1 ∈ H. Il suffit alors de faire le calcul.
Remarque : Cela revient à dire que deux équation d’un même hyperplan sont les mêmes à une constante
multiplicative près.
ATTENTION
322
Corollaire [Link]
Démonstration : Il suffit de prendre une forme linéaire f admettant H pour hyperplan et de poser λi = f (ui ).
Exemple : Soit E = Kn [ X ] et H = { P ∈ E | P(0) = P(2)}. On voit que H est un hyperplan de E car c’est le
noyau de la forme linéaire f : P 7→ P(2) − P(0). Dans la base canonique, on a f ( X k ) = 2k . D’où
H = {∑ ak X k | ∑ 2k a k = 0 } .
k k
Proposition [Link]
2. On pose p = n − m et on considère une base (u1 , . . . , u p ) une base de F. On sait que cette base se complète
en une base de E et on note (u1 , . . . , u p , u p+1 , . . . , un ) la base obtenue. Si on considère les m formes linéaires
u∗p+1 , . . . , u∗n on peut alors définir F dans E par
F = {w ∈ E | ∀i ∈ [[ p + 1 ; n ]] ui∗ (w) = 0}
323
Intégration et
23
formules de Taylor
1 Continuité uniforme 325
1.1 Definition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
1.2 Fonction lipshitzienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 325
1.3 Théorème de Heine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
2 Fonctions en escalier et fonctions continues par morceaux 326
2.1 Subdivisions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 326
2.2 Fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 327
2.3 Fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 328
3 Construction de l’intégrale 329
3.1 Intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 329
3.2 Propriétés de l’intégrale des fonctions en escalier . . . . . . . . . . . . . . . . . . . . . . . . . . . 330
3.3 Intégrales des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 331
4 Propriétés de l’intégrale des fonctions continues par morceaux 332
4.1 Linéarité et relation de Chasles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332
4.2 Positivité et corrollaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333
4.3 Cas des fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
4.4 Invariance par translation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
5 Sommes de Riemann et méthodes des trapèzes 336
5.1 Somme de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
5.2 Méthode des trapèzes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
6 Primitives 338
6.1 Généralisation de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
6.2 Cas des fonctions continues par morceaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339
6.3 Cas des fonctions continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
7 Calculs 340
7.1 Primitives de fonctions rationnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
7.2 Primitives se ramenant à une primitive de fraction rationnelle . . . . . . . . . . . . . . . . . . . 342
8 Formules de Taylor 344
8.1 Formule de Taylor avec reste intégral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344
8.2 Inégalité de Taylor-Lagrange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
324
8.3 Formule de Taylor-Young . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
9 Extension au fonctions à valeurs complexes 347
9.1 Definitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
9.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347
Nous allons définir l’intégrale des fonctions. L’intuition principale est de dire que si f est une fonction
Rb
continue positive sur [ a, b] alors a f sera l’aire du domaine défini par {( x, y) ∈ R2 | x ∈ [ a, b], 0 6 y 6 f ( x )}.
Nous allons commencer par étudier le cas en escaliers qui sont constantes par morceaux et dont l’intégrale sera
donc « une somme d’aire de rectangles ».
1 Continuité uniforme
1.1 Definition
Définition [Link]
Soit I un intervalle et f une fonction définie sur I. On dit que f est uniformément continue si
Proposition [Link]
Démonstration : Soit x dans I. On veut montrer que f est continue en x. C’est vrai car pour tout ε > 0 on peut
prendre le η de la définition de l’uniforme continuité.
Remarque : On voit que l’uniforme continuité est « plus forte ». En effet, dans ce cas le η ne dépend que de ε et
plus de x.
Exemples :
1. Soit f : x 7→ x2 définie sur I = [0, 1]. Elle est uniformément continue. En effet ∀( x, y) ∈ I 2 , | x2 − y2 | =
| x − y|| x + y| 6 2| x − y|. Donc pour tout ε > 0 il suffit de choisir η = ε/2.
2. Soit g : x 7→ x2 définie sur R. Elle n’est plus uniformément continue. Montrons le. Il faut montrer que
On peut prendre ε = 1. Ensuite pour tout η on cherche x et y tels que | x − y| 6 η et | x − y|| x + y| > 1. Il
suffit de prendre x > 1/η et y = x + η.
Soit f une fonction définie sur un intervalle I. On dit que f est lipschitzienne s’il existe un réel strictement
positif k tel que
∀( x, y) ∈ I 2 , | f ( x ) − f (y)| 6 k| x − y|.
On dit alors que f est k-lipschitzienne.
Exemples :
1. On a vu que la fonction x 7→ x2 sur [0, 1] était lipschitzienne. Par contre ce n’est plus vrai sur R.
325
2. La fonction sin est 1-lipschitzienne. En effet pour tout x, y dans R2
x−y x+y x−y
| sin( x ) − sin(y)| = 2 sin cos 6 2 sin 6 | x − y |.
2 2 2
Proposition [Link]
Remarque
√ : Il existe des fonctions uniformément continue mais qui ne sont pas lipschitzienne. Par exemple
x 7→ x. Elle n’est pas lispchtzienne car
√ √
x− y 1
= √ √
x−y x+ y
Donc si x et y sont très proches de 0, ce rapport est aussi grand que l’on veut. √ √ √
Cependant elle est uniformément continue en effet si on remarque que pour tout x > y, x − y 6 y − x.
√ √ √
Cela se prouve en étudiant sur [y, +∞[ la fonction x 7→ y − x + y − x. On a donc Dès lors pour tout ε > 0
on peut prendre η = ε2 .
En conclusion
Soit f une fonction continue sur un segment. Elle est uniformément continue.
Démonstration : On procède par l’absurde. Soit f une fonction continue sur un segment I. On suppose qu’elle
n’est pas uniformément continue :
1 1
x ϕ(n) − 6 y ϕ(n) 6 x ϕ(n) + .
n n
La suite (y ϕ(n) ) converge vers la même limite c. Par continuité de f , les suites ( f ( x ϕ(n) )) et ( f (y ϕ(n) )) convergent
toutes les deux vars f (c) ce qui contredit que pour tout entier n, | f ( xn ) − f (yn )| > ε.
326
Exemple : Pour tout intervalle [ a, b] non réduit à un point et n ∈ N? . Il existe une subdivision régulière obtenue
en « coupant »l’intervalle [ a, b] en n sous-intervalles de même longueur. Elle est obtenue en posant
b−a
∀i ∈ [[ 0 ; n ]] , ti = a + i × .
n
Définition [Link]
Soit σ = (ti )16i6n une subdivision de [ a, b]. On appelle pas de σ le plus grand écart entre deux éléments
consécutifs de σ, c’est-à-dire Max (ti+1 − ti ).
i ∈[[ 0 ; n−1 ]]
Définition [Link]
Soit σ et σ0 deux subdivisions de [ a, b]. La subdivision σ est dite plus fine que σ0 si tous les éléments de σ0
sont des éléments de σ. On note alors σ ≺ σ0 .
Remarque : C’est en fait la relation d’ordre d’inclusion sur les parties finies de [ a, b].
Lemme [Link]
Soit σ et σ0 deux subdivisions de [ a, b]. Il existe une subdivision σ00 qui soit plus fine que les deux
subdivisions.
Une fonction ϕ définie sur [ a, b] est dite en escalier, s’il existe une subdivision σ = (ti )06i6n telle que ϕ soit
constante sur tous les intervalles ]ti , ti+1 [ pour 0 6 i 6 n − 1. Toute subdivision vérifiant la propriété est dite
adaptée à ϕ. On notera E ([ a, b]) l’ensemble des fonctions en escaliers sur [ a, b].
C’est une fonction en escalier et la subdivision (0, 1/3, 2/3, 1) est adaptée à ϕ.
2. Soit [ a, b] un segment, la fonction partie entière est une fonction en escalier sur [ a, b].
Lemme [Link]
1. Soit ϕ une fonction en escalier sur [ a, b] et σ une subdivision adaptée à ϕ. Toute subdivision
plus fine que σ est adaptée à ϕ.
2. Soit ϕ et ϕ0 deux fonctions en escalier. Il existe une subdivision qui soit adaptée aux deux
fonctions.
327
Théorème [Link]
Démonstration :
— La fonction nulle est en escalier.
— Soit ϕ et ϕ0 deux fonctions en escalier. On considère une subdivision adaptée au deux pour prouver que
λϕ + µϕ0 est en escalier.
Définition [Link]
Soit f une fonction définie sur [ a, b]. On dit que f est continue par morceaux s’il existe une subdivision
σ = (ti )06i6n telle que la restriction de f a ]ti , ti+1 [ soit continue et admette des limites finies en ti et ti+1 .
Toute subdivision vérifiant la propriété est dite adaptée à f . On notera C M ([ a, b]) l’ensemble des fonctions en
escaliers sur [ a, b].
Lemme [Link]
1. Soit f une fonction continue par morceau sur [ a, b] et σ une subdivision adaptée à f . Toute
subdivision plus fin que σ est adaptée à f .
2. Soit f et g deux fonctions en escalier. Il existe une subdivision qui soit adaptée aux deux
fonctions.
Théorème [Link]
L’ensemble C M ([ a, b]) est un sous-espace vectoriel de F ([ a, b], R). Il est stable par produit.
Proposition [Link]
328
Démonstration : Soit f une fonction continue par morceaux et σ = (ti )16i6n une subdivision adaptée à f .
Alors la restriction f i de f à ]ti , ti+1 [ est prolongeante en une fonction continue f˜i sur [ xi , xi+1 ]. Comme c’est un
segment, la fonction | f˜i | est bornée par Mi . On a donc
sup | f (t)| 6 sup | f˜(t)| = Mi .
t∈]ti ,ti+1 [ t∈[ti ,ti+1 ]
On en déduit que | f (t)| est majorée sur [ a, b] par Max( M0 , . . . , Mn−1 , | f (t0 )|, . . . , | f ( xn )|).
On peut « approcher »une fonction continue par morceaux par une fonction en escalier.
Théorème [Link]
Soit f une fonction continue par morceaux sur [ a, b]. Pour tout réel strictement positif ε, il existe des
fonctions en escaliers ϕ et ψ telles que
ϕ 6 f 6 ψ et 0 6 ψ − ϕ 6 ε.
En particulier | f − ϕ| 6 ε et | f − ψ| 6 ε.
Lemme [Link]
Soit f une fonction continue sur un segment et ε un réel strictement positif, il existe des fonctions en
escaliers ϕ et ψ telles que
ϕ 6 f 6 ψ et 0 6 ψ − ϕ 6 ε.
Démonstration du lemme : La fonction f est continue sur un segment. Elle est donc uniformément continue
d’après le théorème de Heine. De ce fait, il existe η tel que
∀( x, y) ∈ [ a, b], | x − y| 6 η ⇒ | f ( x ) − f (y)| 6 ε.
On considère donc une subdivision σ = (ti ) dont le pas est inférieur à η. On peut prendre la subdivision
|b − a|
régulière en prenant n tel que 6 η. Dès lors, pour tout i dans [[ 0 ; n ]], on pose
n
∀t ∈]ti , ti+1 [, ϕ(t) = Min f ( x ) = f (αi ) et ψ(t) = Max f ( x ) = f ( β i ).
x ∈[ xi ,xi+1 ] x ∈[ xi ,xi+1 ]
On a alors, pour tout t dans ]ti , ti+1 [, ϕ(t) 6 f (t)ψ(t) et ψ(t) − ϕ(t) = f ( β i ) − f (αi ) 6 ε car | β i − αi | 6
|ti+1 − ti | 6 η. Il ne reste plus qu’à poser, ∀i ∈ [[ 0 ; n ]] , ϕ(ti ) = ψ(ti ) = f (ti ).
Démonstration du théorème : On considère σ = (ti )06i6n une subdivision adaptée à f . On va construire
ϕ et ψ en se basant sur cette subdivision. En suite, comme précédemment, pour tout i < n, on prolonge par
continuité la restriction de f à ]ti , ti+1 [ et on f˜i le prolongement. On peut appliquer le lemme à f˜i . On obtient
donc des fonctions en escaliers ϕi et ψi telles que
ϕi 6 f˜i 6 ψi et 0 6 ψi − ϕi 6 ε.
On construit alors ϕ et ψ en « mettant bout à bout »les subdivisions et les fonctions en escaliers ϕi et ψi . On pose
aussi
∀i ∈ [[ 0 ; n ]] , ϕ(ti ) = ψ(ti ) = f (ti ).
3 Construction de l’intégrale
3.1 Intégrale des fonctions en escalier
Si ϕ est une fonction en escalier et si σ = (ti ) est une subdivision adaptée. On veut définir l’intégrale
Rb n
a ϕ ( t ) dt comme I ( ϕ, σ ) = ∑i =1 ci ( ti − ti −1 ) où ci est la valeur de ϕ sur ] ti −1 , ti [. Cela correspond à l’interpré-
tation classique en terme d’aire. Cependant il faut d’abord prouver que cette quantité ne dépend pas de la
subdivision choisie.
329
Proposition [Link]
Soit ϕ une fonction en escalier définie sur [ a, b]. Soit σ et σ0 deux subdivisons adaptées à ϕ. La
quantité considérée ci-dessus est la même pour les deux subdivision.
Démonstration : On peut considérer τ une subdivision plus fine de σ et σ0 . Par transitivité, il suffit donc de
montrer que I ( ϕ, σ ) = I ( ϕ, τ ) = I ( ϕ, σ0 ). La subdivision τ est obtenue à partir de σ en ajoutant p éléments
à la subdivision. Montrons donc qu’en rajoutant un élément on ne change pas la valeur de I. On note donc
σ = (ti )06i6n et τ = (t0 < · · · < ti0 −1 < y < ti0 < · · · < tn ). On a alors
n n
I ( ϕ, σ ) = ∑ c i ( t i − t i −1 ) = ∑ c i ( t i − t i −1 ) + c i0 ( t i0 − t i0 −1 ).
i =1 i =1
i 6 = i0
De même
n
I ( ϕ, τ ) = ∑ c i ( t i − t i −1 ) + c ( y − t i0 −1 ) + c 0 ( t i0 − y ).
i =1
i 6 = i0
Définition [Link]
Z b Z
Soit ϕ une fonction en escalier sur [ a, b]. On appelle intégrale de ϕ sur [ a, b] et on note ϕ(t) dt ou ϕ
a [ a,b]
le réel Z b n
a
ϕ(t) dt = ∑ c i ( t i − t i −1 )
i =1
où σ = (ti ) est une subdivision adaptée à ϕ et ci est la valeur de ϕ sur l’intervalle ]ti−1 , ti [.
Exemples :
Z π
1. On a E(t) dt = 0 + 1 + 2 + 3 ∗ (π − 2) = 3(π − 1).
0
Z
2. Si ϕ est constante égale à C alors ϕ = C ( b − a ).
[ a,b]
Remarque : La valeur de l’intégrale ne dépend pas de la valeur de la fonction aux points de la subdivision. De
ce fait, si on modifie une fonction en escalier en un nombre fini de point, on ne modifie pas son intégrale.
Démonstration
330
Démonstration
Remarque : Notons que la positivité s’étend au cas des fonctions positive sauf en un nombre fini de points.
Soit ϕ une fonction en escalier sur [ a, b] et c un réel compris strictement entre a et b. Les restrictions
ϕ1 et ϕ2 de ϕ à [ a, c] et [c, b] sont des fonctions en escalier et :
Z Z Z
ϕ+ ϕ= ϕ.
[ a,c] [c,b] [ a,b]
Démonstration
Théorème [Link]
Démonstration :
1. Comme f est une fonction continue par morceaux elle est bornée. Notons m et M tels que m 6 f 6 M.
Les fonctions constantes egales à m et M sont
Z des fonctions
Z en escalier. De plus, pour tout ϕ dans E − ( f )
alors ϕ 6 M. D’où, d’après ce qui précède, ϕ6 M = M (b − a). On en déduit que A( f ) est une
[ a,b] [ a,b]
partie non vide et majorée de R donc elle admet une borne supérieure. De même B( f ) est minorée par
m(b − a) et admet donc une borne inférieure.
2. Notons S = inf B( f ) et I = sup A( f ). Si on fixe ϕ dans E − ( f ) alors pour tout ψ dans E + ( f ), ϕ 6 ψ et
donc Z Z
ϕ6 ψ.
[ a,b] [ a,b]
Z
En particulier, ϕ est un minorant de B( f ) et, de ce fait, est inférieur à S. Ceci étant vrai pour tout ϕ de
[ a,b]
E −( f )
on en déduit que S est un majorant de A( f ) et donc I 6 S.
Maintenant, on sait que si on se donne ε, il existe des fonctions en escalier, ϕ et ψ telles que ϕ 6 f 6 ψ et
0 6 ψ − ϕ 6 ε. On a donc ϕ 6 ψ 6 ϕ + ε. En prenant l’intégrale on obtient :
Z Z Z Z
ϕ6 ψ6 ( ϕ + ε) = ϕ + ε ( b − a ).
[ a,b] [ a,b] [ a,b] [ a,b]
On en déduit que Z
Z
S6 ψ6 ϕ + ε ( b − a ) 6 I + ε ( b − a ).
[ a,b] [ a,b]
331
Remarque : On voit que la propriété essentielle que l’on utilise est que si f est une fonction continue par
morceaux
Z et que ε est un réel strictement positif, il existe des fonctions en escalier ϕ et ψ telles que ϕ 6 f 6 ψ
et (ψ − ϕ) 6 ε. De telles fonctions d’appellent les fonctions Riemann-intégrables. Un cas particulier des
[ a,b]
fonctions Riemann-intégrables sont les fonctions réglées qui vérifient qu’il existe des fonctions en escalier ϕ et ψ
telles que ϕ 6 f 6 ψ et (ψ − ϕ) 6 ε. .
Exercice : (Difficile) :Les fonctions continues par morceaux sont réglées et les fonctions réglées sont Riemann-
intégrables. Montrer que ces deux inclusions sont strictes.
Remarque : Si f est une fonction en escalier alors elle appartient à E + ( f ) et à E − ( f ). On trouve donc que les
deux définitions d’intégrales coïncident. En particulier on retrouve que l’intégrale d’une constante C sur [ a, b]
est C (b − a).
Proposition [Link]
Avec les notations précédentes, l’intégrale de f sur [ a, b] est l’unique réel tel que, pour tout ϕ ∈ E − ( f )
et tout ψ ∈ E + ( f ) alors, Z Z Z
ϕ6 f 6 ψ.
[ a,b] [ a,b] [ a,b]
Démonstration
Nous aurons d’abord besoin d’un lemme (qui sera généralisé par la suite)
Lemme [Link]
Soit f une fonction continue par morceaux sur [ a, b] et ϕ une fonction en escalier telle que | f − ϕ| 6 ε
alors Z Z
f− ϕ 6 ε ( b − a ).
[ a,b] [ a,b]
Z Z Z
Démonstration du lemme : On a ϕ − ε 6 f 6 ϕ + ε donc ϕ − ε(b − a) 6 f 6 ϕ + ε(b − a). D’où
[ a,b] [ a,b] [ a,b]
Z Z
f− ϕ 6 ε ( b − a ).
[ a,b] [ a,b]
332
Démonstration de la proposition : Soit f 1 et f 2 deux
Z fonctions
Z continuesZpar morceaux et λ1 , λ2 deux scalaires.
On pose f = λ1 f 1 + λ2 f 2 et on veut montrer que f = λ1 f 1 + λ2 f2 .
[ a,b] [ a,b] [ a,b]
Soit ε un réel strictement positif, il existe ϕ1 et ϕ2 des fonctions en escalier qui vérifient que | f − 1 − ϕ1 | 6 ε
et | f 2 − ϕ2 | 6 ε.
On en déduit que | f − (λ1 ϕ1 + λ2 ϕ2 )| 6 (|λ1 | + |λ2 |)
ε.
Z Z Z Z Z
D’après le lemme, f − λ1 ϕ1 + λ2 ϕ2 = f− λ1 ϕ1 + λ2 ϕ2 6 (|λ1 | + |λ2 |)(b −
[ a,b] [ a,b] [ a,b] [ a,b] [ a,b]
a)ε.
Z Z Z Z
Maintenant λ1 f 1 − λ1 ϕ1 6 |λ1 |(b − a)ε et λ2 f 2 − λ2 ϕ2 6 |λ2 |(b − a)ε.
[ a,b] [ a,b] [ a,b] [ a,b]
On en déduit que
Z Z Z Z Z Z Z Z Z Z
f − λ1 f 1 + λ2 f2 = f − λ1 ϕ1 + λ2 ϕ2 − λ1 f 1 + λ1 ϕ1 − λ2 f 2 + λ2 ϕ2
[ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b]
Z Z Z Z Z Z Z
6 f − λ1 ϕ1 + λ2 ϕ2 + λ1 f 1 − λ1 ϕ1 + λ2 f 2 − λ2
[ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b] [ a,b
6 2(|λ1 | + |λ2 |)(b − a)ε.
Ceci étant vrai pour tout ε on a bien
Z Z Z
f = λ1 f 1 + λ2 f2 .
[ a,b] [ a,b] [ a,b]
Remarque :ZSi f et gZsont deuxZ fonctions continues par morceaux qui ne différent qu’en un nombre fini de
points alors f = g car ( f − g) = 0.
[ a,b] [ a,b] [ a,b]
Définition [Link]
On appelle valeur moyenne d’une fonction continue par morceaux sur [ a, b] la valeur
Z
1
f.
b−a [ a,b]
Remarque : La fonction constante égale à la valeur moyenne à la même intégrale que f sur [ a, b].
Soit f une fonction définie sur [ a, b] et c ∈] a, b[. La fonction est continue par morceaux si et seulement
si ses restrictions f 1 et f 2 à [ a, c] et à [c, b] le sont. De plus
Z Z Z
f = f1 + f2 .
[ a,b] [ a,c] [c,b]
333
Démonstration : Pour la première partie, il suffit de voir que si f est une fonction continue par morceaux
positive la fonction nulle est un une fonction en escalier inférieure à f . La deuxième partie découle de la première
en utilisant la linéarité.
Corollaire [Link]
Remarques :
1. Ce corollaire est TRES utile. C’est une version pour les les intégrales de l’inégalité triangulaire qui dit que
n n
∑ ai 6 ∑ | a i |.
i =1 i =1
2. On a déjà dit que l’on peut imaginer l’intégrale de f comme l’aire sous sa courbe en comptant positivement
Z
ce qui est « au dessus »de l’axe des abscisses et négativement ce qui est « en dessous ». Le terme |f|
[ a,b]
revient à considérer toutes les aires positivement.
Démonstration : Il suffit de constater que −| f | 6 f 6 | f | donc
Z Z Z
− |f| 6 f 6 |f|
[ a,b] [ a,b] [ a,b]
En particulier, pour g = 1,
Z
f 6 (sup | f |)(b − a).
[ a,b] [ a,b]
Démonstration : On voit que | f g| 6 (sup[ a,b] | f |)| g|. On conclut en utilisant ce qui précède et la linéarité.
334
4.3 Cas des fonctions continues
Les fonctions continues sont des cas particuliers de fonctions continues par morceaux. Elles vérifient quelques
propriétés intéressantes.
Théorème [Link]
Z
Soit f une fonction continue sur [ a, b] et positive. Si f = 0 alors f est la fonction nulle.
[ a,b]
Remarques :
1. C’est un théorème qui nous sera utile. Il faut savoir le démontrer.
2. L’hypothèse continue est essentielle. Par exemple la fonction définie sur [0, 1], nulle sur ]0, 1] et valant 1 en
0 est continue par morceaux, positive, d’intégrale nulle mais ce n’est pas la fonction nulle.
Démonstration : Supposons par l’absurde que f n’est pas nulle. Il existe t0 ∈ [ a, b] tel que f (t0 ) 6= 0. Par
continuité, il existe η tel que
f ( x0 )
∀t ∈ [t0 − η, t0 + η ], f (t) > .
2
Supposons (pour simplifier) que a 6 t0 − η 6 t0 + η 6 b. On en déduit que
Z Z t0 − η Z t0 + η Z b
f = f+ f+ f
[ a,b] a t0 − η t0 + η
Z t0 + η
f ( x0 )
Les deux intégrales de droite et de gauche sont positives et f > 2η > 0. C’est absurde.
t0 − η 2
Remarque : On redémontrera ce résultat quand nous aurons défini les primitives.
Démonstration
Z : Il suffit de reprendre la démonstration. S’il y a égalité alors ∆ = 0. De ce fait il existe λ tel que
0 = P(λ) = ( f + λg)2 . On en déduit que f + λg = 0.
[ a,b]
Soit f une fonction continue par morceaux sur [ a, b] et α un réel. On pose f α la fonction définie sur
[ a + α, b + β] par f α : x 7→ f ( x − α). La fonction f α est continue par morceaux et
Z Z
f = fα.
[ a,b] [ a+α,b+α]
335
5 Sommes de Riemann et méthodes des trapèzes
Nous allons voir deux méthodes pour calculer une valeur approchée d’une intégrale, la méthode des
rectangles (ou des sommes de Riemman) et la méthode des trapèzes.
Dans tout ce paragraphe, on se fixe un segment [ a, b] et f une fonction continue sur [ a, b].
Soit σ = (ti )06i6n une subdivision et X = ( xi )i∈[[ 1 ; n ]] une famille de réels tels que pour tout i ∈ [[ 1 ; n ]],
xi ∈ [ti−1 , ti ]. On appelle somme de Riemann associée à f pour la subdivision σ et la famille X et on note
R( f , σ, X ) le réel :
n
R( f , σ, X ) = ∑ ( t i − t i −1 ) f ( x i ).
i =1
Exemples :
1. Le cas le plus utilisé est le suivant :
Pour tout entier naturel non nul n on considère la subdivision régulière de [ a, b] en n sous-intervalles. On
note donc
b−a
∀i ∈ [[ 0 ; n ]] , ti = a + i .
n
On prend de plus ∀i ∈ [[ 1 ; n ]] , xi = ti . On note alors
n n
b−a b−a b−a
Rn ( f ) = R( f , σ, X ) =
n ∑ f ( ti ) =
n ∑f a+i
n
.
i =1 i =1
2. On utilise aussi les sommes de Riemann en utilisant la subdivision régulière mais en prenant xi = ti−1 ou
xi = (ti + ti−1 )/2.
Remarque : Si on regarde la somme de Riemann Rn ( f ). Pour tout i ∈ [[ 1 ; n ]] on considère le rectangle plein
b−a
[ti−1 , ti ] × [0, f (ti )] (ou [ti−1 , ti ] × [ f (ti ), 0] ) dont l’aire est f (ti ). On se dit alors que l’intégrale de f sur
n
[ a, b] doit être proche de la somme des aires si n tend vers +∞.
Théorème [Link]
Soit f une fonction continue sur [ a, b]. Pour tout réel ε > 0 il existe un réel η > 0 tel que pour tout
subdivision σ dont le pas est inférieur à η et toute famille X,
Z
f − R( f , σ, X ) 6 ε.
[ a,b]
Démonstration : On sait que f est continue sur un segment donc, d’après le théorème de Heine elle est
uniformément continue. De ce fait pour ε 1 > 0, il existe η > 0 tel que
Maintenant si on se donne une subdivision dont le pas est inférieur à η et X une famille de réels,
Z n Z ti
[ a,b]
f − R( f , σ, X ) = ∑ f (t) − f ( xi ) dt
i =1 t i −1
n Z ti
6 ∑ | f (t) − f ( xi )| dt
i =1 t i −1
336
Maintenant quand t ∈ [ti−1 , ti ], |t − xi | 6 η et donc | f (t) − f ( xi )| 6 ε 1 . On en déduit que
Z n
[ a,b]
f − R( f , σ, X ) 6 ∑ ( t i − t i −1 ) ε 1 = ε 1 . ( b − a ).
i =1
ε
Il suffit d’appliquer cela à ε 1 = .
b−a
Corollaire [Link]
Z
Soit f une fonction continue sur [ a, b]. La suite ( Rn ( f )) des sommes de Riemann tend vers f.
[ a,b]
Remarques :
1. C’est aussi vrai pour les « variantes ».
2. En ne supposant que f continue on ne peut pas évaluer la vitesse de convergence.
Théorème [Link]
Démonstration : Il suffit de reprendre la démonstration précédente en voyant que l’on a alors ε 1 = kη.
Remarques :
1. La convergence n’est pas très rapide.
2. Le cas des fonctions K-lipschitzienne est important en effet si f est de classe C 1 elle est K-lipschitzienne
en posant K = Max| f 0 (t)|.
[ a,b]
Z 1 Z 2
dt dt
Exemple : Nous allons bientôt voir que = = ln 2. On peut donc essayer d’avoir des valeurs
0 1+t 1 t
approchées.
n n
1 1 1
On a alors Rn =
n ∑ 1 + k/n
= ∑
k + n
.
k =1 k =1
Ici, comme la dérivée de t 7→ 1/t est t 7→ −1/t2 on peut prendre K = 1. On a donc
1
| Rn − ln 2| 6
n
Mathematica nous donne
N[Log[2],20]
0.69314718055994530942
Si on pose
riemann[n_] := (s = 0.; Do[s = s + 1/(k + n), {k, 1, n}]; s)
On récupère
riemann[10] = 0.668 riemann[100] = 0.6907 riemann[1000] = 0.692897 riemann[10000] = 0.693122
337
5.2 Méthode des trapèzes
L’idée est la même que ci-dessus mais en approchant le domaine par des trapèzes.
Définition [Link]
Proposition [Link]
Z Z
Si f est continue Tn ( f ) tend vers f . De plus si f est de classe C 2 alors Tn ( f ) − f =
[ a,b] [ a,b]
O 1/n2 .
Z
M ( b − a )3
Remarque : On trouve que Tn ( f ) − f 6 . Si M = Max| f 00 (t)|.
[ a,b] 12n2 [ a,b]
Idée de la démonstration : Comme précédemment on découpe l’intégrale par la relation de Chasles et on se
ramène à travailler sur l’intervalle [tk−1 , tk ]. On veut comparer l’intégrale de f et l’intégrale de g la fonction
f ( t k ) − f ( t k −1 )
affine qui prend les mêmes valeurs en tk−1 et tk à savoir g : t 7→ f (tk−1 ) + (t − tk−1 ). L’idée est
t k − t k −1
de voir, sachant que | f 00 | est bornée les cas où la différence va être le plus grande.
faire un dessin
Les cas extrêmes sont quand f 00 est constante égale à M ou à − M. C’est à dire
M M
h− : t 7→ g(t) − (t − tk−1 )(tk − t) et h+ : t 7→ g(t) + (t − tk−1 )(tk − t)
2 2
On montre alors que pour tout t dans l’intervalle
h − ( t ) − g ( t ) 6 f ( t ) − g ( t ) 6 h + ( t ) − g ( t ).
Pour cela il suffit de remarquer que la fonction f − h+ est convexe, elle est donc negative car elle s’annule en
tk−1 et en tk . A l’inverse f − h− est concave et donc positive.
On en déduit que
M
| f (t) − g(t)| 6 (t − tk−1 )(tk − t).
2
Il ne reste plus qu’a intégrer.
6 Primitives
Nous allons (enfin) voir le lien entre l’intégrale que nous avons construit et les primitives.
On considère un intervalle [ a, b] et f une fonction continue par morceaux sur [ a, b]. A tout élément c compris
entre a et b on considère Z x
F : x 7→ f (t) dt.
c
Cette fonction est définie sur [ a, b].
338
Définition [Link]
Soit I un intervalle. Un fonction f est dite continue par morceaux si sa restriction à tout segment de I est
continue par morceaux.
Remarque : Une fonction continue par morceaux sur I peut ne pas être bornée si I n’est pas borné.
Exemples :
1. La fonction partie entière est continue par morceaux sur R.
2. La fonction χQ n’est pas continue par morceaux.
Définition [Link]
Soit f une fonction continue par morceaux sur I et soit a et b deux éléments de I on pose
Z
f si a < b
Z b
Z[ a,b]
f (t) dt = − f si a > b
a
[b,a]
0 si a = b
Remarque : Le signe moins est nécessaire si l’on veut garder la relation de Chasles.
Proposition [Link]
B Toutes les propositions avec des inégalités ne s’étendent à ce cas UNIQUEMENT si a < b. Sinon, il faut
inverser les inégalités.
Proposition [Link]
Avec les notations précédentes, F est lipschitzienne donc continue sur [ a, b].
| F ( x ) − F (y)| 6 M| x − y|.
Remarques :
339
1 si t > 0
1. Dans ce cas la fonction peut très bien ne pas être dérivable. Si f : t 7→ On voit que
−1 sinon
Z x
F : x 7→ f (t) dt = | x | − 1. Elle n’est pas dérivable en 0.
0
2. Si on n’est plus sur un segment ce n’est plus vrai car dans ce cas, f peut ne pas être bornée.
Avec les notations précédentes, si f est continue sur I alors F est dérivable et sa dérivée est f .
Remarques :
1. Elle est même de classe C 1 car sa dérivée f est continue.
Démonstration
Définition [Link]
Soit f une fonction définie sur I, on appelle primitive de f sur I, toute fonction F dérivable sur I telle que
F0 = f .
Théorème [Link]
Démonstration
B Quand on veut dériver xZ 7→ F(x) − F(a) avec F un primitive de f on trouve f (x) et pas f (x) − f (a).
1 2x
Exercice : On pose H : x 7→ dt.
x 2t −1
1. Calculer l’ensemble de définition de H.
2. Montrer que H est dérivable et calculer H 0 .
7 Calculs
Nous allons montrer quelques méthodes de calculs classiques.
On sait exprimer à l’aide des fonctions usuelles les primitives de toutes les fonctions rationnelles.
Soit f une fonction rationnelle sur R et I un intervalle ne contenant aucun pôle de f . Le principe est de réaliser
la décomposition en éléments simple de la fraction puis d’intégrer chaque terme. Il y a deux méthodes selon
que l’on procède à une décomposition sur R ou sur C
340
— (Sans utiliser les nombres complexes) :
Via la décomposition en éléments simples sur R et la linéarité, on est ramené à déterminer les primitives
des fonctions de la forme :
1. un polynôme
1
2. une fonction t 7→ où a ∈ R.
(t − a)n
at + b
3. une fonction t 7→ 2 où t2 + ct + d ne s’annule pas.
(t + ct + d)n
Le cas 1. a été vu précédemment.
Le point 2. aussi en séparant le cas où n = 1 du cas n > 1.
Pour le point 3. Via une mise sous forme canonique et un changement de variables affine, on peut se
at + b
ramener à t 7→ 2 avec d > 0. Maintenant, on peut « tuer » le t au numérateur en utilisant la
( t + d2 ) n
dérivée de t 7→ t2 + d2 . Précisément on a
at + b a 2t b
= + 2 .
( t2 + d2 ) n 2 ( t2 + d2 ) n ( t + d2 ) n
u0
— La première partie est de la forme et on sait déterminer sa primitive.
un
b
— Pour la deuxième partie, si n = 1, on reconnait la dérivée de arctan(t/d).
d
— Pour la deuxième partie, si n 6= 1 on se ramène au cas n = 1 par intégration par parties. En effet,
Z x x Z x
dt t 2nt2
= − dt
( t2 + d2 ) n ( t2 + d2 ) n ( t 2 + d 2 ) n +1
Z x Z x
x t2 + d2 d2
= − 2n dt − dt
( x 2 + d2 ) n ( t 2 + d 2 ) n +1 ( t 2 + d 2 ) n +1
On en déduit que
Z x Z x
dt x dt
(2n + 1) = 2 + 2nd2 .
( t2 + d2 ) n ( x + d2 ) n ( t 2 + d 2 ) n +1
On a donc, par exemple
Z x Z x
dt 1 dt x
= 2 2 − .
( t2 + d2 )2 2d ( t2 + d2 ) ( x 2 + d2 )
t
Exemple : On cherche une primitive de t 7→ sur I =] − ∞, 1[ ou I =]1, +∞[. On sait que X 3 − 1 =
t3 − 1
( X − 1)( X 2 + X + 1). On en déduit qu’il existe ( a, b, c) tels que
1 a bt + c
∀t ∈ I, = + 2 .
t3 −1 t−1 t +t+1
Par les méthodes du chapitre précédent on trouve, a = 1/3 et on en déduit que
1 1 1 1 −t + 2 1 1 1 2t + 1 1 1
∀t ∈ I, = + = − − .
t3 − 1 3 t − 1 3 t2 + t + 1 3 t − 1 6 t2 + t + 1 2 t2 + t + 1
Maintenant,
Z x Z x
1 1 1 1 2t + 1 1
dt = ln | x − 1| et − dt = − ln( x2 + x + 1).
3t−1 3 6 t2 + t + 1 6
De plus
Z x Z
1 1 1 x 1
− dt = − dt
2 t2 + t + 1 2 (t + 1/2)2 + 3/4
1 x + 1/2
= − √ arctan √
3 3/2
En conclusion,
Z x
dt 1 1 1 x + 1/2
= ln | x − 1| − ln( x2 + x + 1) − √ arctan √ .
t3 − 1 3 6 3 3/2
341
— (Utilisation des complexes) : Via la décomposition en éléments simples sur C et la linéarité, on est
ramené à déterminer les primitives des fonctions de la forme :
1. un polynôme
1
2. une fonction t 7→ où α ∈ C.
(t − α)n
Proposition [Link]
1
Soit α = u + iv ∈ C avec v 6= 0. La fonction t 7→ est continue sur R et admet donc des
(t − α)n
primitives sur R. De plus
1 1
Z x si n 6= 1
dt − n + 1 ( x − α ) n −1
=
(t − α)n
1
ln (( x − u ) 2 + v2 ) + i arctan x − u si n = 1
2 v
1 t−α
=
t−α | t − α |2
t−α
=
( t − u )2 + v2
t−u v
= +i
( t − u )2 + v2 ( t − u )2 + v2
t−u 1 1
= +i
( t − u )2 + v2 v ((t − u)/v)2 + 1
Il ne reste qu’à intégrer.
t
Exercice : Calculer une primitive de t 7→ par cette méthode.
−1 t3
Remarque : Dans la très grande majorité des cas, la méthode réelle est la plus simple. Il ne faut utiliser la
méthode complexe qu’en présence de pôles complexes multiples.
1 1 − u2
cos t = cos(2.(t/2)) = 2 cos2 (t/2) − 1 = 2 2
−1 =
1 + tan (t/2) 1 + u2
et
2u
sin t = 2 sin(t/2) cos(t/2) = 2 tan(t/2). cos2 (t/2) = .
1 + u2
342
Par exemple,
4u2
Z x Z tan( x/2) 2 +
2 + sin2 t (1 + u2 )2 2
dt = du
3 − cos t 1 − u2 1 + u2
3−
1 + u2
Z tan( x/2)
1 + 4u2 + u4 du
= 2
(1 + u2 )2 (1 + 2u2 )
Z tan( x/2)
2 2 3
= 2 2 2
+ 2
− du.
(1 + u ) 1+u 1 + 2u2
Remarques :
1. On voit que le degré augmente beaucoup
2. Il faut faire attention à l’ensemble de définition. En effet on peut poser u = tan(t/2) si on travaille
pour x dans Ik =] − π + 2kπ, π + 2kπ [. En pratique on travaille sur un tel intervalle puis on recolle.
Z x
dt
Si par exemple on veut étudier qui est définie sur R. On se place sur un Ik et on pose
2 + cos t
u = tan(t/2). On obtient
Z tan( x/2)
du 2 tan( x/2)
2 2
= √ arctan √ + C.
3+u 3 3
343
Fonctions rationnelles en et , sh (t) et ch (t)
On cherche la primitive d’une fonction de la forme f = t 7→ F (et ) où F est une fraction rationnelle ou
P( sh t, ch t)
f : t 7→ ce qui revient au même.
Q( sh t, ch t)
Dans tous les cas, un changement de variables u = et permet de se ramener à une primitive de fraction
rationnelle. On peut cependant là encore appliquer les règles de Bioche. Si on pose ω (t) = f˜(t) dt où f˜ est la
fonction obtenue en remplaçant ch t par cos t et sh t par sin t alors
— si ω (−t) = ω (t) on peut poser u = ch t
— si ω (π − t) = ω (t) on peut poser u = sh t
— si ω (π + t) = ω (t) on peut poser u = th t
1
Exemple : Calculons une primitive de t 7→ . D’après les règles de Bioche on peut poser u = sh t. Dès lors
ch t
Z x Z sh x
dt du
=
ch t 1 + u2
= arctan( sh x ).
Sans utiliser les règles de Bioche on peut aussi poser u = et et on trouve alors 2 arctan(e x ) ce qui est là même
chose.
√
Primitive de fraction rationnelle en at2 + bt + c
√ √
— Si a = 0. On se retrouve avec une fraction rationnelle en at + b. On pose u = at + b.
p
— Si a 6= 0. Quitte à diviser par | a|, à faire une mise sous forme canonique et un changement de variable
affine,
√on se retrouve à traiter trois cas :
— t2 + a2 : on pose t = a sh (u).
√
— t2 − a2 : on pose t = a ch (u).
√
— a2 − t2 : on pose t = a sin(u).
Exemples :
Z xp
1. Calculons t − t2 dt.
Z x
t
2. Calculons √ dt.
t2 +t+1
r
at + b
Primitive de fraction rationnelle en
ct + d
r
at + b
On fait le changement de variables u = .
ct + d
8 Formules de Taylor
On a déjà vu la formule de Taylor pour les polynômes qui affirme que si P est un polynôme de degré
inférieur à n, pour tout α et tout x dans R,
n
P(k) ( α )
P( x ) = ∑ k!
( X − α)k .
k =0
Nous allons généraliser ceci pour des fonctions quelconques (mais suffisamment dérivables).
344
Remarques :
1. Si f est une fonction polynomiale de degré inférieur à n on retrouve la formule de Taylor car f (n+1) = 0.
Z b
2. Le cas n = 0 est juste f (b) = f ( a) + f 0 (t) dt.
a
n
( b − a )k f (k) ( a )
3. La partie ∑ k!
se note Tn (b) est s’appelle le development de Taylor à l’ordre n. Le terme
k =0
Z b
( b − t ) n ( n +1)
f (t) dt est le reste de Taylor. On le note Rn (b).
a n!
Démonstration : On procède par récurrence sur n.
— Initialisation : Pour n = 0 c’est vrai (voir remarque).
— Hérédité : Soit n un entier. Supposons la formule de Taylor vrai à l’ordre n. Soit f une fonction de classe
C n+2 . La fonction f est en particulier de classe C n+1 . On en déduit que
n Z b
( b − a )k f (k) ( a ) ( b − t ) n ( n +1)
f (b) = ∑ k!
+
a n!
f (t) dt.
k =0
n Z x
xk ( x − t)n t
ex = ∑ k!
+
0 n!
e dt.
k =0
n
( b − a )k f (k) ( a ) | b − a | n +1
f (b) − ∑ k!
6
( n + 1) !
M
k =0
où M = Max| f (n+1) |.
[ a,b]
Démonstration
Remarque : C’est une généralisation de l’inégalité des accroissements finis (qui est le cas n = 0). De fait il
existe aussi une égalité de Taylor-Lagrange qui stipule que si f est de n fois dérivable, le reste de Taylor d’ordre
( b − a ) n +1 ( n +1)
n peut s’écrire f (c) avec c strictement compris entre a et b. Le cas n = 1 a été démontré en DL et
( n + 1) !
la démonstration générale est du même genre (exercice).
345
Exemple : Si on reprend l’exemple du paragraphe précédent. On trouve pour la fonction exponentielle que
n
xk x n +1 x
ex − ∑ k!
6
( n + 1) !
e .
k =0
x n +1
Maintenant, quand x est fixé, la suite un = tend vers 0 par croissances comparées et de ce fait,
( n + 1) !
n
xk
lim
n→∞
∑ k!
= ex .
k =0
Soit f une fonction de classe C n sur I et a ∈ I. Il existe une fonction ε définie sur I et tendant vers 0
en a telle que
n
f (k) ( a )
∀ x ∈ I, f ( x ) = ∑ ( x − a ) k + ( x − a ) n ε ( x ).
k =0
k!
C’est-à-dire,
f (n) ( a )
∀ x ∈ I, f ( x ) = f ( a) + f 0 ( a)( x − a) + · · · + ( x − a)n + o (( x − a)n ) .
n! a
346
9 Extension au fonctions à valeurs complexes
9.1 Definitions
Définition [Link]
Soit f une fonction continue (ou continue par morceaux) définie sur un intervalle I et à valeurs dans C. On
pose
Z b Z b Z b
f = Re( f ) + i Im f .
a a a
Exemple :
Z 1 Z 1 Z 1 iπt 1
iπt 2i e −1
e dt = cos(πt) dt + i sin(πt) dt = = .
0 0 0 π iπ 0
9.2 Propriétés
Proposition [Link]
L’integrale des fonctions à valeurs complexe est linéaire et elle vérifie la relation de Chasles.
Proposition [Link]
Démonstration :
Rb Rb
— Si a f est un réel positif et est donc égal à a Re f alors cela découle de |Re f | 6 | f |.
Rb
— Dans le cas général on considère Z un nombre complexe de module 1 tel que Z a f soit un réel positif.
On a donc Z Z b
f = g
a [ a,b]
Z Z Z Z
où g : t 7→ Z f (t). Or g ∈ R+ donc g6 | g| = | f |.
[ a,b] [ a,b] [ a,b] [ a,b]
347
1 Espace probabilisé
Probabilités
24 348
1.1 Univers . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 348
1.2 Probabilités et espace probabilisé . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
2 Probabilités conditionnelles 352
2.1 Exemple introductif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
2.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
2.3 Formules sur les probabilités conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 353
3 Indépendance 355
3.1 Indépendance de deux événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355
3.2 Indépendance mutuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 356
1 Espace probabilisé
La première chose à faire est de définir les objets mathématiques que nous allons étudier. Ils doivent
représenter la réalité que l’on observe.
1.1 Univers
Définition [Link]
On appelle expérience aléatoire (ou épreuve) une expérience pouvant amener un ou plus résultats. On appelle
univers l’ensemble de tous les résultats possibles. Ces derniers s’appellent des éventualités.
Exemples :
1. On joue à pile ou face. On note P si la face fait pile et F si elle fait face. On a Ω = { P, F }.
2. On lance un dé et on regarde le score obtenu. On a Ω = {1, . . . , 6}.
3. On lance deux dés et on regarde les deux scores obtenus. L’univers n’est pas le même si on distingue les
deux dés ou pas. Si on note Ωd (resp. Ωi ) l’univers obtenu avec des dés différents (resp. non différentiés).
on a :
Ωd = [[ 1 ; 6 ]]2 et Ωi = {(1, 1), (1, 2), (1, 3), (1, 4), (1, 5), (1, 6), (2, 2), (2, 3), . . . , (6, 6)}.
4. On lance une pièce une infinité de fois pour attendre le premier pile : Ω = { P, F }N .
5. On mesure le temps qu’il reste à vivre à une bactérie. On a Ω = R+ .
348
6. On mesure (en heure) le temps qu’il vous faudra faire la queue au self. Ω = [0, 2]
7. On lance une fléchette sur une cible. Ω = {( x, y) ∈ R2 | x2 + y2 6 1}.
Remarque : cette année on se limitera au cas des expériences amenant un univers fini de résultats. L’année
prochaine vous étudierez le cas d’un ensemble discret (dénombrable).
Exercice : On considère une urne contenant 4 boules vertes et 1 boules rouges. On tire deux boules dans l’urne.
Décrire l’univers selon que :
— On ne distingue pas les boules vertes et on tire successivement et sans remises.
— On ne distingue pas les boules vertes et on tire simultanément et sans remises.
— On ne distingue pas les boules vertes et on tire successivement et avec remises.
— Les trois cas précédents mais en distinguant les boules vertes entre elles.
Définition [Link]
On appelle événement un sous-ensemble de Ω dont on peut dire, au vu de l’expérience s’il est réalisé ou pas.
Exemples :
1. La pièce fait pile A = { P} ⊂ Ω.
2. On fait plus de 3, A = {3, 4, 5, 6} ⊂ Ω.
3. On fait un double A = {(1, 1), (2, 2), (3, 3), . . . , (6, 6)} ⊂ Ω.
4. Le premier pile est obtenu au quatrième lancer A = {(ui ) ∈ Ω | u1 = u2 = u3 = F et u4 = P} ⊂ Ω
5. La bactérie vit plus de 2 heures A = [2, +∞[
6. Vous attendez moins d’un quart d’heure : A = [0, 1/4]
Terminologie : On a un dictionnaire entre les termes classiques de la théorie des ensembles et leurs pendant en
probabilités.
Ensembles Probabilités
Ensemble Univers
élément de Ω éventualité
partie de Ω événement
Ω événement certain
∅ événement impossible
Ensembles Probabilités
A événement contraire de A
A∩B événement A et B
A∪B événement A ou B
A⊂B Si A alors B
A\B événement A et pas B
A∩B = ∅ événements incompatibles
Exemple : On lance un dé et Ω = [[ 1 ; 6 ]]. Soit P = « le résultat est pair », I = « le résultat est impair »et A =
« le résultat est inférieur à 3 ».
Définition [Link]
Soit Ω un univers, on appelle système complet d’événements, la donnée d’un nombre fini d’événements
A1 , . . . , An tels que toute éventualité soit dans un et un seul des événements Ai . C’est à dire que l’on veut :
n
[
1. Ω = Ai ,
i =1
2. ∀(i, j) ∈ [[ 1 ; n ]]2 , (i 6= j) ⇒ Ai ∩ A j = ∅.
Exemples :
349
1. Pour Ω = [[ 1 ; 10 ]], on peut prendre, A1 = {1, 3, 5, 7, 9}, A2 = {2, 10}, A3 = {4} et A4 = {6, 8}.
2. Soit E un ensemble à n éléments et Ω = P ( E). C’est à dire que que l’on tire des nombres (entre 0 et n)
compris entre 1 et n. On pose Ak = { X ⊂ E | Card( X ) = k } pour k = 0, · · · , n. Les Ak forment une
partition de Ω.
Remarques :
1. Cela correspond à la notion ensembliste de partition.
2. Les systèmes complets sont très utiles, ils permettent de "découper" l’univers.
En regardant les propriété de f n , on peut se demander quelles propriétés on doit imposer à P : P (Ω) → R.
— ∀ A ∈ P (Ω), P( A) ∈ [0, 1]
— P(Ω) = 1 et P(∅) = 0
— ∀ A ∈ P ( Ω ) , P( A ) = 1 − P( A )
— Si A et B sont deux événements incompatibles P( A ∪ B) = P( A) + P( B)
— Si A ⊂ B, P( A) 6 P( B)
On va voir que certaines de ces conditions sont redondantes.
Définition [Link]
Soit Ω un univers, une probabilité sur (Ω, P (Ω)) est une application P : P (Ω) → [0, 1] telle que
1. P(Ω) = 1
2. Si A et B sont deux événements incompatibles, P( A ∪ B) = P( A) + P( B).
Soit A un événement de Ω, le nombre P( A) s’appelle la probabilité de A. Le triplet (Ω, P (Ω), P) s’appelle
un espace probabilisé.
Remarques :
1. Il peut sembler étrange de noter P (Ω). Cela n’a aucune utilité cette année mais vous verrez l’an prochain
que dans le cas continue, il existe des partie de l’univers dont on ne pas calculer la probabilité. Pour cette
année, on utilisera le terme de « probabilité sur Ω », par abus.
2. Cette définition peut sembler très minimaliste mais nous allons voir que toutes les propriétés classiques
que l’on attend en découle.
3. On ne pourra JAMAIS voir des probabilités négatives ou strictement supérieures à 1.
Proposition [Link]
Soit Ω = { x1 , . . . , xn } un ensemble fini et P une probabilité sur Ω alors pour tout A ∈ P (Ω) on a :
[
P( A ) = pi .
i ∈[[ 1 ; n ]]
xi ∈ A
Démonstration
350
Proposition [Link]
p1 + · · · + p n .
∀i ∈ [[ 1 ; n ]] , P( xi ) = pi .
Démonstration
Remarque : ces deux propositions illustrent le fait que pour cette année, on peut penser à l’application de
probabilité comme l’application qui associe à chaque élément de Ω sa probabilité. Cela détermine de manière
unique la probabilité sur tout P (Ω). Là encore, cela est différent pour les probabilités sur des univers infinis.
Exemples :
1. On considère une pièce équilibrée et on joue à pile ou face. On a Ω = { P, F } et la probabilité est donnée
par :
P(∅) = 0 ; P( P) = 1/2 ; P( F ) = 1/2 ; P(Ω) = 1.
2. Equiprobabilté : sur tout univers fini Ω on peut définir la probabilité uniforme. Pour cela on considère
que la probabilité de tous les éventualités est la même. Elle est obligatoirement égale à 1/Card(Ω).
On a alors,
Card( A)
∀ A ∈ P ( Ω ) , P( A ) = .
Card(Ω)
Vérifions que c’est une probabilité.
Card(Ω)
— on a P(Ω) = = 1.
Card(Ω)
— si A et B sont deux ensembles disjoints Card( A ∪ B) = Card( A) + Card( B). D’où,
P( A ∪ B ) = P( A ) + P( B ).
3. On lance deux dès à 6 faces et on regarde la somme des deux dés. On pourrait considérer comme univers
Ω = {2, . . . , 12}. Le problème est que rien ne nous dit que tous les résultats sont équiprobables et de ce
fait on ne sait définir la probabilité. On considérera plutôt l’univers Ω0 = [[ 1 ; 6 ]]2 obtenu en regardant un
dé puis l’autre - on les distingue intellectuellement même s’ils ne sont pas physiquement distincts. A ce
moment la probabilité est uniforme. Soit A l’événement « la somme fait 7 » et B l’événement « la somme
fait 11 ». On a
6 1 2 1
P( A ) = = et P( B) = = .
36 6 36 18
4. On considère un dé pipé qui a autant de chances de faire 1, 2 ou 3 et deux fois plus de chances de faire 4, 5
ou 6. On a Ω = {1, . . . , 6}. On note, pour i ∈ [[ 1 ; 6 ]] , pi = P(i ). On a
5. On considère une urne avec a boules blanches et b boules noires ( a > 4). On suppose que toutes les boules
sont semblables. On tire deux boules successivement dans l’urne et on note A l’événement « les deux
boules sont blanches ». Calculons P( A).
— Si on remet la boule dans l’urne après tirage :
2
2 2 a
On a Ω = [[ 1 ; a + b ]] et A = [[ 1 ; a ]] . On en déduit P( A) = .
a+b
— Si on ne remet pas la boule dans l’urne après tirage :
On a Ω = { B ⊂ [[ 1 ; a + b ]] | CardB = 2}. et A = { B ⊂ [[ 1 ; a ]] | CardB = 2}. On en déduit :
(2a) a ( a − 1)
P( A ) = = .
( a+2 b) ( a + b)( a + b − 1)
351
Proposition [Link]
Démonstration
Soit (Ω, P (Ω), P) un espace probabilisé fini et ( Ai )16i6n une famille finie d’événements. On a
!
n
[ n
p Ai = ∑ (−1)k+1 ∑ P ( A i1 ∪ · · · ∪ a i k ).
i =1 k =1 16i1 <···<ik 6n
Remarques :
1. Cette formule est utile car elle permet de calculer la probabilité d’une union uniquement avec des
probabilité de produit.
2. C’est l’analogue de la formule de Poincaré pour les cardinaux. Notons cependant que cette formule est
vraie en tout généralité et pas que pour une probabilité uniforme.
3. Il faut retenir les cas particuliers :
— pour n = 2 : P( A ∪ B) = P( A) + P( B) − P( A ∩ B).
— pour n = 3 : P( A ∪ B ∪ C ) = P( A) + P( B) + P(C ) − P( A ∩ B) − P( A ∩ C ) − P( B ∩ C ) + P( A ∩
B ∩ C ).
— pour n = 4 : en exercice...
2 Probabilités conditionnelles
La notion de probabilités conditionnelles sert à calculer la probabilité d’un événement en sachant q’un autre
événement est réalisé. En effet, nous allons voir que le fait de savoir qu’un événement est réalisé (ou non) influe
sur la probabilité de l’univers.
352
2.2 Définitions
Définition [Link]
Soit (Ω, P (Ω), P) un espace probabilisé et B un événement tel que P( B) 6= 0. Pour tout événement
A ∈ P (Ω) on appelle probabilité de A sachant B et on note PB ( A) ou P( A| B) le nombre
P( A ∩ B )
.
P( B )
Remarques :
1. Cela correspond réellement à l’intution que l’on a, c’est à dire que PB ( A) est la probabilité A se réalise en
sachant que B est réalisé.
2. On peut étendre la notion au cas où P( B) = 0 en posant alors PB ( A) = 0.
3. On utilisera souvent la probabilité conditionnelle sous la forme :
P( A ∩ B) = P( B).PB ( A).
Exemple : On reprend un exemple précédent. On considère une urne avec a boules blanches et b boules noires
( a > 4). On suppose que toutes les boules sont semblables. On tire deux boules successivement dans l’urne et on
note A l’événement « les deux boules sont blanches ». Calculons P( A). On note, pour i ∈ {1, 2}, Bi l’événement
« la ième boule tirée est blanche ». On a A = B1 ∩ B2 d’où
P( A) = P( B1 ).P( B2 | B1 ).
a ( a − 1)
P( A ) = .
( a + b)( a + b − 1)
Proposition [Link]
Avec les notations précédentes, l’application PB : P (Ω) → R est une probabilité sur P (Ω).
Remarque : En particulier, tout ce que l’on va dire sur les probabilités s’applique aux probabilités condition-
nelles.
Soit (Ω, P (Ω), P) un espace probabilisé et A1 , . . . An des événements tels que P( A1 ∩ · · · ∩ An−1 ) 6=
0. On a
P ( A 1 ∩ · · · ∩ A n ) = P ( A 1 ) × P ( A 2 | A 1 ) × P ( A 3 | A 1 ∩ A 2 ) × · · · × P ( A n | A 1 ∩ · · · ∩ A n −1 ).
353
Remarques :
1. Le fait que P( A1 ∩ · · · ∩ An−1 ) soit non nul nous assure que toutes les probabilités conditionnelles sont
bien définies. Remarquons que la convention définie ci-dessus permet d’étendre l’égalité au cas où
P( A1 ∩ · · · ∩ An−1 ) = 0.
2. Là encore c’est cohérent avec l’intuition : le fait que A1 , . . . , An soit réalisé revient à ce que A1 soit réalisé,
A2 soit réalisé sachant que A1 l’est, A3 soit réalisé sachant que A1 et A2 le sont, · · · , An soit réalisé sachant
que A1 , . . . , An−1 le sont.
Démonstration
Exemple : Toujours le même exemple. On considère une urne avec a boules blanches et b boules noires ( a > 4).
On suppose que toutes les boules sont semblables. On tire trois boules successivement et sans remise dans
l’urne et on note A0 l’événement « les trois boules sont blanches ». On note, pour i ∈ {1, 2}, Bi l’événement « la
ième boule tirée est blanche ». On a donc A0 = B1 ∩ B2 ∩ B3 et
P( A0 ) = P( B1 ).P( B2 | B1 ).P( B3 | B1 ∩ B2 ).
D’où
a( a − 1)( a − 2)
P( A 0 ) = .
( a + b)( a + b − 1)( a + b − 2)
Soit (Ω, P (Ω), P) un espace probabilisé et A1 , . . . An un système complet d’événements. Pour tout
événement B on a
n n
P( B ) = ∑ P( B ∩ Ai ) = ∑ P( Ai ).P( B| Ai ).
i =1 i =1
Remarques :
1. En théorie, on ne peut appliquer la partie à droite de la formule que si les événements Ai ont des
probabilités non nulles afin de pouvoir déterminer P( B| Ai ). Cependant, on voit dans la formule que si
pour un (ou plusieurs) i on a P( Ai ) = 0, certes le terme P( B| Ai ) n’est pas défini, mais il est multiplié par
0. On a en effet P( Ai ∩ B) = 0 = 0.P( B| Ai ).
2. Cette formule est utile quand on a un système complet d’événements qui permet de "découper" l’univers.
Pour connaître la probabilités d’un événement il s’agit de connaître les probabilités de l’événement en
supposant être dans l’un cas.
3. On peut étendre cette formule en acceptant des événements de probabilité nulle dans le système complet.
Exemple : Toujours le même exemple. On considère une urne avec a boules blanches et b boules noires ( a > 4).
On suppose que toutes les boules sont semblables. On tire trois boules successivement et sans remise dans
l’urne. On note, pour i ∈ {1, 2}, Bi l’événement « la ième boule tirée est blanche ». On cherche à calculer P( B2 ).
On considère le système complet d’événement ( B1 , B1 ). On a
P( B2 ) = P( B1 ∩ B2 ) + P( B1 ∩ B2 )
= P( B1 ).P( B2 | B1 ) + P( B1 ).P( B2 | B1 )
a a−1 b a
= . + .
a+b a+b−1 a+b a+b−1
a
=
a+b
On peut présenter cela sous forme d’un arbre.
Exercice : Avec les notations de l’exemple précédent, calculer la probabilité que la troisième boule soit blanche.
354
Proposition [Link] (Formule de Bayes)
P( A i ∩ B ) P( Ai ).P( B| Ai )
p B ( Ai ) = = n .
P( B ) ∑i=1 P( Ai ).P( B| Ai )
Remarques :
1. Cette formule est, dans un sens, la formule des probabilités totales "à l’envers". En effet, si on suppose que
l’on sait calculer P( Ai ) et P( B| Ai ), elle permet de savoir avec quelle probabilité on est dans l’événement
Ai en sachant que B est réalisé.
2. On utilise souvent le terme le plus à droite, mais il est plus simple de "retrouver" la formule que d’essayer
de s’en souvenir.
Exemple : Toujours le même exemple. On considère une urne avec a boules blanches et b boules noires ( a > 4).
On suppose que toutes les boules sont semblables. On tire trois boules successivement et sans remise dans
l’urne. On note pour i ∈ {1, 2}, Bi l’événement « la ième boule tirée est blanche ». On suppose que la deuxième
boule tirée est blanche et on veut savoir quelle est la probabilité que la première le fut. C’est à dire on veut
calculer P( B1 | B2 ). La formule de Bayes donne alors :
P( B1 ).P( B2 | B1 ) a ( a − 1) a−1
P( B1 | B2 ) = = = .
P( B1 ).P( B2 | B1 ) + P( B1 ).P( B2 | B1 ) a( a − 1) + a.b a+b−1
3 Indépendance
3.1 Indépendance de deux événements
Nous dirons que deux événements sont indépendants quand le fait de savoir que l’un est réalisé (ou non)
n’influe pas sur la probabilité que l’autre le soit.
Définition [Link]
Soit (Ω, P (Ω), P) un espace probabilisé et A et B deux événements. On dit que A et B sont indépendants si
P( A ∩ B) = P( A).P( B).
355
Définition [Link]
Deux épreuves sont indépendantes si leurs résultats sont indépendants. C’est à dire que si A est un événement
portant sur la première épreuve et B un événement portant sur la deuxième alors :
P( A ∩ B ) = P( A ) × P( B ).
Exemple : On lance deux fois un dé à 6 faces. On suppose que les deux lancers sont indépendants. Soit A
l’événement « faire un nombre pair au premier lancer »et B l’événement « ne pas faire 6 au deuxième lancer ».
Comme les épreuve sont indépendantes, les deux événements sont indépendants et
5
P( A ∩ B ) = P( A ) × P( B ) = .
12
Remarque : dans la définition précédente nous avons volontairement été flou sur les univers. Essayons d’être
un peu sérieux. Soit E1 et E2 deux épreuves que l’on suppose indépendantes. Soit Ω1 et Ω2 les univers décrivant
deux épreuves. Alors l’ensemble des deux épreuves peut être décrit par l’univers Ω1 × Ω2 l’univers décrivant
l’ensemble des deux épreuves. Soit A ⊂ Ω1 un événement portant sur la première épreuve, on considère
alors l’événement A0 = A × Ω2 ⊂ Ω1 × Ω2 . De même on regarde B0 = Ω1 × B ⊂ Ω1 × Ω2 où B ⊂ Ω2 est un
événement portant sur la deuxième épreuve. On en déduit que
P( A 0 ∩ B 0 ) = P( A 0 ) × P( B 0 ) = P( A ) × P( B ).
Dans l’exemple précédent, Ω1 = Ω2 = [[ 1 ; 6 ]] . L’événement A (resp. B) est {2, 4, 6} (resp. {1, 2, 3, 4, 5}) et
A0 = {2, 4, 6} × [[ 1 ; 6 ]] (resp. [[ 1 ; 6 ]] × {1, 2, 3, 4, 5}). On a alors A0 ∩ B0 = {2, 4, 6} × {1, 2, 3, 4, 5}.
ATTENTION
il arrive de penser que des événements sont indépendants quand ils ne le sont pas. On considère
deux pièces. La pièce A est équilibrée et la pièce B fait pile avec un probabilité 1/3. On tire une pièce
au hasard et on la lance deux fois de suite. Les deux lancers sont-ils indépendants ? On note P1 (resp.
P2 ) l’événement « on a fait pile au lancer 1 (resp. au lancer 2) ». On a alors que P1 et P2 ne sont pas
indépendants pour la probabilité de l’expérience totale P. Par contre, ils sont indépendants pour la
probabilité P A et PB
P( A ∩ B ∩ C ) = P( A ) × P( B ) × P( C ).
Malheureusement comme nous allons le voir ci-dessous aucune des deux n’implique l’autre.
Exercices :
1. On considère un dé à 6 face équilibré ainsi que les événements suivants :
356
Les événements A, B et C vérifient-ils les conditions des définitions 1 et 2.
Pour pallier à ce problème, nous dirons que trois événements sont équivalents s’ils vérifient les deux
propriétés.
Définition [Link]
— Plus généralement des événements ( Ai )i∈[[ 1 ; n ]] sont mutuellement indépendants si, pour tout J ⊂
[[ 1 ; n ]], on a
\
p Aj = ∏ P( A j ).
j∈ J j∈ J
Comme ci-dessus on peut étendre cette définition au cas d’épreuves mutuellement indépendantes.
Définition [Link]
Exemple : On a une pièce qui faire pile avec la probabilité p ∈]0, 1[. On lance 5 fois cette pièce, on suppose que
les lancers sont indépendants et on veut calculer la probabilité des événements suivants
P( A) = P( P1 ) × P( P2 | P1 ) × · · · × P( P5 | P1 ∩ P2 ∩ P3 ∩ P4 ).
357
1 Généralités
25 Séries
359
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359
1.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 360
2 Séries de références 361
2.1 Séries géométriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
2.2 Séries de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
2.3 Comparaison séries - intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362
3 Séries à termes positifs 363
3.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 364
3.2 Théorème de comparaison pour les séries à termes positifs . . . . . . . . . . . . . . . . . . . . . 365
4 Séries absolument convergentes 366
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
4.2 Applications aux séries dont le terme général n’a pas un signe constant . . . . . . . . . . . 366
5 Représentation décimale des réels 367
Une série est une somme infinie de nombres. La question qui nous occupera sera de savoir si ces sommes
infinies convergent ou non. Dans ce chapitre, K désigne R ou C.
Exemples :
1. On a
1 + 1 + · · · + 1 + · · · → ∞ (∼ n)
2. On a
1 1 1
1+ + + · · · + + · · · → ∞ (∼ ln n)
2 3 n
3. On a
1 1 1
1+ + + · · · + n + · · · → 2.
2 4 2
358
1 Généralités
1.1 Définitions
Définition [Link]
Soit (un )n∈N une suite à valeurs dans K. On appelle suite des sommes partielles la suite (Sn )n∈N par
n
∀n ∈ N, Sn = ∑ uk .
k =0
Remarque : Il arrive que l’on ne veut pas commencer à 0 mais à un entier n0 (la plupart de temps 1). On note
n
alors ∑ un la série dont les sommes partielles sont, pour n > n0 , ∑ uk . Dans la suite, on ne traitera que le
n>n0 k = n0
cas des séries qui commencent à 0.
Exemples :
n
1. Pour la série ∑ 1. On a donc pour n > 0, Sn = ∑ 1 = n + 1.
k =0
n n
1 1 1 − (1/2)n+1 1
2. Pour la série ∑ n
. On a donc pour n > 0, Sn = ∑ k = = 2− .
2 k =0 2
1 − (1/2) 2
Définition [Link]
Définition [Link]
Soit ∑ un une série convergente. Pour tout p > 0 on appelle reste d’ordre p,
∞ ∞ p −1
Rp = ∑ uk = ∑ uk − ∑ u k = S − S p −1 .
k= p k =0 k =0
359
1.2 Propriétés
Proposition [Link] (Linéarité de la somme)
Remarque : Cela signifie que l’ensemble des séries convergentes est un sous-espace vectoriel de l’ensemble des
séries. De plus l’application définie sur ce sous-espace vectoriel qui associe à une série sa somme est linéaire.
Démonstration : Soit n ∈ N on a
n n n
∑ (λuk + µvk ) = λ ∑ uk + µ ∑ vk .
k =0 k =0 k =0
n n ∞ ∞
Maintenant, par hypothèses ∑ uk et ∑ vk convergent vers ∑ uk et ∑ vk respectivement. La conclusion en
k =0 k =0 k =0 k =0
découle d’après le théorème d’opération sur les limites de suites.
Remarque : Par contre la somme de deux séries divergentes n’est pas toujours divergente. Par exemple
1
∑ 1 + 2n et ∑(−1).
Proposition [Link] (Lien série suite)
1
Exemple : Pour étudier la série ∑ n ( n + 1)
, il suffit de remarquer que
n >1
1 1 1
∀n ∈ N? , = − .
n ( n + 1) n n+1
∞
1 1
Or → 0 donc la série étudié converge et ∑ = 1.
n n =1
n ( n + 1)
Proposition [Link]
Soit ∑ un une série. Si elle converge alors le terme général un tend vers 0.
360
ATTENTION
1
Ce n’est pas une équivalence. On a vu par exemple que ∑ diverge.
n
Démonstration : Soit ∑ un une série convergente. Pour tout entier n non nul on a
n n −1
un = ∑ uk − ∑ uk .
k =0 k =0
n n −1
Maintenant si la série converge, ∑ uk et ∑ uk tendent toutes les deux vers la somme de la série. La différence
k =0 k =0
tend donc vers 0.
Remarque : On peut se servir de la contraposée pour montrer la divergence d’une série. Si le terme général ne
tend pas vers 0 alors la série diverge. On dit qu’elle diverge grossièrement.
2 Séries de références
2.1 Séries géométriques
Les séries géométriques sont les plus simples. Elles servent assez souvent en probabilités.
Soit z ∈ C. La série de terme général zn est convergente si et seulement si |z| < 1. Dans ce cas la
somme de la série est
∞
1
∑ zk = 1 − z .
k =0
Démonstration : On commence par exclure le cas où z = 1. Dans ce cas, la série diverge. On remarque ensuite
que si |z| > 1 alors pour tout entier k, |z|k > 1. De ce fait la série diverge grossièrement. A l’inverse, si |z| < 1, il
suffit de calculer les sommes partielles. Soit n ∈ N,
n
1 − zk 1 zk
∑ zk = 1−z
= +
1−z 1−z
.
k =0
zk 1 1
On a = |z|k × qui tend donc vers 0. La série converge bien vers .
1−z 1−z 1−z
1
La série de Riemann ∑ est convergente si et seulement si s > 1.
ns
361
Démonstration : Si s 6 0, la série diverge grossièrement. On suppose par la suite que s > 0. On sait que la
fonction t 7→ ts est décroissante sur R?+ . De ce fait pour tout k > 1,
Z k +1 Z k +1 Z k +1
1 dt dt dt 1
= 6 6 = .
( k + 1) s k ( k + 1) s k ts k ks ks
— Si s > 1 on a donc
Z n
n
1 dt 1 h 1− s i n 1 1
∑ ks 6 1 ts
=
1−s
t
1
=
s−1
(1 − n 1− s ) 6
s−1
k =2
On en déduit que la suite des sommes partielles est majorée. Comme elle est croissante, elle converge. La
série est bien convergente.
— Si s = 1 on a cette fois,
Z n +1 n
dt 1
ln(n + 1) − ln(2) 6
2 t
6 ∑ k
.
k =2
On en déduit que la suite des sommes partielles tend vers +∞ et donc la série diverge.
— Si s < 1 on procède comme pour le cas s = 1.
Notons que on ne regarde les sommes partielles qu’à partir de k = 2 mais cela ne change rien à la convergence.
Remarque : La limite des sommes de Riemann est difficile à calculer dans la majorité des cas. On pose
+∞
1
∀s ∈]1, +∞[, ζ (s) = ∑ n s
.
n =0
π2 π4
ζ (2) = , ζ (4) = .
6 90
De manière générale, ζ (2k) = Ck π 2k où Ck ∈ Q. On sait peut de choses que les ζ (2k + 1). On conjecture que ce
sont tous des irrationnels comme ζ (3) (Apéry : 1979).
Théorème [Link]
p
f (t) dt 6 ∑ f (k) 6
p +1
f (t) dt.
k = p +1
2. Si f est décroissante on a
Z n +1 n Z n
p +1
f (t) dt 6 ∑ f (k) 6
p
f (t) dt.
k = p +1
362
Démonstration
Remarques :
1. Si f est définie sur R en entier on peut même prendre p = 0.
1
2. La démonstration des séries de Riemann repose sur ces cas avec f : t 7→ qui est décroissante.
ts
3. Ces calculs sont juste les inégalités que l’on obtient en cherchant une valeur approchée d’une intégrale par
la méthode des rectangle (pour un pas h = 1.)
Exemples :
1. On peut montrer la convergence (ou la divergence) des séries de Riemann en prenant la bonne inégalités.
1
2. Si on cherche la nature de ∑ . On procède de même. La suite des sommes partielles est croissante
n>2
n ln n
1
on cherche donc juste à majorer ou minorer. Comme t 7→ est décroissante on est dans le deuxième
t ln t
cas : Z n +1 Z n
n
dt 1 dt
6 ∑ 6 .
3 t ln t k =3
k ln k 2 t ln t
Z x
dt
Or = ln(ln x ). En prenant la minoration, on montre que la série diverge.
t ln t
3. Si on reprend la série précédente, on a montré la divergence mais on peut même trouver un équivalent de
la suite des sommes partielles. En effet
Z n +1 n Z n
dt 1 dt
ln(ln(n)) ∼ ln(ln(n + 1)) − ln(ln(3)) = 6 ∑ 6 = ln(ln n) − ln(ln 2) ∼ ln(ln n).
3 t ln t k =3
k ln k 2 t ln t
On en déduit que
n
1
∑ k ln k
∼ ln(ln).
k =3
4. Dans le cas d’une série convergente, ce genre de méthode permet aussi de trouver un équivalent du reste
(qui tend vers 0). Si on reprend la série de Riemann pour s > 1. On a pour tout n > p > 1
s −1 s −1 ! Z n +1 n Z n s −1 s −1 !
1 1 1 dt 1 dt 1 1 1
− = s
6 ∑ s 6 s
= − .
s−1 p+1 n+1 p +1 t k = p +1
k p t s−1 p n
On sait que le terme central tend vers le reste R p quand n tend vers +∞. De plus, la limite
s −1 s −1
1 1 1 1
6 Rp 6 .
s−1 p+1 s−1 p
On en déduit donc que
s −1
1 1
Rp ∼ .
s−1 p
Exercices :
n
1
1. Déterminer un équivalent de ∑ ks
pour 0 < s < 1.
k =1
1
2. Montrer que la série de terme général ∑ converge et déterminer un équivalent du reste R p .
k ln2 k
363
3.1 Généralités
Proposition [Link]
Soit ∑ un une série à termes positifs. La suite des sommes partielles est croissante.
Démonstration : Evident.
On peut appliquer le théorème de convergence monotone.
Proposition [Link]
Soit ∑ un une série à termes positif. Elle est convergente si et seulement si la suite des sommes
partielles est majorée.
Théorème [Link]
Soit ∑ un et ∑ vn deux séries à termes positifs. On suppose que pour tout entier n, un 6 vn .
+∞ +∞
1. Si ∑ vn converge alors ∑ un aussi et ∑ un 6 ∑ vn .
n =0 n =0
2. Si ∑ un diverge alors ∑ vn aussi.
ATTENTION
Par contre, avec les hypothèses ci-dessus, le fait que ∑ vn diverge ne donne aucune information sur
la nature de la série ∑ un . De même le fait que ∑ un converge ne donne pas d’information sur la
nature ∑ vn .
Remarque : Comme dans le cas classique pour les suites, on peut supposer que l’inégalité un 6 vn ne soit vraie
qu’à partir d’un certain rang. Cependant, on n’a plus l’information sur les sommes dans ce cas.
Démonstration : Si on note Un et Vn les sommes partielles. On a donc
∀n ∈ N, Un 6 Vn .
1. Si on suppose que ∑ vn converge et si on note V = lim Vn on en déduit que pour tout entier n,
n→+∞
Un 6 Vn 6 V.
De ce fait (Un ) est majorée par V (et pas par Vn ce qui ne voudrait rien dire...). Comme elle est croissante
elle converge et
lim Un 6 V.
n→∞
2. Si on suppose que ∑ un diverge alors nécessairement lim(Un ) = +∞ car la suite des sommes partielles
est croissante. par comparaison lim(Vn ) = +∞ et donc ∑ vn diverge.
Exemples :
1
1. Cherchons la nature ∑ . On a déjà vu que l’on peut montrer que cette série est convergente (et
n ( n + 1)
on peut même calculer sa somme) par un télescopage. On peut aussi dire directement,
1 1
∀n ∈ N? , 0 6 6 2
n ( n + 1) n
364
1 1
or ∑ est une série de Riemann convergente donc ∑ converge (par contre ainsi on n’obtient
n2 n ( n + 1)
qu’une majoration de la somme par ζ (2)).
1
2. Cherchons la nature ∑ . On a pour tout entier n > 2,
n>2
ln n
1 1
06 6 .
n ln n
1
On sait que la série harmonique diverge donc ∑ ln n
diverge aussi.
n >2
ATTENTION
Cela n’est bien évidemment plus vrai si la série n’est pas à termes positifs.
Remarques :
1. Ce théorème est TRES utile. Dans la très grande majorité des cas pour étudier la nature d’une série à
termes positifs on cherche un équivalent simple (via un DL par exemple) et on en déduit ainsi sa nature.
2. On utilisera dans ce cours l’abbreviation TCPSP.
3. Il suffit que les deux séries soient positives à partir d’un certain rang.
ATTENTION
Cela n’est plus vrai si la série n’est pas à termes positifs (ou à termes de signe constant). Par exemple
(−1)n
la série de terme général un = converge (voir DM ? ou le faire avec les séries alternées ou la
n
(−1)n 1
formule de Taylor pour ln) mais la série de terme générale vn = + diverge (somme
n n ln n
d’une série convergente et d’une série divergente) par contre on a bien un ∼ vn .
un
Démonstration : Par définition → 1. De ce fait il existe N ∈ N tel que
vn
1 un 3
∀n ∈ N, n > N ⇒ 6 6
2 vn 2
(définition de la limite en prenant ε = 1/2). C’est-à-dire que
1 3
∀n ∈ N, n > N ⇒ vn 6 un 6 vn
2 2
On en déduit (grace à l’inégalité de droite) que si ∑ vn converge alors ∑ un aussi. De plus, l’inégalité de gauche
nous permet de dire que ∑ vn diverge alors ∑ un aussi.
On en déduit que ∑ un a la même nature que ∑ vn .
365
Remarque : On voit dans la preuve que ce qui compte est qu’il existe (m, M ) ∈ R∗+ tels que, à partir d’un
certain rang,
un
∀n ∈ N, n > N ⇒ m 6 6M
vn
un
C’est en particulier vrai si a une limite finie non nulle (et pas nécessairement 1).
vn
Exemples :
3n + 2 3n + 2 3 1
1. La série de terme général ∑ 3 converge car 3 ∼ 2 et que ∑ 2 est une série de Riemann
n + ln n n + ln n n n
convergente.
3 + n ln n 3 + n ln n ln n ln n
2. La série de terme général ∑ 2 converge car 2 ∼ et que ∑ diverge car
n +n+1 n +n+1 n n
ln n 1
> et que cette dernière est une série de Riemann divergente.
n n
4.1 Définition
Définition [Link]
Soit ∑ un une série éventuellement complexe. On dit qu’elle est absolument convergente si la série (à termes
réels positifs) ∑ |un | est convergente.
Remarque : L’intérêt est que pour savoir si une série est absolument convergente, on est ramené à étudier une
série à termes (réels) positifs.
Exemples :
(−1)n (−1)n 1 1
1. La série ∑ n’est pas absolument convergente car = et que ∑ n’est pas convergente.
n n n n
cos(n) cos(n)
2. La série ∑ 2
est absolument convergente car ∑ est une série à termes positifs et que
n n2
cos(n) 1
6 2 cette dernière étant une série de Riemann convergente.
n2 n
4.2 Applications aux séries dont le terme général n’a pas un signe constant
Le résultat principal est qu’une série complexe (ou réelle) absolument convergente est convergente.
Rappels : Si x est un réel on note x + (resp. x − ) la partie positive (resp. négative) de x. C’est-à-dire que
+ x si x > 0 − 0 si x > 0
x = et x =
0 sinon − x sinon
De ce fait on a x = x + − x − et | x | = x + + x − .
Théorème [Link]
Soit ∑ un une série éventuellement complexe. Si elle est absolument convergente alors elle est
convergente.
ATTENTION
(−1)n
Ce n’est pas une équivalence. Par exemple ∑ n’est pas absolument convergente mais elle est
n
convergente. On dit que c’est une série semi-convergente.
366
Remarque : Les séries semi-convergentes sont des objets dangereux à manipuler. En effet on peut montrer
qu’en réordonnant les termes de la série on modifie la somme. Plus précisément on peut la faire tendre vers la
valeur voulue.
Démonstration :
— Commençons par étudier le cas où ∑ un une série à termes réels absolument convergente. On considère
les séries à termes positifs ∑ u+n et ∑ un . Comme on sait que pour tout entier n, un 6 | un | et un 6 | un |
− + −
et que ∑ |un | est une série convergente, on en déduit que ∑ un et ∑ un sont des séries convergentes. Par
+ −
Corollaire [Link]
Soit ∑ un une série à termes (éventuellement) complexes et ∑ vn une série à termes réels positifs.
On suppose que
— on a un = O(vn )
— la série ∑ vn converge
Alors la série ∑ un est absolument convergente (donc convergente).
Par exemple
1 4 1
π = 3+ + + +···
10 100 1000
Remarque : On va restreindre les chiffres. En effet si on prend ∀n ∈ N∗ , αn = 9 on obtient le nombre 1 :
0, 999999 · · · = 1.
Pour s’en convaincre il suffit de calculer la limite des sommes partielles (séries géométriques) où de voir que
10x − x = 9.
Définition [Link]
α0 ∈ N et ∀n > 1, αn ∈ [[ 0 ; 9 ]] .
Si de plus, la suite n’est pas stationnaire à 9 on dit que le développement décimal est propre.
367
Notation : On notera D l’ensemble des développements décimaux propres.
Théorème [Link]
Tout nombre réel positif admet un unique développement décimal propre. C’est-à-dire que l’applica-
tion
ϕ: D → R+
+∞
αn
(αn ) 7→ ∑ n
n =0
10
est une bijection.
Remarque : On peut commencer par voir que la série est clairement convergente car ∀n ∈ N∗ , αn 6 10.
Démonstration :
— Pour la surjectivité (ou l’existence) il suffit d’utiliser le développement décimal par défaut en remplaçant
une éventuelle suite stationnaire à 9 par une suite stationnaire à 0 avec « une retenue ».
— Pour l’injectivité (ou l’unicité) on suppose se donner deux développements décimaux propres distincts
(αn ) et ( β n ) et on va montrer que
+∞ +∞
αn βn
∑ 10n 6= ∑ 10n .
n =0 n =0
Notons p le plus petit entier tel que α p 6= β p et, par symétrie on peut supposer que α p > β p . On va alors
montrer que
+∞ +∞
αn βn
A= ∑ n
− ∑ n
> 0.
n= p 10 n= p 10
αp − β p +∞
αn − β n
On a A = p + ∑ où, pour tout n > p + 1, −9 6 αn − β n 6 9. De plus, les développe-
10 n = p +1
10n
ments étant propres, il existe q > p + 1 tel que |αq − β q | 6 8. On en déduit alors que
+∞ +∞
αn − β n αn − β n
∑ 10n 6 ∑ 10n
n = p +1 n = p +1
+∞
9 8
= ∑ 10 n
+ q
10
p + 16 n
n6=q
+∞
9 1
6 ∑ 10 n
−
q
n = p +1
+∞
9 1
< ∑ 10 n
= p
10
n = p +1
368
1 Définitions
26
Matrices
369
1.1 Motiviation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
1.2 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
1.3 L’espace vectoriel Mn,p (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371
1.4 Produit de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
1.5 Produit dans Mn (K) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373
1.6 Transposition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
1.7 Quelques matrices particulières . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 375
1.8 Calculs par blocs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378
2 Matrices et applications linéaires 379
2.1 Matrice d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 379
2.2 Application linéaire canoniquement associée à une matrice . . . . . . . . . . . . . . . . . . . 380
2.3 Matrice d’une application linéaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 382
2.4 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
2.5 Cas des endomorphismes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
3 Changements de bases 385
3.1 Matrices de changement de bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385
3.2 Changement de base des applications linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387
3.3 Trace d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
4 Rang d’une matrice 390
4.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390
4.2 Calcul du rang - Opérations élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393
5 Applications aux systèmes linéaires 394
5.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 394
5.2 Determination de l’inverse d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
1 Définitions
1.1 Motiviation
On a vu dans le chapitre sur les applications linéaires que si E et F sont des espaces vectoriels de dimension
finie (dim E = p, dim F = n) et si on se fixait des bases (e1 , . . . , e p ) et ( f 1 , . . . , f p ) de E et F respectivement alors
369
une application linéaire de E dans F était uniquement déterminée par la donnée de scalaires ( aij )16i6n . On va
16 j 6 p
donc stocker ses scalaires dans un tableau à deux dimensions que nous appellerons matrice.
1.2 Définitions
Définition [Link]
Soit (n, p) ∈ (N? )2 . On appelle matrice à n lignes et p colonnes et à coefficients dans K, la donnée d’une
application de [[ 1 ; n ]] × [[ 1 ; p ]] dans K. On dit que c’est une matrice de taille n, [Link] revient à se donner
une famille ( aij ) d’éléments de K indexée par [[ 1 ; n ]] × [[ 1 ; p ]] en convenant que aij est l’image de (i, j) par
l’application.
Notations :
1. On représente une matrice à n lignes et p colonnes, sous la forme d’un tableau à n lignes et p colonnes :
a11 · · · a1p
.. .
A = ... .
an1 · · · anp
On a
1 0 ··· 0
.. .. .
0
. . ..
.
In = .
.. . . . . . . 0
0 ··· 0 1
370
1.3 L’espace vectoriel Mn,p (K)
Soit n et p deux entiers non nuls.
Soit ( A, B) ∈ Mn,p (K)2 . On note ( aij ) et (bij ) leurs coefficients respectifs. On définit la somme C ∈ Mnp (K)
que l’on note A + B comme la matrice dont les coefficients (cij ) vérifient :
Remarques :
1. Cela correspond à la somme des applications.
2. Pour pouvoir faire la somme de deux matrices elles doivent avoir la même taille.
3. Cela consiste à faire la somme terme à terme. En particulier on retrouve la somme dans Kn pour les
matrices Mn,1 .
Exemple : On a
1 2 −1 4 0 2 5 2 1
+ = .
0 2 9 −2 0 −7 −2 2 2
Soit A ∈ Mn,p (K). On note ( aij ) ses coefficients. Soit λ ∈ K. On définit le produit λ.A comme la matrice
dont les coefficients (cij ) vérifient :
Remarques :
1. C’est encore la multiplication externe des applications.
2. Cela consiste à multiplier tous les termes de la matrice par λ. En particulier on retrouve le produit externe
dans Kn pour les matrices Mn,1 .
Exemple : On a
1 2 −1 −2 −4 2
(−2). = .
0 2 9 0 −4 −18
Théorème [Link]
Les opérations ci-dessus munissent Mn,p (K) d’une structure d’espace vectoriel.
Proposition [Link]
Les matrices ( Eij ) pour (i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] forment une base de Mnp (K) que l’on appelle la
base canonique. En particulier,
dim Mnp (K) = np.
Démonstration : Cette famille engendre bien Mnp (K). En effet, pour toute matrice A. Si on note A = ( aij )16i6n .
16 j 6 p
Alors
A= ∑ aij Eij .
16 i 6 n
16 j 6 p
371
De plus, cette famille est aussi libre. Car si (λij )16i6n est une famille de scalaire telle que ∑ λij Eij = 0 alors
16 j 6 p 16 i 6 n
16 j 6 p
∀(i, j) ∈ [[ 1 ; n ]] × [[ 1 ; p ]] , λij = 0. C’est bien une base.
Exercice : Montrer que
1 1 1 0 1 0 0 2
, , ,
1 1 0 1 0 −1 0 0
est une base de M2 (K).
Définition [Link]
Soit (n, p, q) ∈ (N? )3 , A ∈ Mnp (K) et B ∈ M pq (K). Le produit AB est la matrice C ∈ Mnq (K) dont les
coefficients (cij )16i6n sont donnés par :
16 j6 p
p
∀(i, j) ∈ [[ 1 ; n ]] × [[ 1 ; q ]] , cij = ∑ aik bkj .
k =1
ATTENTION
Pour pouvoir faire le produit AB, la matrice A doit avoir autant de colonne que B de lignes. En
particulier, si A et B sont de même taille, on ne peut faire le produit AB que si A et B sont carrées.
On en déduit que le produit n’est une loi de composition interne que dans Mn (K).
ϕ( A, •) : Mn ( K ) → Mn ( K )
B 7→ AB
est linéaire. De même, la distributivité à droite (avec la compatibilité au produit externe) dit que pour toute
matrice B, l’application
ϕ(•, B) : Mn (K) → Mn (K)
A 7→ AB
est aussi linéaire. On dit que ϕ est bilinéaire.
372
1.5 Produit dans Mn (K)
Définition [Link]
Exemples :
1. On a
3 0 2
2 1 0 7 −1 6
. 1 −1 2 = .
0 1 −1 −3 −2 0
4 1 2
2. On appelle matrice scalaire toute matrice de la forme λIn pour λ ∈ K. Soit A ∈ Mn (K) on a alors
(λIn ) × A = A × (λIn ). En particulier, les matrices scalaires commutent à toutes les matrices.
Exercices :
1. Calculer AB et BA pour
4 1
2 1 0
A= et B = 0 0 .
1 −1 0
2 −4
2. Factoriser A + AB et A + BA.
3. Soit A ∈ Mn (K). Montrer que si A commutent à toutes les matrices de Mn (K) alors c’est une matrice
scalaire. On pourra calculer AEij et Eij A.
Proposition [Link]
Les opérations définissent ci-dessus munissent (Mn (K), +, ×) d’une structure d’anneau et
(Mn (K), +, ×, .) d’une structure de K-algèbre.
Démonstration : On peut, là encore, tout démontrer « à la main ». Cependant, nous verrons un peu plus loin
une méthode pour l’éviter. Nous repoussons donc la démonstration à plus tard.
Remarque : L’élément neutre de Mn (K) est la matrice identité In . On vérifie en effet que A × In = In × A = A.
Proposition [Link]
0
..
.
1
Soit A ∈ Mnp (K) et pour tout i ∈ [[ 1 ; n ]] on note X j =
0 ∈ Mn1 (K) où le 1 est à la j-ème
.
..
0
ligne. Le produit AXi est la matrice colonne qui est la j-ème colonne de la matrice A. En particulier
si A et B sont deux matrices de Mnp (K) telles que ∀ j ∈ [[ 1 ; p ]] , AX j = BX j alors A = B.
Démonstration
Exercice : Faire la même chose pour les lignes.
Définition [Link]
Soit A une matrice de Mn (K). Elle est dite inversible si elle l’est dans l’anneau Mn (K) c’est-à-dire, s’il existe
une matrice B telle que
AB = BA = In .
Dans ce cas, l’inverse (qui est unique) est noté A−1 . L’ensemble des matrices inversibles de Mn (K) se note
GLn (K).
373
Remarque : Nous verrons plus loin que AB = In ou BA = In est suffisant pour que A soit inversible (et
B = A−1 ).
1 1 1 3
Exemple : La matrice est inversible alors que ne l’est pas.
0 −1 −2 −6
Remarques :
1. On voit qu’il existe des matrices non nulles qui ne sont pas inversibles donc Mn (K) n’est pas un corps
(sauf si n = 1).
1
2. Les matrices n’étant pas un anneau commutatif (sauf si n = 1) il ne faut pas noter l’inverse de A.
A
3. Le fait qu’une matrice A soit inversible signifie que le système linéaire qu’elle représente est inversible (de
Cramer). Nous y reviendrons.
Proposition [Link]
Soit A et B deux matrices inversibles. La matrice AB est inversible et ( AB)−1 = B−1 A−1 .
Démonstration
Corollaire [Link]
L’ensemble des matrices inversibles est un groupe multiplicatif (GLn (K), ×) dont l’élément neutre
est In . Ce n’est pas un groupe abélien sauf si n = 1.
Définition [Link]
d
Soit MMn (K) et P ∈ K[ X ]. On note P = ∑ ak X k . On note
k =0
d
P( M) = ∑ ak Mk .
k =0
374
Proposition [Link]
Exemple : Soit
0 1 −1
A = −3 4 −3 .
−1 1 0
En calculant les premières puissances de A on se rend compte que A2 − 3A + 2I = 0..
On peut en déduire que A est inversible. En effet A( A − 3I ) = −2I. D’où A est inversible et A−1 =
1
(− A + 32I ).
2
De plus on peut en déduire que pour tout entier n, il existe ( an , bn ) ∈ Rn tels que An = an A + bn I. Cela se
fait par récurrence ou en utilisant une division euclidienne.
1.6 Transposition
Définition [Link]
Soit A ∈ Mnp (K). On note ( aij ) les coefficients de A. On appelle transposée de A et on note tA la matrice de
M pn (K) dont les coefficients (bij ) sont données par :
∀(i, j) ∈ [[ 1 ; p ]] × [[ 1 ; n ]] , cij = a ji .
Proposition [Link]
Démonstration
375
Matrices triangulaires
Soit A ∈ Mn (K). La matrice est dite triangulaire supérieure (resp. inférieure) si les coefficients « sous »(resp.
« au dessus de ») la diagonale sont nuls. C’est-à-dire :
1 2 3
Exemple : La matrice 0 5 0 est triangulaire supérieure.
0 0 −5
Proposition [Link]
n ( n + 1)
1. L’ensemble Tn (K) est un sous-espace vectoriel de E. Il est de dimension .
2
2. L’ensemble Tn (K) est stable par produit. C’est un sous-anneau de E.
Démonstration
Matrices diagonales
Soit A ∈ Mn (K). La matrice est dite diagonale si les coefficients en dehors de la diagonale sont nuls.
C’est-à-dire :
∀(i, j) ∈ [[ 1 ; n ]]2 , (i 6= j) ⇒ aij = 0.
Il existe donc (λ1 , · · · , λn ) tels que
λ1 0 ··· 0
.. .. ..
0 . . .
A=
..
.
.. ..
. . . 0
0 · · · 0 λn
Si de plus tous les λi sont égaux, la matrice est dite scalaire. Elle est alors de la forme λ.In pour λ ∈ K.
On note Dn (K) l’ensemble des matrices diagonales de E.
Remarque : Toutes la matrices scalaires sont diagonales mais il existe des matrices diagonales qui ne sont pas
scalaires.
Proposition [Link]
L’ensemble Dn (K) est un sous-espace vectoriel de E de dimension n. Il est stable par produit, c’est
une sous-algèbre de Mn (K).
Démonstration
376
Matrices symétriques et anti-symétriques
Soit A ∈ Mn (K). La matrice est dite symétrique (resp. antisymétrique) tA = A (resp. tA = − A). C’est-à-
dire :
∀(i, j) ∈ [[ 1 ; n ]]2 , aij = a ji (resp. aij = − a ji ).
En particulier, les termes diagonaux d’une matrice antisymétrique sont nuls. On note Sn (K) l’ensemble des
matrices symétriques de E et An (K) l’ensemble des matrices antisymétriques de E.
1 2 3 0 2 −3
Exemple : La matrice 2 5 0 est symétrique. La matrice −2 0 0 est antisymétrique.
3 0 −5 3 0 −5
Proposition [Link]
Remarques :
1. La décomposition d’une matrice A en somme d’une matrice symétrique et d’une matrice antisymétrique
s’écrit :
1 1
A= A + tA + A − tA .
2 2
2. Pour toute matrice A, la matrice tAA est symétrique.
Proposition [Link]
L’application
tr : Mn ( K ) → K
A 7→ tr ( A)
est une forme linéaire sur Mn (K).
Démonstration
Remarque : En particulier, comme l’application trace n’est pas l’application nulle car tr ( In ) = n, l’ensemble
des matrices de trace nulle est un hyperplan de E.
377
Proposition [Link]
Démonstration : Fixons les notations. On note A = ( aij ) et B = (bij ). Posons alors AB = (cij ) et BA = (dij ) de
sorte que
n n
∀(i, j) ∈ [[ 1 ; n ]]2 , cij = ∑ aik bkj et dij = ∑ bik akj .
k =1 k =1
Dès lors
n n n n n n
tr ( AB) = ∑ cii = ∑∑ aik bki = ∑ ∑ bki aik = ∑ dkk = tr ( BA).
i =1 i =1 k =1 k =1 i =1 k =1
et on écrit
A B
M=
C D
De même si on pose
0 1 0 −1
A = ,B = , C0 = 1 et D 0 = 1
2 −1
et on écrit
0 A0 B0
M =
C0 D0
Maintenant on peut voir que le produit MM0 peut se calculer par la formule :
0 AA0 + BC 0 AB0 + BD 0
MM = .
CA0 + DC 0 CB0 + DD 0
Définition [Link]
On note alors
A B
M=
C D
378
Théorème [Link] (Produit par blocs)
Soit M et M0 deux matrices appartenant respectivement à Mnp (K) et M pq (K). Soit n1 , p1 , q1 permet-
tant de définir des blocs :
0
A B 0 A B0
M= et M =
C D C0 D0
Remarques :
1. Le terme p1 qui définit le nombre de colonnes de A est le même que celui qui définit le nombre de lignes
de A0 afin que le produit AA0 existe.
2. Cela se généralise de manière naturelle à des découpages autres que ceux avec 4 blocs. Par exemples
A AC
C= .
B BC
Soit B = (e1 , . . . , e p ) une base d’un espace vectoriel E et v un vecteur de E. On appelle matrice de v dans la
base B et on note MatB (v) la matrice des coefficients du vecteur v exprimés dans la base B. C’est à dire que
l’on pose
MatB (v) = ( ai ) où v = a11 e1 + · · · a p e p .
Remarques :
1. La matrice dépend de la base choisie.
2. La matrice d’un vecteur est un vecteur colonne.
3. On construit ainsi une application :
E → Mn1 (K)
v 7→ MatE (v).
Cette application associe à un vecteur v la matrice de ses coordonnées dans la base E . On peut voir que
c’est un isomorphisme. On peut même en déduire un isomorphisme E dans Kn en voyant la matrice
colonne comme un élément de Kn .
4. Quand la base est évidente (en particulier pour la base canonique de Kn ) on notera juste Mat(v).
ATTENTION
379
Exemple : Dans R2 . On considère w = (3, −1). On a
3 1
Matcan (w) = et MatB (w) =
−1 2
Définition [Link]
Soit E = (e1 , . . . , en ) une base de E et (v1 , . . . , v p ) ∈ E p une famille de vecteurs de E. On appelle matrice
de la famille (v1 , . . . , v p ) dans la base E et on note MatE (u1 , . . . u p ) la matrice des coefficients des vecteurs
v1 , . . . , v p exprimés dans la base E . C’est à dire que l’on pose
Exemple : Dans R4 on considère les vecteurs v1 = (3, 0, 1, 1), u2 = (3, −1, −1, 0) et u3 = (5, 1, 1, 2). Alors
3 3 5
0 −1 1
Mat(u1 , u2 , u3 ) =
1 −1
.
1
1 0 0
Remarques :
1. La matrice dépend de la base choisie.
2. Quand la base est évidente, on notera seulement Mat(u1 , . . . u p ).
Définition [Link]
p
Soit (n, p) ∈ (N? )2 et A ∈ Mnp (K). On note ( aij )16i6n . On note (e j ) j=1 la base canonique de K p et ( f i )in=1
16 j 6 p
la base canonique de Kn . On appelle application linéaire canoniquement associée à A l’unique application
linéaire f de K p dans Kn telle que
n
∀ j ∈ [[ 1 ; p ]] , f (e j ) = ∑ aij fi .
i =1
4 0 2
Exemple : Soit A = . On lui associe l’application linéaire de K3 dans K2 définie par
−2 0 −7
On a donc
∀( x, y, z) ∈ K3 , f ( x, y, z) = (4x + 2z, −2x − 7z).
Proposition [Link]
L’application F ainsi définie de Mnp (K) dans L (K p , Kn ) est un isomorphisme d’espace vectoriel.
Démonstration : Montrons d’abord que c’est une application linéaire. Soit A et B deux matrices de Mnp (K) et
λ, µ deux scalaires. Notons C = λA + µB. L’application F (C ) est définie par
n
∀ j ∈ [[ 1 ; p ]] , f (e j ) = ∑ λaij + µbij fi .
i =1
380
L’application λF ( A) + µF ( B) aussi. De ce fait on a bien
Montrons maintenant que c’est un isomorphisme. Pour cela nous allons exhiber une application réciproque
G de L (K p , Kn ) dans Mnp (K). Soit f dans L (K p , Kn ). Pour tout i ∈ [[ 1 ; p ]], le vecteurs f (ei ) se décompose
dans la base ( f j ). On note, pour tout i dans [[ 1 ; p ]]
n
f ( ei ) = ∑ aij f j .
j =1
Proposition [Link]
Mat( a( x )) = [Link]( x )
X 7→ A.X
Proposition [Link]
Soit (n, p, q) ∈ (N? )3 trois entiers, A ∈ Mnp (K) et B ∈ M pq (K). On note a et b les applications
canoniquement associées à A et B. L’application canoniquement associée à AB est a ◦ b.
Remarques :
1. Cette proposition est fondamentale. Elle explique la définition du produit matriciel.
2. D’après les définitions, a ∈ L (K p , Kn ) et b ∈ L (Kq , K p ) donc a ◦ b est bien définie et appartient à
L ( K p , K n ).
Démonstration : Si on note c l’application canoniquement associée à AB. Pour tout vecteur x de K p ,
Corollaire [Link]
Démonstration : Montrons par exemple que la multiplication est distributive à gauche à savoir :
F ( A × ( B + C )) = a ◦ (b + c) = a ◦ b + a ◦ c (par linéarité)
De plus
F ( A × B + A × C ) = a ◦ b + a ◦ c.
Comme F est injective, on a la propriété voulue.
381
Définition [Link]
Soit (n, p) ∈ (N? )2 et A ∈ Mnp (K) on appelle noyau de A (resp. image de A) et on note Ker A (resp. Im A)
le noyau (resp. l’image) de l’application linéaire canoniquement associée a. De plus, on considère souvent
Ker A (resp. Im A) comme un sous-espace vectoriel de M p1 (K) (resp. de Mn1 (K)) via l’identification de K p
avec M p1 (K).
Remarque : On a donc que Ker A est l’ensemble des X ∈ M p1 (K) tels que AX = 0. A l’inverse Im A est
l’ensemble de B ∈ Mn1 (K) tel qu’il existe X ∈ M p1 (K) tels que AX = B. Cela revient à dire que Im A =
Vect(C1 , . . . , C p ) où C1 , . . . , C p sont les colonnes de A.
Soit E et F deux espaces vectoriels de dimension finie. Soit E = (e1 , . . . , e p ) et F = ( f 1 , . . . , f n ) des bases de
E et de F. A toute application linéaire u de E dans F on associe la matrice MatE ,F (u) = ( aij ) ∈ Mnp (K)
où les ( aij ) sont tels que
n
∀ j ∈ [[ 1 ; p ]] , u(e j ) = ∑ aij fi .
i =1
Remarques :
1. La matrice d’une application est donc les matrices des coordonnées dans la base F des images des
vecteurs de la base E par u.
2. Cette construction est bien la réciproque de l’application linéaire canonique associée à une matrice. La
matrice associée dans les bases canoniques à l’application linéaire canonique associée à une matrice est la
matrice dont on est parti.
3. En reprenant les notations du paragraphe précédent on a donc
B La matrice définie ci-dessus dépend des bases E et F comme nous allons le voir sur des exemples.
Cependant, si les bases sont évidentes, nous les omettrons dans la notation.
Exemples :
1. Soit u : ( x, y) 7→ (2x + y, x − y, 3x ). On cherche sa matrice dans les bases canoniques. On trouve
2 1
Matcan,can (u) = 1 −1 .
3 0
Maintenant on peut changer la base de R2 voulue. Si on considère B = (u, v) où u = (1, 1) et v = (1, −1)
alors B est une base et
3 1
MatB,can (u) = 0 2 .
3 3
1
2. Soit v : ( x, y, z) 7→ ( x − y − z, − x + y − z, 2z). On cherche sa matrice dans les bases canoniques. On
2
trouve
1 −1 −1
1
Matcan,can (v) = −1 1 −1 .
2
0 0 1
382
On peut déterminer non noyau et son image. On trouve Ker v = Vect(1, 1, 0) et Im v = {( x, y, z) ∈
R3 | x + y + z = 0} = Vect(1, 0, −1), (0, 1, −1). On remarque alors que Ker v et Im v sont supplé-
mentaires et que v|Im v = Id. On en déduit que v est un projecteur et sa matrice dans la base B =
((1, 1, 0), (1, 0, −1), (0, 1, −1)) est
0 0 0
MatB,B (v) = 0 1 0 .
0 0 1
Ici on a encore pris B comme base « à l’arrivée ».
3. Soit ∆ : R3 [ X ] → R3 [ X ] définie par ∆( P) = P0 . Sa matrice dans les bases canoniques est
0 1 0 0
0 0 2 0
Mat(∆) = 0 0 0 3 .
0 0 0 0
Exercice : Soit T : R3 [ X ] → R3 [ X ] définie par T ( P) = P( X + 1). Écrire sa matrice dans les bases canoniques.
2.4 Propriétés
La matrice d’une application linéaire permet de calculer « en coordonnées » l’image d’un vecteur par
l’application linéaire.
Théorème [Link]
Remarques :
1. Il est important de prendre les bonnes bases pour E et pour F.
2. De fait la connaissance de la matrice permet de faire les calculs.
3. La formule de calcul de l’image d’une application linéaire par voie matricielle s’étend au cas d’une famille
de vecteurs. Précisément on a pour tout famille (w1 , . . . , wk ) de vecteurs de E,
MatF (u(w1 ), . . . , u(wk )) = MatE ,F (u) × MatE (w1 , . . . , wk ).
383
2. Calculons la dérivée de P = 2 + 3X − 4X 3 avec sa matrice.... (à faire)
Proposition [Link]
est un isomorphisme.
Démonstration :
— Montrons d’abord qu’elle est linéaire (à faire). Il suffit de considérer les colonnes des matrices...
— Montrons qu’elle est injective. Une application linéaire qui s’annule sur une base est nulle.
— On utilise alors que dim L ( E, F ) = dim Mnp (K) = np pour conclure que c’est un isomorphisme.
Proposition [Link]
MatE ,F (v).X = MatF (v(w)) et donc MatF ,G (u) × MatE ,F (v) × X = MatG ((u ◦ v)(w)).
On en déduit que
MatE ,G (u ◦ v) = MatF ,G (u) × MatE ,F (v).
Proposition [Link]
Exemples :
1. On a vu précédemment que l’application linéaire v dont la matrice était
1 −1 −1
1
A = −1 1 −1
2
0 0 1
384
2. Si on reprend l’endomorphisme de dérivation ∆ dans R3 [ X ] on a
0 1 0 0
0 0 2 0
Mat(∆) = A = 0 0 0 3
.
0 0 0 0
On en déduit
0 0 2 0 0 0 0 6
0 0 6 0 0 0 0
A =
2
0
,A =
3 et A4 = 0.
0 0 0 0 0 0 3
0 0 0 0 0 0 0 0
Théorème [Link]
Démonstration :
— i.) ⇒ iii.) Il suffit de poser B = MatE (u−1 ) et de vérifier que AB = BA = MatE (Id) = I.
— iii.) ⇒ ii.) Evident
— ii.) ⇒ i.) Soit B = A−1 et v l’endomorphisme tel que MatE (v) = B. On a
Donc u ◦ v = v ◦ u = Id.
Remarque : Cela permet de montrer que s’il existe B telle que AB = I alors A est inversible. En effet on connait
ce résultat sur les endomorphismes.
3 Changements de bases
3.1 Matrices de changement de bases
Proposition [Link]
Soit E un espace vectoriel et (v1 , . . . , v p ) une famille de vecteurs de E. Les assertions suivantes sont
équivalentes.
i.) La famille est une base de E.
ii.) Il existe une base E telle que MatE (v1 , . . . , v p ) soit inversible.
iii.) Pour toute base E , MatE (v1 , . . . , v p ) est inversible.
Démonstration :
— i.) ⇒ iii.) On suppose que la famille est une base de E. Soit E = (e1 , . . . , e p ) une base de E on note
A = MatE (v1 , . . . , v p ). On voit que A est la matrice de l’application linéaire f de E dans lui même définie
par f (ei ) = vi . En particulier, l’image d’une base étant une base, f est bijective et donc A est inversible.
— iii.) ⇒ ii.) Evident
— ii.) ⇒ i.) On considère encore l’application f comme ci-dessus. Comme A est inversible alors f est bijective
et donc l’image de la base E est une base de E.
385
Remarque : Pour tous ces calculs on peut remplacer E par Kp et la base E par la base canonique. Par exemple,
la matrice
1 1 1
A= 1 2 3
1 −1 0
est inversible car les vecteurs (1, 1, 1), (1, 2, −1) et (1, 3, 0) forment une base de K3 .
Définition [Link]
Soit E un espace vectoriel et B, B 0 deux bases de E. On appelle matrice de passage de B dans B 0 la matrice
B 0
PB = MatB (B 0 ).
C’est la matrice des coordonnées des vecteurs de la nouvelle base dans l’ancienne base.
Exemples :
1. Dans R2 si B est la base canonique et B 0 la base (u, v) où u = (1, 1) et v = (1, −1) donc la matrice de
passage de B à B 0 est
1 1
P= .
1 −1
Par contre la matrice de passage de B 0 à B est
1 1 1
Q= .
2 1 −1
1 1
En effet (1, 0) = (u + v) et (0, 1) = (u − v).
2 2
2. Dans Kn [ X ]. On pose B la base canonique et T = (( X − a)k ) la base de Taylor. La matrice de changement
de base est alors
1 − a (− a)2 · · · (− a)n
0 1 −2a · · · n(− a)n−1
.. . . ..
P= . . . ··· .
. .. ..
.. . . ···
0 ··· ··· 0 1
L’intérêt d’une matrice de changement de bases et qu’elle permet de calculer les coefficients d’un vecteur
dans la nouvelle base.
Précisément, soit v un vecteur de E. On suppose que l’on connait ses coordonnées dans la base B. On pose
x1
V = MatB (v) = ... .
xn
386
v = x10 u10 + · · · + xn0 u0n
= x10 ( a11 u1 + · · · + a1n un ) + · · · + xn0 ( an1 u1 + · · · + ann un )
= ( a11 x10 + · · · + an1 xn0 )u1 + · · · + ( a1n x10 + · · · + ann xn0 )un .
On en déduit que V = PV 0 .
Proposition [Link]
On a alors
X = PX 0 .
C’est-à-dire
X 0 = P−1 X.
Remarque : On remarque en particulier que si P est la matrice de passage de B à B 0 alors P−1 est la matrice
de B 0 à B.
Exemple : On se place dans R2 . On considère B = ((1, 0), (0, 1)) la base canonique et B 0 = ((1, 1), (1, −1)).
La matrice de passage de B dans B 0 est
1 1 −1 1 1 1
P= d’où P = .
1 −1 2 1 −1
2
Prenons par exemple le vecteur v = (2, 1) dans la base canonique. On pose V = . Ses coordonnées
1
dans la base B 0 sont données par
0 −1 1 3
V =P V= .
2 −1
On vérifie bien que
1
(3(1, 1) − (−1, 1)) = (2, 1).
2
A2 = ( P0 )−1 A1 P.
387
0
..
.
1
Démonstration : Il suffit de voir que pour tout j ∈ [[ 1 ; p ]], P0 A2 X j = A1 PX j où X j =
0 ∈ Mn1 (K) où le
.
..
0
1 est à la j-ème ligne. On a X j = MatB2 (e j ) où B2 = (e1 , . . . , e p ).
A = MatB ( f ) et A0 = MatB0 ( f ).
A0 = P−1 AP.
Remarques :
1. Cette formule est fondamentale et sera très utile.
2. Avec les notations de l’énoncé on trouve que pour tout entier naturel n, ( A0 )n = P−1 An P. Cela se démontre
par le calcul ou le changement de base de l’endomorphisme f n .
Exemples :
1. Dans R3 on se donne l’application linéaire u dont la matrice dans la base canonique est
1 1 0
1
A= 1 1 0 .
2
0 0 2
On peut remarquer que A2 = A. Donc u est un projecteur. On cherche son noyau et son image. Il est clair
que Im v = Vect(1, 1, 0), (0, 0, 1). De plus, pour déterminer ker v on résout le système
x+y = 0
.
z = 0
On obtient Ker v = Vect(−1, 1, 0). On voit alors que B = ((1, 1, 0), (0, 0, 1), (−1, 1, 0)) est une base de E.
La matrice de v dans E est alors
1 0 0
A0 = 0 1 0 .
0 0 0
Vérifions par le calcul. Si on pose
1 0 −1
P= 1 0 1
0 1 0
la matrice de passage de la base canonique à B. On cherche son inverse. Pour cela on considère l’applica-
tion canonique associée à P
f : ( x, y, z) 7→ ( x − z, x + z, y)
388
On résout donc pour tout ( a, b, c) le système
x−z = a x = ( a + b)/2
x+z = b ⇐⇒ y = c
y = c z = (b − a)/2
D’où
1 1 0
1
P −1 = 0 0 2
2
−1 1 0
0 −1
A = P AP.
Et finalement
0 0 1
2. Soit A = −2 1 2 . On voudrait connaitre An . Pour ce la on considère l’endomorphisme f
−2 −2 5
canoniquement associé à A. On cherche alors des vecteurs v de R3 tels que f (v) = λv où λ ∈ R. Pour cela
on cherche le noyau de f − λId. On sait que
−λ 0 1
Mat( f − λId) = A − λI = −2 1 − λ 2 .
−2 −2 5 − λ
En résolvant le système on trouve que si λ ∈
/ {1, 2, 3}, Ker ( f − λId) = {0}. Par contre pour λ ∈ {1, 2, 3},
Eλ = Ker ( f − λId) = Vect(ui ) est de dimension 1 et
u1 = (1, 1, 1), u2 = (1, 2, 2) et u3 = (1, 2, 3).
Définition [Link]
Soit A et B deux matrices de Mn (K). On dit que A et B sont semblables si elles représentent le même
endomorphisme dans des bases éventuellement différente. C’est équivalent au fait qu’il existe une matrice P
inversible telle que A = P−1 BP.
Proposition [Link]
Exemple : La matrice identité et la matrice nulle ne sont semblable qu’à elles même.
389
3.3 Trace d’un endomorphisme
Proposition [Link]
Démonstration
Définition [Link]
Soit u ∈ L ( E). On appelle trace de u et on note tr (u) la trace d’une de ses matrices dans une base de E .
Remarque : Il faut faire attention à bien prendre la même base au départ et à l’arrivée.
Exemple : on a tr (0) = 0 et tr (Id) = dim E.
Proposition [Link]
Démonstration : Pour calculer la trace de p on va choisir une base adaptée. Précisément on sait qu’il Ker p et
Im p sont en somme directe. Si on construit une base B de E en collant une base de Im p et une base de Ker p on
obtient
1 0 ... ... ... 0
. ..
0 .. .
.. ..
. 1 .
MatB ( p) = . .
.
.. 0 .
.
. .. .
.. . ..
0 ... ... ... ... 0
On en déduit que tr ( p) est le nombre de vecteurs dans la base de Im p. C’est bien rg ( p).
Soit A une matrice de Mnp (K). On appelle rang de A et on note rg ( A) le rang des vecteurs colonnes de A
vus comme des éléments de Kn . C’est aussi la dimension de Im A.
1 1 1
Exemple : Soit A = 1 2 2 . On avait vu que les vecteurs formaient une base donc rg ( A) = 3. Si
1 2 3
1 1 0
B= 1 2 −1 . On voit que C1 − C2 = C3 . Donc rg ( B) = 2.
1 3 −2
390
Proposition [Link]
Démonstration :
1. On considère
Φ: E → Mn1
v 7→ MatE (v).
Cette application envoie le vecteur v j sur la j-ième colonne Cj de la matrice. Or on a vu que c’était un
isomorphisme d’où
Corollaire [Link]
1. Si A ∈ Mnp (K), rg ( A) 6 n et rg ( A) 6 p
2. Soit A ∈ Mn (K), la matrice est inversible si et seulement si rg ( A) = n.
3. Deux matrices semblables ont le même rang.
Proposition [Link]
rg ( PAQ) = rg ( A).
Démonstration : Il suffit d’utiliser que l’on ne modifie par le rang d’une application linéaire en composant à
droite ou à gauche par un isomorphisme.
Notation : Soit r 6 Min(n, p) on note Jr (n, p) la matrice
1 0 ··· ··· ··· 0
.. .. ..
0 . . .
.. . . .
. . 1 0 · · · ..
Jr (n, p) =
.
.
.. 0 0 ··· 0
. .. .. ..
.. . . .
0 ··· 0 0 ··· 0
Elle comporte des 1 sur les r première colonne. On a rg ( A) = r.
Théorème [Link]
Soit A ∈ Mnp (K). Il existe P ∈ GLn (K) et Q ∈ GL p (K) tels que A = PJr (n, p) Q où r = rg ( A).
391
Démonstration : On considère l’application linéaire u de K p dans Kn canoniquement associée à A. On sait
que rg (u) = r et donc dim Ker u = p − r. On considère un supplémentaire H de Ker u qui est de dimension
r. On note (α1 , . . . , αr ) et (αr+1 , . . . , α p ) des bases de H et de Ker u. La famille (α1 , . . . , α p ) est alors une base
de K p . On note T la matrice de passage de la base canonique à la base (α1 , . . . , α p ). Maintenant voit que
Im u = Vect(u(α1 ), . . . , u(αr )) car u(αi ) = 0 pour i > r. En particulier, la famille (u(α1 ), . . . , u(αr )) est libre cr
dim Im u = r. On peut donc la compléter en une base de Kn que l’on note ( β 1 , . . . , β n ). Si on note P la matrice
de passage de la base canonique à la base ( β i ). On voit alors que la matrice de u en prenant la base de (αi ) au
départ et ( β j ) à l’arrivée est Jr (n, p). On a donc
On pose alors Q = T −1 .
Définition [Link]
Soit A et B deux matrices de Mnp (K), elles sont dites équivalentes si rg ( A) = rg ( B).
Proposition [Link]
Remarque : Cela signifie en pratique, pour déterminer le rang d’une matrice A on peut aussi calculer la
dimension de l’espace vectoriel engendré par les lignes. Si
1 2 5
A = 2 4 10 .
3 6 15
Proposition [Link]
Soit A une matrice de rang r. Toute sous-matrice extraite est de rang inférieur à r.
Démonstration : Si une matrice extraite A0 est de rang strictement supérieure à r. On peut trouver r + 1 colonnes
qui sont libres. En les complétant pour obtenir des colonnes de A on obtient r + 1 colonnes de A libres ce qui est
absurde.
Théorème [Link]
Soit A une matrice de Mnp (K). Le rang A est la plus grande taille d’une matrice carrée inversible
extraite de A. C’est -à-dire que A est de rang r si et seulement si
i) Il existe une matrice A0 extraite de A de taille r carrée et inversible.
ii) Tout matrice extraite A00 de taille strictement supérieure à r n’est pas inversible.
392
Démonstration : On procède par double implication.
— ⇒ On suppose que rg ( A) = r. De ce fait on sait que toute sous-matrice de A est de rang inférieur à r
donc tout matrice extraite A00 de taille strictement supérieure à r n’est pas inversible (ii). De plus, comme
elle est de rang r il existe une famille de r colonnes qui sont libres. On considère B la matrice obtenue en
gardant ces r colonnes. La matrice B est encore de rang r. En particulier tB aussi on peut donc extraire de
tB r colonnes qui sont libres. En retransposant on obtient bien une sous-matrice de A qui est de rang r.
— ⇐ On suppose qu’il existe une matrice extraite inversible de taille r. En complétant les colonnes on
obtient que le rang de A est supérieur à r car on trouve r colonnes libres. Maintenant si le rang de A était
strictement supérieur à r on pourrait trouver une sous-matrice carrée inversible de taille r + 1 d’après le
sens ⇒.
On en déduit que Eαβ A est la matrice obtenue en mettant la ligne L β de A comme α-ème ligne et en mettant des
zéros autour.
Remarque : On peut aussi le faire en utilisant les applications linéaires canoniquement associées. Dans ce cas,
l’application u associée à Eαβ est définie par
∀i ∈ [[ 1 ; n ]] , u( f i ) = δiβ f α .
393
5 Applications aux systèmes linéaires
5.1 Généralités
Définition [Link]
Notations :
1. Les solutions du système (S) sont les vecteurs ( x1 , · · · , x p ) ∈ K p dont les coordonnées vérifient le système.
2. Si tous les termes du second membre sont nuls, le système est dit homogène.
3. Le système obtenu en conservant les coefficients mais en prenant un second membre nul s’appelle le
système homogène associé.
4. Les systèmes ayant autant de lignes que de colonnes s’appellent des systèmes carrés. C’est ceux que nous
étudierons le plus souvent.
Interprétation matricielle
Nous gardons les notations précédentes. On note alors A ∈ Mnp (K) la matrice dont les coefficients sont les
b1 x1
coefficients du système et B ∈ Mn1 (K) la matrice colonne égale à ... . On pose alors X = ... . On a
bn xn
alors
( x1 , . . . , xn ) solution de (S) ⇐⇒ AX = B.
Interprétation vectorielle
On considère les vecteurs (v j ) j∈[[ 1 ; p ]] de Kn définis par
∀ j ∈ [[ 1 ; p ]] , v j = ( a1j , . . . , anj ).
C’est à dire que A = Mat(v1 , . . . , v p ). Dans ce cas, si on note aussi b = (b1 , . . . , bn ). La recherche d’une solution
( x1 , . . . , x p ) revient alors à
p
∑ x j v j = b.
j =1
Réciproquement si on ne donne un espace vectoriel E de dimension n et que l’on note E une base. Si on a
p
des vecteurs (v j ) j∈[[ 1 ; p ]] et b de E. La recherche de scalaires ( x1 , . . . , x p ) tels que ∑ x j v j = b revient à résoudre
j =1
le système AX = B où
A = MatE (v1 , . . . , v p ) et B = MatE (b).
394
Réciproquement si f est une application linéaire de E dans F où E et F sont des espaces vectoriels de
dimension respective p et n munis de base E et F . Soit b ∈ F résoudre l’équation f (u) = b revient à résoudre le
système linéaire AX = B où
A = MatE ,F ( f ) et B = MatE (b).
Soit (S) un système carré avec n lignes et n colonnes. Les assertions suivantes sont équivalentes.
i.) Il admet une unique solution
ii.) Le système homogène associé ( H ) n’admet que 0 comme solution.
iii.) La matrice du système est inversible.
iv.) Le système est de rang n.
Dans ce cas on dira que le système est inversible ou que c’est un système de Cramer.
Théorème [Link]
Une matrice carrée triangulaire supérieure est inversible si et seulement si ses coefficients diagonaux
sont non nuls.
Si on considère une matrice A que l’on suppose carrée de taille n et inversible. Pour chercher A−1 on peut
poser une matrice B carrée de taille n (avec donc n2 inconnues) et résoudre AB = In qui est un système de n2
inconnues à n2 équations. En fait il est beaucoup plus efficace de résoudre AX = B pour des seconds membres
généraux. En effet AX = B ⇐⇒ X = A−1 B. Si on sait donc résoudre ce système pour tous les seconds
membres C1 , . . . Cn (matrice colonne représentant la base canonique) on obtiendra A−1 car la solution Xi de
AX = Ci est A−1 Ci c’est-à-dire la i-eme colonne de A−1 .
En pratique on résout tous les systèmes
en même temps en collant les seconds membres différents
1 1 0
Exemple : On pose A = 0 1 1 .
1 0 1
395
1 1 0 1 0 0 1 1 0 1 0 0
0 1 1 0 1 0 ∼ 0 1 1 0 1 0
1 0 1 0 0 1 0 −1 1 −1 0 1
1 1 0 1 0 0
∼ 0 1 1 0 1 0
0 0 2 −1 1 1
1 1 0 1 0 0
∼ 0 1 1 0 0 1
0 0 1 −1/2 1/21/2
1 1 0 1 0 0
∼ 0 1 0 1/2 1/2 −1/2
0 0 1 −1/2 1/2 1/2
1 0 0 1/2 −1/2 1/2
∼ 0 1 0 1/2 1/2 −1/2
0 0 1 −1/2 1/2 1/2
1 −1 1
1
On en déduit que A−1 = 1 1 −1 .
2
−1 1 1
Remarque : On peut expliquer ce calcul différemment. En effet on part avec deux matrices A et In . On applique
des opérations sur les lignes ce qui revient à multiplier par des matrices inversibles à gauche. On trouve donc
P1 , . . . Pk inversibles telles que
P1 × · · · × Pk × A = In
On a alors A−1 = P1 × · · · × Pk et c’est exactement cette matrice qui est obtenue en appliquant les mêmes
opérations à la matrice identité.
Théorème [Link]
Proposition [Link]
a b
Soit A = . Elle est inversible si et seulement si ad − bc 6= 0. Dans ce cas
c d
1 d −b
A −1 = .
ad − bc cc a
Démonstration :
396
1
Variables aléatoires
Variables aléatoires réelles
27 397
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
1.2 Loi d’une variable aléatoire réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
1.3 Fonctions de répartitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 399
1.4 Fonction d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
2 Moments d’une variable aléatoire réelle 400
2.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
2.2 Variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 403
2.3 Les moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
3 Lois usuelles 405
3.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 405
3.2 Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
3.3 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 406
3.4 Retour sur l’inégalité de Bienaymé-Tchebychev . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 407
En mathématiques, on travaille la plupart du temps avec des valeurs numériques qui nous permettent de
faire des calculs. Le problème est que, dans le cadre des probabilités, la plupart des résultats sont des ensembles
non nécessairement numérique (par exemple on tire 5 cartes sur un jeu de 32 cartes). On aura donc recours à
la notion de variables aléatoires réelles. Le principe est que ce qui nous intéresse n’est pas nécessairement le
résultat exact de l’expérience mais ce que l’on veut regarder. Par exemple si on étudie les appels téléphoniques
à un standard d’appel. Les données exactes pour décrire tous les appels sont très compliquées. Alors que l’on
risque de ne s’intéresser qu’au nombre d’appel dans la première heure.
Soit (Ω, P (Ω), P) un espace probabilisé. On appelle variable aléatoire réelle sur Ω toute application :
X:Ω→R
Remarques :
397
1. On omettra souvent le mot « réelle », pour parler uniquement de variables aléatoires. De plus nous
utiliserons l’abréviation v.a.
2. Vous verrez l’an prochain que ce qui précède n’est qu’un cas particulier de la "vraie" définition. En effet,
lorsque l’on s’intéresse à des univers infinis, on ne considère, la plupart du temps, pas tout P (Ω) mais
seulement une partie. Dans ce cas, il faudra ajouter une condition pour qu’une application X : Ω → R soit
une variable aléatoire.
3. On commencera souvent par regarder X (Ω) qui est l’ensemble des valeurs prises par X. C’est un ensemble
fini car Ω est fini.
Notation : Soit (Ω, P (Ω), P) un espace probabilisé et X une v.a sur Ω. Pour toute partie A de R, l’ensemble
X −1 ( A) = {ω ∈ Ω | X (ω ) ∈ A} qui est l’ensemble des événements élémentaires ω tels que X (ω ) appartienne
à A sera noté
( X ∈ A) ou { X ∈ A}
De plus, si A = [ a, b] on notera plutôt ( a 6 X 6 b) ou { a 6 X 6 b}. De même si A =] a, b] on notera ( a < X 6 b)
ou { a < X 6 b}. Pour finir si A = { a} on notera ( X = a) ou { X = a}.
Exemples :
1. On lance une pièce équilibrée trois fois. On a donc Ω = { P, F }3 et on le munit de la probabilité uniforme.
On gagne un point par pile obtenu et on en perd un par face obtenu. Soit X le nombre de points obtenu.
C’est une variable aléatoire. Par exemple pour ω = ( P, P, F ) on a X (ω ) = 1 + 1 − 1 = 1. On a, a priori
X (Ω) ⊂ [[ −3 ; 3 ]]. On a alors ( X = 3) = {( P, P, P)} et ( X = 1) = {( P, P, F ); ( P, F, P); ( F, P, P)}. On
remarque aussi que ( X = 2) = ( X = 0) = ( X = −2) = ∅. De fait X (Ω) = {−3, −1, 1, 3}.
2. On lance deux dés et on considère la somme des deux résultats. Là encore on est en présence d’une
variable aléatoire. On a Ω = [[ 1 ; 6 ]]2 et S : Ω → R. On a S(Ω) = [[ 2 ; 12 ]] .
3. Soit (Ω, P (Ω), P) un espace probabilisé. Soit A une partie de Ω. La fonction 1 A est une variable aléatoire.
Elle est définie par
1 si ω ∈ A
1 A (ω ) =
0 sinon
Proposition [Link]
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. On note X (Ω) =
{ x1 , . . . , xr }. La famille d’événements (( X = xi ))16i6r est un système complet d’événements.
Soit (Ω, P (Ω), p) un espace probabilisé et X une variable aléatoire réelle sur Ω. L’application
PX : P ( X (Ω)) → [0, 1]
A 7 → P( X ∈ A )
Démonstration : On a bien PX à valeurs dans [0, 1]. De plus ( X ∈ X (Ω)) = Ω donc PX ( X (Ω)) = P(Ω) = 1.
Pour finir si A et B sont deux parties disjointes de X (Ω) alors ( X ∈ A) et ( X ∈ B) sont deux parties disjointes
de Ω et ( X ∈ A ∪ B) = ( X ∈ A) ∪ ( X ∈ B). On en déduit que PX ( A ∪ B) = PX ( A) + PX ( B).
Notation : Dans la suite nous noterons p( X = xi ) pour p([ X = xi ]). De même on note p( a 6 X 6 b) pour
p([ a 6 X 6 b]). Remarques :
1. Pour déterminer la loi d’une variable aléatoire X, on commence par déterminer X (Ω).
2. Dans le cas des univers fini, comme X (Ω) est fini, on peut le noter X (Ω) = { x1 , . . . , xr }. La loi de X revient
alors à se donner pour tout i ∈ [[ 1 ; r ]] , pi = PX ({ xi }) = P( X = xi ) ∈ [0, 1] tel que p1 + · · · + pr = 1
3. Avec les notations précédentes, la loi de X est déterminée par les pi . En effet pour tout A ⊂ X (ω ) :
P X ( A ) = P( X ∈ A ) = ∑ P( X = x i ).
16 i 6 r
xi ∈ A
398
Exemples :
1. On reprend l’exemple précédent. On a X (Ω) = {−3, −1, 1, 3}. De plus on a vu que [ X = 3] = {( P, P, P)}.
D’où p( X = 3) = 1/8. De même p( X = −3) = 1/8 et p( X = −1) = p( X = 1) = 3/8.
2. On reprend l’exemple précédent. On a X (Ω) = [[ 2 ; 12 ]]. On a [ X = 2] = {(1, 1)}. D’où p( X = 2) = 1/36.
On fait de même pour les autres.
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. La fonction de répartition
de la variable aléatoire réelle X est la fonction FX : R → R. Définie par
∀ x ∈ R, FX ( x ) = P( X 6 x ) = PX (] − ∞, x ]).
FX : R → R
0 si x < −3
1/8 si − 3 6 x < −1
x 7→ 1/2 si − 1 6 x < 1
7/8 si 1 6 x < 3
1 si x > 3
0,5
-4 -3 -2 -1 0 1 2 3 4
Remarque : on voit bien sur l’exemple précédent, et ce sera toujours vrai, que la fonction FX est une fonction
en escalier croissante et que
lim FX = 0 et lim FX = 1.
−∞ +∞
On peut retrouver la loi quand on a la fonction de répartition. Les éléments de X (Ω) sont les "sauts". S’il y a
un saut en x alors P( X = x ) est la "hauteur du saut".
Proposition [Link]
∀ x ∈ R, P( X = x ) = FX ( x ) − lim FX (t).
t→ x −
Remarque : On étudiera souvent des variables aléatoires à valeurs entières. Dans ce cas la fonction de répartition
ne présente des sauts qu’aux entiers (elle est continue sur R \ Z) et elle est continue à droite aux entiers :
FX (n) = lim FX ( x ).
x →n+
En particulier, il suffit de connaitre la fonction de réparation aux entiers pour la connaitre en entier et on a
P( X = n) = P( X 6 n) − P( X 6 n − 1) = FX (n) − FX (n − 1).
399
On peut remarquer que P( X 6 n − 1) = P( X < n).
Exemple : On lance deux dés équilibrés à 6 faces. On note X1 et X2 les variables aléatoires qui décrivent le
résultat du premier (resp. du deuxième dé) et on note M = Max( X1 , X2 ) le plus grand des deux résultats. On
1
cherche la loi de M. Il est clair que pour tout i ∈ [1, 6], P( X1 = i ) = P( X2 = i ) = . D’où,
6
n
∀n ∈ [[ 0 ; 6 ]] , FX1 (n) = FX2 (n) = .
6
Maintenant l’événement ( M 6 n) = ( X1 6 n) ∩ ( X2 6 n). Les deux lancers étant indépendants,
n2
P ( X 6 n ) = P ( X1 6 n ) × P ( X2 6 n ) = .
36
On en déduit que
i 2 − ( i − 1)2 2i − 1
∀i ∈ [[ 1 ; 6 ]] , P( M = i ) = = .
36 36
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Soit u une fonction réelle
dont l’ensemble de définition contient X (Ω), on note u( X ) la variable aléatoire obtenue en composant u et X.
Proposition [Link]
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Soit u une fonction
réelle dont l’ensemble de définition contient X (Ω). Pour tout y ∈ R on a
P( u ( X ) = y ) = ∑ P( X = x ).
x ∈ u −1 ( y )
Exemple : On lance un dé équilibré à 6 faces et on note X le résultat obtenu. Calculons la loi de Y = ( X − 2)2 .
Pour commencer on cherche Y (Ω). On a X (Ω) = [[ 1 ; 6 ]] d’où Y (Ω) = {0, 1, 4, 9, 16}. De plus on a
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. On note X (Ω) =
{ x1 , . . . , xr }. L’espérance (mathématique) de la variable aléatoire X est alors
r
E( X ) = ∑ xi .P(X = xi ).
i =1
Remarques :
1. L’espérance est donc une "moyenne" des valeurs prises coefficientée par la probabilité d’apparition. C’est
le gain moyen.
400
2. Si on ne connait pas précisément X (Ω) mais que l’on sait juste que X (Ω) ⊂ T où T est un ensemble fini.
On a encore
E( X ) = ∑ x.p( X = x ).
x∈T
Définition [Link]
Proposition [Link]
On peut calculer l’espérance d’une variable aléatoire X sur (Ω, P (Ω), P) en faisant une somme sur
Ω et non pas X (Ω) :
E( X ) = ∑ X (ω )P({ω }).
ω ∈Ω
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Pour tout ( a, b) ∈ R2
on a
E( aX + b) = aE( X ) + b.
Remarque : Nous verrons dans le chapitre sur les couples de variables aléatoires la vraie propriété de la
linéarité de l’espérance.
Démonstration : Il suffit d’utiliser la deuxième formule :
E( aX + b) = ∑ aX (ω ) + bP({ω })
ω ∈Ω
= a ∑ X (ω )P({ω }) + b ∑ P({ω })
ω ∈Ω ω ∈Ω
= aE( X ) + b car ∑ P({ω }) = 1.
ω ∈Ω
Corollaire [Link]
401
Proposition [Link] (Théorème de Transfert)
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. On note X (Ω). Soit
u une fonction dont l’ensemble de définition contient X (Ω). On a
E(u( X )) = ∑ u( x ).p( X = x ).
x ∈ X (Ω)
Remarque : Cette formule est importante. En effet elle permet de déterminer l’espérance de u( X ) sans avoir à
calculer la loi de u( X ).
Démonstration : On a vu que
E(u( X )) = ∑ u( X (ω ))P({ω })
ω ∈Ω
On peut regrouper les termes dans cette somme en fonction de la valeur de X (ω ). On obtient alors
E(u( X )) = ∑ ∑ u( X (ω ))P({ω })
x ∈ X (Ω) ω ∈Ω
X (ω )= x
= ∑ u( x ) ∑ u( X (ω ))P({ω })
x ∈ X (Ω) ω ∈Ω
X (ω )= x
= ∑ u ( x )P( X = x )
x ∈ X (Ω)
1 31
E (Y ) = .(1 + 0 + 1 + 4 + 9 + 16) = .
6 6
Démonstration : Évident
Remarque : On voit que l’espérance vérifie les propriétés des sommes et des intégrales.
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle positive sur Ω. Soit
α ∈ R?+ ,
E( X )
P( X > α ) 6
α
Démonstration : On note XΩ) = { xi }i∈r avec 0 6 x1 < x2 < · · · < xr . Soit q le plus petit entier tel que xq > α
(s’il n’y en a pas cela signifie que P( X > α) = 0 ce qui assure que l’inégalité est vraie). On a alors
r
p( X > α) = ∑ P( X = x k ).
k=q
402
Donc
r
P( X > α ) = ∑ P( X = x k )
k=q
r
xk
6 ∑ α
P( X = xk ) car xk > α
k=q
r
1
6
α ∑ x k P( X = x k )
k=q
r
1
6
α ∑ xk P(X = xk ) car X est à valeurs positives
k =0
E( X )
6
α
Remarques :
X
1. On peut faire une preuve plus rapide en utilisant que 1(X>α) 6 et en utilisant la croissance de
α
l’espérance.
2. Comme on peut le voir dans la preuve, cette inégalité n’est pas optimale.
Exemples :
1. Cette inégalité à de nombreuses applications comme nous le verrons au paragraphe suivant.
2. Si on tire 10 fois à pile ou face une pièce équilibrée et que l’on note X le nombre de pile obtenu. On verra
que X suit la loi binomiale : X ,→ B (10, 1/2). On en déduit que E( X ) = 5. De ce fait, pour α = 8 on
obtient :
5
P( X > 8) 6 ' 0, 625.
8
Ce n’est pas une très bonne inégalité. En effet
10
10 10 10 1 56
P( X > 8) = + + × = ' 0, 055.
2 1 0 2 1024
2.2 Variance
On a vu que l’espérance donnait la valeur moyenne d’une variable aléatoire. Nous allons ici définir la
variance qui, pour sa part, exprime la dispersion autour de cette moyenne.
Définition [Link]
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. On appelle variance de X et
on note V( X ) le nombre :
V( X ) = E(( X − E( X ))2 ).
On appelle écart-type et on note σ ( X ) le nombre
q
σ(X ) = V( X ).
Remarques :
1. La variable aléatoire ( X − E( X ))2 est positive. Son espérance est donc aussi positive. Ce qui nous donne
que la variance d’une variable aléatoire est toujours positive. Cela permet de montrer que l’écart-type est
bien défini.
2. La variance mesure la dispersion. En effet si X est une variable aléatoire constante alors V( X ) = 0.
Réciproquement, si V( X ) = 0 alors P( X 6= E( X )) = 0. On dit que X est constante presque surement.
On ne calculera rarement la variance en utilisant la définition. En effet pour ce faire, il faudrait d’abord
déterminer la loi de ( X − E( X ))2 puis son espérance. On passera plutôt par l’une des deux formules suivantes.
403
Proposition [Link]
ou
V( X ) = ∑ ( x − E( X ))2 P( X = x )
x ∈ X (Ω)
V( X ) = E( X 2 ) − E( X )2 .
Démonstration : On a
V( X ) = E(( X − E( X ))2 )
= E( X 2 − 2XE( X ) + E( X )2 )
= E( X 2 ) − 2E( X )2 + E( X )2
= E( X 2 ) − E( X )2
Remarque : On a utilisé un vérsion un peu plus forte de la linéarité de l’espérance que nous démontrerons
dans le chapitre sur les couples.
Exemples :
1. E( X 2 ) = V( X ) = 3/2.
2. V( X ) = 109/18.
Proposition [Link]
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Pour tout ( a, b) ∈ R2
on a
V( aX + b) = a2 V( X ) et σ ( aX + b) = | a|σ ( X ).
Définition [Link]
X − E( X )
Une variable aléatoire est dite réduite sur σ ( X ) = 1. En particulier si σ ( X ) > 0 alors est centrée
σ(X )
et réduite.
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Pour tout réel
strictement positif α on a :
V( X )
P(| X − E( X )| > α) 6 .
α2
Remarques :
404
1. Cette inégalité montre bien que la variance mesure la dispersion autour de l’espérance. En effet, si la
variance est très petite alors la probabilité que X soit loin de E( X ) va être aussi très petite.
2. Nous verrons des exemples plus loin après l’étude de la loi binomiale.
Démonstration : Il suffit de voir que l’événement (| X − E( X )| > α) est égal à (( X − E( X ))2 > α2 ). En suite il
suffit d’utiliser l’inégalité de Markov.
Remarque : Comme pour l’inégalité de Markov, ce n’est pas une inégalité très fiable dans de nombreux cas.
C’est intéressant si α est grand.
Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle sur Ω. Soit p ∈ N? on appelle
moment d’ordre p (resp. moment centré d’ordre p) le nombre E( X p ) (resp. E(| X − E( X )| p )).
Remarque : L’espérance est le moment d’ordre 1, la variance est le moment centré d’ordre 2.
3 Lois usuelles
Nous allons étudier dans ce paragraphe les lois classiques à connaître.
Soit N ∈ N? et x1 , . . . , x N des réels distincts. Soit (Ω, P (Ω), P) un espace probabilisé et X une variable
aléatoire réelle. On dit que X suit la loi uniforme sur { x1 , . . . , x N } si :
1. X (Ω) = { x1 , . . . , x N }
1
2. pour tout i compris entre 1 et N, P( X = xi ) = .
N
On note alors X ,→ U ({ x1 , . . . , x N }).
Remarques :
1. C’est la loi de l’équi-probabilité. En effet, savoir que toutes les instances sont équi-problables induit que la
loi de la variable aléatoire est la loi uniforme.
2. La plupart du temps on regardera - ou en se ramènera à étudier - la loi uniforme sur [[ 1 ; N ]] .
Proposition [Link]
N+1 N2 − 1
E( X ) = et V( X ) = .
2 12
Démonstration
Remarque : La formule de l’espérance est au programme, celle de la variance doit être redémontrée.
ATTENTION
N ( N + 1)2 − 1
E( X ) = et V( X ) = .
2 12
405
3.2 Loi de Bernoulli
Définition [Link]
Soit p ∈ [0, 1]. Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle. On dit que X suit
la loi de Bernoulli de paramètre p si :
1. X (Ω) = {0, 1}
2. P( X = 1) = p et donc P( X = 0) = 1 − p.
On note alors X ,→ B (1, p).
Remarques :
1. Avant toutes choses, remarquons que l’on écrit Bernoulli et non Bernouilli. La loi de Bernoulli est due à
Jacques Bernoulli qui vecut dans la deuxième moitié du XVII ème siècle.
2. Cette loi est aussi appelée la loi succès-echec car cela décrit une expérience n’ayant que deux issues : le
succès (noté 1) ou l’echec (noté 0).
3. On notera souvent q = 1 − p = P( X = 0).
Proposition [Link]
E( X ) = p et V( X ) = p(1 − p) = pq.
Exemples :
1. On procède à un tirage à pile ou face avec une pièce faisant pile avec la probabilité p. On considère X qui
vaut 1 si on a obtenu un pile et 0 sinon. On a X ,→ B (1, p)
2.
3. On procède à deux tirages à pile ou face avec une pièce faisant pile avec la probabilité p. On considère X
qui vaut 1 si on a obtenu deux piles et 0 sinon. On a X ,→ B (1, p2 )
Soit p ∈ [0, 1] et n ∈ N? . Soit (Ω, P (Ω), P) un espace probabilisé et X une variable aléatoire réelle. On dit
que X suit la loi binomiale de paramètres n, p si :
1. X (Ω) = {0, n}
n k
2. ∀k ∈ [[ 0 ; n ]] , P( X = k) = p (1 − p ) n − k
k
On note alors X ,→ B (n, p).
Remarques :
1. Pour n = 1 on retrouve la loi de Bernoulli.
2. On a bien
n
∑ P(X = k) = 1.
k =0
C’est le binôme de Newton.
3. C’est la loi qui modélise une succession d’épreuve de Bernoulli indépendantes et de même paramètre. La
loi est celle de la variable aléatoire « nombre de succès ». En effet si on considère n épreuves et que l’on
note A1i l’événement « l’épreuve i amène un succès », Ai−1 l’événement contraire de A1i et que X désigne
le nombre de succès. L’événement [ X = k ] est la réunion des événements
ε
A11 ∩ A2ε 2 ∩ · · · ∩ Aεnn
406
n
{−1, 1}n
où (ε 1 , . . . , ε n ) ∈ et tel que il y ait k fois le chiffre 1. Il y a tel n-uplets. De plus tous ces
k
événements ont la même probabilités qui, par indépendance est
n
∏ P( A i i ) = p k (1 − p ) n − k .
ε
i =1
Exemples :
1. On considère une urne avec a boules blanches et b boules noires. On en tire n avec remise. Soit X le nombre
de boules blanches tirées. La variable X suit la loi B (n, p) où p = a/( a + b).
2.
Proposition [Link]
Soit p ∈ [0, 1], n ∈ N et X une variable aléatoire suivant la loi B (n, p). On a
E( X ) = np et V( X ) = np(1 − p) = npq.
Démonstration : Nous verrons au prochain chapitre que cela peut se déduire de l’espérance et la variance des
variables de Bernoulli. Pour le moment nous sommes obligés de faire le calcul.
Remarque : On peut aussi utiliser la fonction génératrice. En effet si on pose
n
GX ( s ) = ∑ P( X = k ) s k .
k =0
C’est un polynôme.
n
0 (s) =
On a GX (1) = 1 mais surtout GX ∑ kP(X = k)sk−1 donc GX
0 (1) = E( X ). Dans le cas de la loi
k =0
binomiale :
GX (s) = (1 − p + ps)n
et donc
0
GX (s) = np(1 − p + sp)n−1 et donc E( X ) = GX
0
(1) = np.
5/36 1000
p(| FN − 1/6| > 1/20) 6 = .
N × (1/20)2 18N
De ce fait, si on veut être sur à 90% que FN ne diffère de pas plus de 1/20 de 1/6, on doit prendre N tel que
1000 10000
6 1 − 90/100 = 1/10 c’est-à-dire N > = 555, 5.
18N 18
407
Groupe symétrique
28
1 Généralités sur les groupes 408
1.1 Rappels sur les groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 408
1.2 Morphismes de groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409
1.3 Image directe et réciproque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410
2 Sous-groupes engendré et ordre 411
2.1 Sous-groupe engendré par une partie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 411
2.2 Ordre d’un élément . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
3 Groupe symétrique 412
3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412
3.2 Transpositions et cycles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413
4 Signature 415
4.1 Défintion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415
4.2 Complément sur la signature . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 416
4.3 Permutations paires et impaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417
Soit G un ensemble muni d’une loi de composition interne ?. On dit que ( G, ?) est un groupe si :
1. La loi ? est associative ;
2. il existe un élément neutre e de G qui vérifie : ∀ g ∈ G, e ? g = g ? e = g.
3. Pour tout g dans G il existe g0 dans G tel que g ? g0 = g0 ? g = e.
408
Définition [Link]
Soit ( G, >) un groupe et H une partie de G. On dit que H est un sous-groupe de G si et seulement si :
1. L’ensemble H est stable par >.
2. L’ensemble H est stable par passage au symétrique.
3. L’ensemble H contient l’élément neutre.
Soit G un groupe fini de cardinal n et H un sous-groupe de G. Alors le cardinal de H est fini et divise
n.
g ∼ g0 ⇐⇒ ∃h ∈ H, g = g0 h ⇐⇒ g0−1 g ∈ H.
A partir de là, on voit qu’il existe g1 , . . . , g p tels que g1 H, . . . , g p H forment une partition de G donc Card G =
p × Card H.
Définition [Link]
Soit ( G, >) et ( G 0 , ∗) deux groupes. On appelle morphisme de groupe de ( G, >) dans ( G 0 , ∗) toute application
f de G dans G 0 telle que
∀( g1 , g2 ) ∈ G2 , f ( g1 > g2 ) = f ( g1 ) ∗ f ( g2 ).
Remarque : Dans la plupart des cas, si les structures sur G et G 0 sont évidentes, on omettra le terme groupe
pour parler simplement de morphisme de G dans G 0 .
Exemples :
1. Soit G un groupe. L’application identité IdG de G dans lui-même est un morphisme.
2. Soit G et G 0 deux groupes dont les éléments neutres sont e et e0 . L’application constante égale à e0 est un
morphisme (c’est la seul application constante qui vérifie cela car nous verrons plus loin que si f est un
morphisme alors f (e) = e0 .)
3. De (Z, +) dans lui même, les applications n 7→ a.n sont des morphismes.
4. L’application ln est un morphisme de (R?+ , ×) dans (R, +) et inversement pour exp.
5. L’application θ 7→ eiθ de (R, +) dans (U , ×) où U = {z ∈ C | |z| = 1} est un morphisme.
Terminologie :
409
1. Un morphisme de groupe bijectif s’appelle un isomorphisme.
2. Un morphisme de groupe dont l’ensemble de départ et d’arrivé sont les mêmes s’appelle un endomor-
phisme.
3. Un morphisme de groupe bijectif dont l’ensemble de départ et d’arrivé sont les mêmes s’appelle un
automorphisme.
Proposition [Link]
Démonstration :
1. On a f (e>e) = f (e). Or f (e>e) = f (e) ∗ f (e). En mutlipliant par ( f (e))−1 on obtient bien f (e) = e0 .
2. Il suffit de vérifier que f ( g−1 ) ∗ f ( g) = f ( g−1 g) = f (e) = e0 et pareil pour f ( g) ∗ f ( g−1 ).
3. Par récurrence.
Démonstration
Exemples :
1. Soit f : θ 7→ eiθ le morpshime de groupe de (R, +) dans (U , ×). Soit Z ⊂ R le sous-groupe de R. Alors
2π
f (Z) est un sous-groupe de U . De même si H 0 = {1, j, j2 } alors f −1 ( H 0 ) = Z.
3
2. Soit f : n 7→ a.n de Z dans Z. Alors f (Z) est aZ.
Définition [Link]
Soit ( G, >) et ( G 0 , ∗) deux groupes et f un morphisme de G dans G 0 . On appelle noyau de f et on note Ker f
le sous-groupe f −1 ({e0 }). On appelle image de f et on note Im f le sous-groupe f ( G ).
Proposition [Link]
Exemple : L’application f : θ 7→ eiθ est surjective mais pas injective. Son noyau est 2πZ.
410
2 Sous-groupes engendré et ordre
2.1 Sous-groupe engendré par une partie
Proposition [Link]
Soit G un groupe.
1. Si H1 et H2 sont deux sous-groupes de G alors H1 ∩ H2 aussi.
\
2. Plus généralement si ( Hi )i∈ I est une famille de sous-groupes de G alors H = Hi est un
i∈ I
sous-groupe de G.
Démonstration : On ne traite que le deuxième cas, le premier s’en déduit. D’abord, H n’est pas vide car e ∈ H.
De plus si g1 et g2 sont deux éléments de H alors pour tout i dans I, g1 et g2 appartiennent à Hi et donc g1 g2−1
aussi. de ce fait, g1 g2−1 ∈ H.
Proposition-Définition [Link]
Soit G un groupe et X une partie de G. On appelle sous-groupe engendré par X et on note < X > le
plus petit sous-groupe de G contenant X.
Démonstration : Il faut montrer qu’il existe un plus petit sous-groupe contenant les éléments de X. On pose
H l’ensemble des sous-groupes contenant X et on considère
\
H= G0
G 0 ∈H
Cela existe car H est non vide car il contient G. Il est évident que X ⊂ H et que H est inclus dans tout
sous-groupe de G contenant X. De plus, c’est un sous-groupe d’après ce qui précède.
Remarque : En fait pour construire < X > il suffit de prendre toutes les combinaisons des « puissances » (posi-
tives et négatives) des éléments de X si on utilise une notation multiplicative de G.
Proposition [Link]
Soit G un groupe et g un élément de G. Le groupe engendré par { g} se note < g > et est égal à
Proposition [Link]
ϕg : Z → G
n 7→ gn
Démonstration
Exemples :
1. Si G = Z, le sous-groupe engendré par a ∈ Z et aZ = {ma | m ∈ Z}. Attention ici on utilise une notation
additive.
2. Si G = (U , ×). On a < 1 >= {1}, < −1 >= {−1, 1}, < i >= {i, −i, 1, −1}. De manière générale, si
a = e2iπ/n , alors < a >= {e2ikπ/n | k ∈ [[ 0 ; n − 1 ]] . Si a n’est pas une racine de l’unité, c’est-à-dire que
pour tout n dans Z, an 6= 1 alors < a >= { an |n ∈ Z}. En effet dans ce cas ϕ a est injectif.
411
2.2 Ordre d’un élément
Définition [Link]
Soit G un groupe et g un élément. Si < g > est un groupe de cardinal fini, on dit que g est d’ordre fini et que
Card < g > est l’ordre de g.
Remarque : D’après ce qui précède, cela revient à dire que g est d’ordre p si p est le plus petit entier tel que
g p = e. C’est-à-dire, Ker ϕ g = pZ.
Exemples :
1. Dans (Z, +), l’élément 0 est d’ordre 1, tous les autres ne sont pas d’ordre fini.
2. Dans (U , ×), i est d’ordre 4 alors que ei est d’ordre infini.
Proposition [Link]
Si G est un groupe fini, tout élément g de G est d’ordre fini et son ordre divise le cardinal de G.
Définition [Link]
Un groupe G est dit cyclique s’il existe g dans G tel que G =< g >.
Exemples :
1. Le groupe (Z, +) est cyclique car engendré par 1 et −1.
2. Le groupe (U , ×) n’est pas cyclique. En effet soit g = eiθ . On suppose que < g >= U . Cela revient à dire
que ∀ x ∈ R, ∃(n, p) ∈ Z2 , x = nθ + 2pπ ce qui est faux. Par contre {z ∈ U | zn = 1} est cyclique. Il est
engendré par ω = e2iπ/n et même par tous les wk pour k premier avec n.
3 Groupe symétrique
3.1 Définitions
Définition [Link]
Soit n un entier naturel non nul, on appelle groupe symétrique et on note (Sn , ◦) (ou Sn ) le groupes des
permutations de [[ 1 ; n ]] .
Remarque : On a vu que, pour tout ensemble E l’ensemble des bijections de E de E muni de la composition
était un groupe.
Notation : Si σ et τ sont deux éléments de Sn on notera στ pour σ◦ τ.
1 2 3 4 5 6 1 2 3 4 5 6
Exemple : Dans S6 si σ est définie par σ = et τ = . Alors
2 3 4 6 5 1 1 4 2 5 6 3
1 2 3 4 5 6 1 2 3 4 5 6
στ = et τσ = .
2 6 3 5 1 4 4 2 5 3 6 1
Proposition [Link]
412
Exemples :
1. Pour n = 1, on a S1 = {Id}.
2. Pour n = 2 le groupe S2 a deux éléments : l’identité Id qui est l’élément neutre et la permutation σ qui
échange 1 et 2 (nous la noterons (1, 2)). Elle vérifie que σ2 = Id. En particulier S2 est isomorphe au groupe
({−1, 1}, ×) et il est cyclique et abélien.
Définition [Link]
Soit σ ∈ Sn et k ∈ [[ 1 ; n ]]. On appelle orbite de k sous l’action de σ l’ensemble {σi (k) | i ∈ Z}.
Remarque : Soit p > 0 le plus petit entier tel que σ p (k) = k (qui existe car σ est d’ordre fini dans Sn ) alors,
l’orbite de k est {σi (k) | i ∈ [[ 0 ; p − 1 ]]}.
Remarques :
1. La transposition σ = (i, j) est égale à la transposition ( j, i ). On a σ−1 = σ car σ2 = Id.
2. Le cycle σ = ( a1 , . . . , a p ) est aussi le cycle ( a2 , . . . , a p , a1 ). On a de plus σ−1 = ( a p , a p−1 , . . . , a2 , a1 ).
Exemple : Pour n = 3, S3 a 6 éléments
— L’identité : Id
— Les transpositions : (1, 2), (1, 3) et (2, 3)
— Les 3-cycles : (1, 2, 3) et (1, 3, 2)
Proposition [Link]
Un cycle d’ordre p est d’ordre p dans Sn . En particulier les transpositions sont involutives (elles
vérifient σ2 = Id).
Proposition [Link]
413
— Hérédité : Soit n > 2. On suppose que l’hypothèse de récurrence est vraie pour n. Soit σ ∈ Sn+1 . On
sépare deux cas :
— si σ (n + 1) = n + 1 alors σ peut être vu comme un élément de Sn . De ce fait c’est un produit de
transpositions.
— si σ (n + 1) = u 6= n + 1, on pose τ = (n + 1, u) qui est une transposition. Dès lors, τσ est un élément
de Sn+1 qui laisse stable n + 1. C’est donc un produit de transpositions. On peut alors conclure en
remarquant que
σ = τ (τσ)
car τ 2 = Id.
On a bien montré que σ était un produit de transpositions.
Remarque : En reprenant la démonstration précédente, on peut même montrer qu’une permutation de Sn est
le produit de au plus n − 1 transpositions.
1 2 3 4 5 6
Exemple : Dans S6 on considère σ = . On applique la méthode précédent :
2 3 4 6 5 1
1 2 3 4 5 6
σ = (1, 6)σ1 ou σ1 = .
2 3 4 1 5 6
Ensuite
1 2 3 4 5 6
σ1 = (1, 4)σ2 ou σ2 = .
2 3 1 4 5 6
Puis
1 2 3 4 5 6
σ2 = (1, 3)σ3 ou σ3 = = (1, 2).
2 1 3 4 5 6
On a donc
σ = (1, 6)(1, 4)(1, 3)(1, 2).
Attention au faut que l’ordre compte. En effet, (1, 2)(1, 3)(1, 4)(1, 6) = σ−1 .
ATTENTION
Proposition [Link]
Proposition [Link]
Démonstration : On procède de manière algorithmique. Soit σ ∈ Sn . On pose alors a1 = 1. On sépare les cas,
— Si σ ( a1 ) = 1 on s’arrête.
— Si σ ( a1 ) 6= 1, on pose a2 = σ (1) on on recommence, en considérant a2 .
— Si σ ( a2 ) = 1 on s’arrête.
— Si σ ( a2 ) 6= 1 on pose a3 = σ ( a2 ).
414
On fini par obtenir a p tel que σ( a p ) = 1. On construit donc un cycle τ = ( a1 , a2 , . . . , a p ) de telle sorte que τ −1 σ
fixe les éléments a1 , . . . , a p . On recommence en considérant un élément de [[ 1 ; n ]] qui n’est pas dans le support
de τ. A la fin, on a construit des cycles τ1 , . . . , τq de supports disjoints tels que
τq−1 · · · τ1−1 σ = Id ⇒ σ = τ1 · · · τq .
Remarques :
1. Ici le produit est commutatif car les supports des cycles sont disjoints.
2. On peut aussi procéder en considérant la relation d’équivalence ∼σ sur [[ 1 ; n ]] définie par
∀(i, j) ∈ [[ 1 ; n ]] , i ∼σ j ⇐⇒ ∃k ∈ Z, i = σk ( j).
Dans ce cas, les classes d’équivalences sont les supports des cycles de la décomposition.
1 2 3 4 5 6
Exemple : On considère σ = . On a alors
3 4 6 2 5 1
σ = (1, 3, 6) ◦ (2, 4)
Proposition [Link]
Soit σ = ( a1 , a2 , . . . , a p ) un p-cycle. On a
σ = ( a 1 , a 2 ) ◦ ( a 2 , a 3 ) ◦ · · · ◦ ( a p −1 , a p −2 ) ◦ ( a p −1 , a p )
Remarque : On peut donc obtenir une décomposition en transpositions à l’aide de la décomposition en cycle.
Par exemple
(1, 2, 3, 4, 6) = (1, 2) ◦ (2, 3) ◦ (3, 4) ◦ (4, 6)
ATTENTION
4 Signature
4.1 Défintion
On a vu que toute permutation pouvait se décomposer en produit de transpositions. Cette décomposition
n’est pas unique (pas plus que le nombre de transposition qu’il y a dans la décomposition). Par contre la parité
du nombre de transposition l’est. Plus précisément :
Théorème [Link]
Il existe un unique morphisme de groupe ε : Sn → {±1} tel que pour toute transposition τ,
ε(τ ) = −1.
Remarque : Si on admet ce qui a été dit au-dessus, le théorème en découle. Cependant, nous allons démontrer
le théorème de manière un peu différente (et « plus simple »)
Définition [Link]
Le morphisme ε s’appelle la signature et, pour tout permutation σ, ε(σ ) s’appelle la signature de σ.
415
Proposition [Link]
Démonstration :
On sait qu’un p-cycle σ = ( a1 , . . . , a p ) peut s’écrire comme le produit de p − 1 transpositions : ( a p , a p−1 ) · · · ( a3 , a2 )( a2 , a1 ).
Donc ε(σ ) = (−1) p−1 .
Remarque : Pour calculer la signature, le plus simple est souvent de décomposer en produit de cycles à
supports disjoints et d’utiliser ce qui précède.
Soit σ une permutation de Sn . Un couple (i, j) ∈ [[ 1 ; n ]]2 est dit une inversion de σ si i < j et σ (i ) > σ ( j).
On note I (σ ) le nombre d’inversion.
n ( n − 1)
Remarque : Le nombre d’inversion est un entier compris entre 0 (pour σ = Id) et (pour σ : i 7→
2
n + 1 − i).
1 2 3 4 5 6
Exemple : Si σ = les inversions de σ sont (1, 6), (2, 6), (3, 6), (4, 5), (4, 6), (5, 6). On a
2 3 4 6 5 1
I (σ ) = 4.
Définition [Link]
σ (i ) − σ ( j )
α(σ) = ∏ i−j
= (−1) I (σ) ∈ {±1}.
16 i < j 6 n
∏ σ (i ) − σ ( j )
σ (i ) − σ ( j ) 16 i < j 6 n
∏ = .
16 i < j 6 n
i−j ∏ i−j
16 i < j 6 n
De ce fait on a les mêmes termes en haut et en bas sauf pour I (σ ) termes qui sont inversés.
Proposition [Link]
Démonstration :
1. Soit (σ, τ ) ∈ S2n ,
∏ στ (i ) − στ ( j) ∏ στ (i ) − στ ( j) ∏ τ (i ) − τ ( j )
16 i < j 6 n 16 i < j 6 n 16i < j6n
α(στ ) = = . .
∏ i−j ∏ τ (i ) − τ ( j ) ∏ i−j
16 i < j 6 n 16 i < j 6 n 16 i < j 6 n
416
στ (i ) − στ ( j) στ ( j) − στ (i )
La partie de droite est bien α(τ ). Pour la partie de gauche, il suffit de voir que = .
τ (i ) − τ ( j ) τ ( j ) − τ (i )
Si bien que l’on peut échanger si τ (i ) > τ ( j). On a donc :
στ (i ) − στ ( j) στ (i ) − στ ( j)
∏ τ (i ) − τ ( j )
= ∏ τ (i ) − τ ( j )
= α ( σ ).
16 i < j 6 n 16τ (i )<τ ( j)6n
Théorème [Link]
L’application α : Sn → {±1} est un morphisme de groupe et pour toute transposition σ, α(σ ) = −1.
C’est donc la signature.
Proposition [Link]
Proposition [Link]
Soit σ une permutation impaire fixée, l’ensemble des permutations impaires est An σ = {τσ | τ ∈
An } .
Démonstration : De manière évidente, les éléments de An σ sont des permutations impaires car ε(τσ) =
ε(τ )ε(σ ) = −1. Réciproquement, si µ est une permutation impaire, τ = µσ est alors paire et µ = τσ.
Corollaire [Link]
Soit σ une permutation impaire fixée, les ensembles An et An σ forment une partition de Sn . En
particulier,
n!
Card An = .
2
417
1 Introduction
Déterminant
29 418
2 Applications multilinéaires 419
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 419
2.2 Expression d’une application p-linéaire sur un espace vectoriel de dimension finie . . . . 420
2.3 Applications symétriques, antisymétriques et alternées . . . . . . . . . . . . . . . . . . . . . . . . . 421
3 Déterminant 422
3.1 Formes n-linéaires sur un espace vectoriel de dimension n . . . . . . . . . . . . . . . . . . . . . 422
3.2 Déterminant d’une famille de vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 423
3.3 Volume dans R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 424
3.4 Orientation d’un R-espace vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 425
3.5 Déterminant d’un endomorphisme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 426
3.6 Déterminant d’une matrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 427
3.7 Propriétés et calculs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 429
3.8 Développements suivant une ligne ou une colonne . . . . . . . . . . . . . . . . . . . . . . . . . . . 431
3.9 Déterminants classiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432
4 Utilisation des déterminants 435
4.1 Commatrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
4.2 Formule de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435
1 Introduction
On a déjà rencontré le déterminant de deux vecteurs de R2 . Soit −
→
u = ( x, y) et −
→
u 0 = ( x 0 , y0 ). On a noté
x x0
det(−
→
u ,−
→
u 0) = = xy0 − x 0 y.
y y0
On peut interpréter cela comme l’aire du parallélogramme basé sur les vecteurs −
→
u et −
→
u 0 . En effet on sait
que l’aire du parallélogramme est donnée par la formule
A = base × hauteur
418
A
A=b⇥h
h
b
Nous verrons aussi plus loin que cet exemple se généralise au volume d’un parallélépipède dans R3 .
2.1 Définitions a, b, c, d
a vectoriels
Dans ce paragraphe E et F sont deux espaces c sur K.
:= ad bc
b d
Définition [Link]
Soit p ∈ N? . On appelle application p-linéaire de E dans F une application f de E p dans F telle que pour tout
( a1 , . . . , a p ) dans E p et tout i dans [[ 1 ; p ]], l’application :
f ( a 1 , . . . , a i −1 , • , a i +1 , . . . , a p ) : E → F
x 7→ f ( a1 , . . . , ai−1 , x, ai+1 , . . . , a p )
est linéaire.
Remarques :
1. On dit que f est linéaire par rapport à toutes ses coordonnées.
2. On s’intéressera principalement au cas des formes p-linéaires qui sont des applications p-linéaires de E
dans K. De même on s’intéressera principalement à p = 2 ou p = dim E.
Terminologie :
1. L’ensemple des applications p-linéaires de E dans F se note L p ( E, F ).
2. Une application 1-linéaire est une application linéaire.
3. Une application 2-linéaire s’appelle une application bilinéaire.
4. Une application 3-linéaire s’appelle une application trilinéaire.
Exemples :
419
1. Les applications linéaires sont les applications 1-linéaires.
2. Si E = K[ X ] et f : E × E → E défini par f ( P, Q) = PQ. L’application f est bilinéaire.
3. Le cas précédent fonctionne encore pour toute algèbre E : L ( E), Mn (K), C p ( I, R).
4. De manière plus générale, soit E une algèbre :
Ep → E
( x1 , . . . , x p ) 7 → x1 × · · · × x p
est p-lineaire.
5. Dans E = R2 (ou R3 ) le produit scalaire est une forme bilinéaire. On a dans R2
( x1 , x2 ).( y1 , y2 ) = x1 y1 + x2 y2 .
2.2 Expression d’une application p-linéaire sur un espace vectoriel de dimension finie
On suppose que E est un espace vectoriel de dimension finie et on note (e1 , . . . , en ) une base de E. On va
voir que l’on peut décrire les formes multilinéaires comme les applications linéaires.
Commençons par étudier le cas des applications bilinéaires (qui est le plus courant).
Soit f une application bilinéaire sur E. Pour tous vecteurs u et v, on note
u= ∑ xi ei et v = ∑ yj ej .
16 i 6 n 16 j 6 n
On a alors
!
f (u, v) = f ∑ x i ei , ∑ yj ej
16 i 6 n 16 j 6 n
!
= ∑ xi f ei , ∑ yj ej par linéarité à gauche
16 i 6 n 16 j 6 n
= ∑ x i y j f ( ei , e j )
16i,j6n
On voit donc que f est uniquement déterminée par son action sur la base. Il suffit de connaitre f (ei , e j ) pour
(i, j) ∈ [[ 1 ; n ]]2 pour connaitre f .
Réciproquement, si on se donne uij des scalaires (ou des vecteurs de F pour une application multilinéaire)
l’application !
f : ∑ x i ei , ∑ y j e j 7→ ∑ xi y j uij
i j i,j
est bilineaire.
Remarque : On retrouve par exemple le produit scalaire en posant (dans une base orthonormée) u11 = u22 = 1
et u12 = u21 = 0
420
Théorème [Link]
Avec les notations précédentes, si f est une forme p-linéaire de E dans F. Pour tous vecteurs
u1 = ∑ xi1 ei , . . . , u p = ∑ xip ei ,
i i
on a
f ( u1 , . . . , u p ) = ∑ x i1 1 · · · x i p p f ( ei1 , . . . , ei p ).
16i1 ,...,i p 6n
f ( u 1 , . . . , u p ) = f ( u 1 , . . . , u i −1 , u j , u i +1 , . . . , u j −1 , u i , u j +1 , . . . , u p ).
f ( u 1 , . . . , u p ) = − f ( u 1 , . . . , u i −1 , u j , u i +1 , . . . , u j −1 , u i , u j +1 , . . . , u p ).
Exemples :
1. Le produit scalaire de R2 (ou R3 ) est symétrique.
2. Le déterminant de R2 est antisymétrique.
3. La forme bilinéaire (( x1 , y1 ), ( x2 , y2 )) 7→ x1 y2 n’est ni symétrique ni antisymétrique.
Proposition [Link]
421
Définition [Link]
Exemple : Le produit scalaire n’est pas alterné alors que le déterminant l’est.
Théorème [Link]
Proposition [Link]
Soit f une forme p linéaire alternée et (u1 , . . . , u p ) une famille liée. On a f (u1 , . . . , u p ) = 0.
Démonstration : La famille est supposée liée, il existe donc un vecteur de la famille qui s’exprime en fonction
des autres. Par antisymétrie, on peut supposer que c’est u1 (sinon, si c’est ui0 on échange u1 et ui0 ce qui multiplie
p
la valeur calculée par −1). On a alors u1 = ∑ λk uk et, par linéarité :
k =2
p
f ( u1 , . . . , u p ) = ∑ λk f (uk , u2 , . . . , u p ) = 0.
k =2
3 Déterminant
On se fixe un espace vectoriel E de dimension n.
L’ensemble des formes n-linéaires alternées de E est un espace vectoriel de dimension 1. On le note
Λ∗n E.
422
Démonstration : Remarquons pour commencer que l’ensemble des formes n-linéaires alternées est inclus dans
l’espace vectoriel L ( E p , K). Il est clairement stable par les opérations. On en déduit que c’est un un espace
vectoriel. Il reste à montrer qu’il est de dimension 1.
— Commençons à le prouver dans le cas où n = 2. Considérons une base (e1 , e2 ) de E. On sait que pour
déterminer f il suffit de connaitre u11 = f (e1 , e1 ), u12 = f (e1 , e2 ), u21 = f (e2 , e1 ) et u22 = f (e2 , e2 ). Comme
f est alternée, u11 = u22 = 0. De plus, elle est antisymétrique donc u21 = u12 . On conclusion, si on pose f 0
la 2-forme linéaire alternée telle que u12 = 1 (et donc u21 = −1), alors pour toute 2-forme linéaire alternée
f on a
f = f ( e1 , e2 ) f 0 .
D’où l’ensemble des formes 2-linéaires alternées de E est un espace vectoriel de dimension 1.
Remarquons d’ailleurs que si E = R2 et (e1 , e2 ) est la base canonique, f 0 est juste le déterminant.
— Étudions maintenant le cas général. Soit f une forme n-linéaire alternée. On considère encore une base
(e1 , . . . , en ) de E. Pour tout I = (i1 , . . . , in ) ∈ [[ 1 ; n ]]n on pose u I = f (ei1 , . . . , ein ). Là encore, on a vu que
f était uniquement déterminée par la famille (u I ) I ∈[[ 1 ; n ]]n .
On peut voir notre n-uplet I comme une application σ de [[ 1 ; n ]] dans lui même en posant σ(1) =
i1 , . . . , σ (n) = in et on notera uσ pour u I ;
Maintenant, comme f est alternée, si σ n’est pas injective alors uσ = 0. A l’inverse, si σ est injective, c’est
une permutation et on a donc
u σ = f ( e σ (1) , . . . , e σ ( n ) ) = ε ( σ ) f ( e1 , . . . , e n )
Corollaire [Link]
Soit B = (e1 , . . . , en ) une base de E et f 0 l’unique forme n-linéaire telle que f 0 (e1 , . . . , en ) = 1. Soit
(u1 , . . . , un ) dont les coordonnées dans B sont
n
∀ j ∈ [[ 1 ; n ]] u j = ∑ xij ei .
i =1
On a
f ( u1 , . . . , u n ) = ∑ ε(σ ) xσ(1),1 · · · xσ(n),n .
σ ∈Sn
Exercice : (Pas simple) Déterminer une base et la dimension des applications p-linéaires.
Soit E = (e1 , . . . , en ) une base de E. Il existe une unique forme n-linéaire f 0 telle que f 0 (e1 , . . . , en ) = 1. On
l’appelle le determinant relatif à la base E et on la note detE (ou det s’il n’y a pas de confusion)
Remarques :
1. L’existence et l’unicité découle du fait que l’ensemble des formes n-linéaires sur E est un espace de
dimension 1.
2. Si on change E , on change detE . Cela sera précisé par la proposition suivante.
3. Si on prend E = R2 et E la base canonique, on retrouve le déterminant vu au début de l’année.
Exemple : Calculons le déterminant dans R3 par rapport à la base canonique :
Det(( x, y, z), ( x 0 , y0 , z0 ), ( x 00 , y00 , z00 )) = xy0 z00 − xz0 y00 − yx 0 z00 + yz0 x 00 + zx 0 y00 − zy0 x 00 .
423
Proposition [Link]
Démonstration : On a vu que DetE et DetE 0 sont deux éléments non nuls de ∆∗n E qui est de dimension 1. Ils
sont donc colinéaires et le coefficient de colinéarité n’est pas nul. Il suffit ensuite d’appliquer en E 0 pour trouver
le coefficient.
Remarques :
1
1. On voit donc que DetE (E 0 ) = .
DetE (E 0 )
2. En particulier, si on échange l’ordre des vecteurs d’une base on peut modifier le déterminant, si E =
(ei )i∈[[ 1 ; n ]] et E 0 = (eσ(i) )i∈[[ 1 ; n ]] alors
DetE 0 = ε(σ )DetE .
Exemple : Si on considère la famille E = (u, v) ou u = (1, 2) et v = (−3, 1). C’est une base de R2 . On a
1 −3
DetE = Det(E )Det où Det est le déterminant par rapport à la base canonique. Or Det(E ) = = 7.
2 1
Donc DetE = [Link].
Proposition [Link]
Démonstration :
— ⇒ On suppose que (u1 , . . . , un ) est une base. Le scalaire DetB (u1 , . . . , un ) est celui qui est défini ci-
dessus, il est non nul.
— ⇐ Procédons par contraposée. Si la famille (u1 , . . . , un ) n’est pas une base, elle est liée. Il existe donc
i ∈ [[ 1 ; n ]] tel que ui soit une combinaison linéaire des u j avec j 6= i. On note ui = ∑ λ j u j . On en déduit
j 6 =i
que
DetB (u1 , . . . , un ) = ∑ λ j DetB (u1 , . . . , ui−1 , u j , ui+1 , un )
j 6 =i
= 0 car DetB est alternée
Définition [Link]
ϕ: ( R3 )3 → R
(u1 , u2 , u3 ) 7→ « volume » du parallélépipède P(u1 , u2 , u3 )
424
Proposition [Link]
Démonstration :
— Montrons que ϕ est linéaire. Commençons par voir qu’elle est additive. Considérons par exemple
ϕ(u1 + u10 , u2 , u3 )
Maintenant, il semble aussi clair que si on multiplie un vecteur par λ ∈ R+ alors le volume est multiplié
par λ.
Par contre si λ ∈ R− cela semble moins clair. En fait le volume au sens physique du terme est la valeur
absolue du « volume mathématique ». Cela dépend de l’orientation de l’espace comme on en parlera plus
tard.
— Il est clair que ϕ est alternée car si deux vecteurs sont identiques, le parallélépipède est aplati et de volume
nul.
Remarque : On voit donc que notre volume est une forme trilinéaire alternée. Pour la définir, il suffit de fixer
un volume étalon qui vaut 1. On prend bien évidemment la base canonique. Cela permet de définir proprement
le volume d’un parallélépipède. On démontrera dans le chapitre 32 que l’on a la formule
volume = aire de la base × hauteur
Proposition [Link]
Démonstration
Proposition 29.3.4.1000
DetB0 (E ) = −DetB1 (E )
De ce fait E est en relation avec B0 ou avec B1 . Il n’y a que deux classes d’équivalence.
425
Définition 29.3.4.1001
On appelle orientation de l’espace vectoriel le choix d’une des classes d’équivalence qui forme les bases qui sont
dites directes. Les autres sont indirectes.
Exemples :
1. si n = 1 et E = R. Alors u1 = 1 est une base de R. Si on note −u1 = −1. Comme dans la démonstration
ci-dessus Detu1 (−u1 ) = −1. Il faut choisir l’un ou l’autre pour orienter la droite.
2. Si n = 2 on procède de même avec les bases (u1 , u2 ) et (−u1 , u2 ) où u1 = (1, 0) et u2 = (0, 1). La
convention veut que l’on prenne dans R2 la base canonique comme étant directe.
f : ( x, y) 7→ (3x + 2y, x − y)
3 2
Vol( P10 ) = = −5 (au signe près).
1 −1
Considérons maintenant un autre parallélépipède P2 = P(u1 , u2 ) où u1 = (1, 1) et u2 = (−1, 2). L’image est
alors P20 = P(u10 , u20 ) où u10 = f (u1 ) = (5, 0) et u20 = f (u2 ) = (1, −3).
On en déduit que
5 1
Vol( P20 ) = = −15 (au signe près).
0 −3
On remarque que dans les deux cas, Vol( Pi0 ) = 5Vol( Pi ).
Exercice : Montrer que pour tout parallélépipède on a Vol( f ( P)) = 5Vol( P).
Proposition 29.3.5.1002
Soit f un endomorphisme de E. Il existe un unique scalaire λ tel que pour toute base B et toute
famille (u1 , . . . , un ) ∈ En ,
Démonstration :
— Unicité : Soit λ1 et λ2 deux scalaires vérifiant la relation. Soit B = (e1 , . . . , en ) une base, alors
Donc λ1 = λ2 .
— Existence : On se fixe une base B. On considère l’application :
DetB0 ( f (u1 ), . . . , f (un )) = αDetB ( f (u1 ), . . . , f (un )) = αλDetB (u1 , . . . , un ) = λDetB0 (u1 , . . . , un ).
426
Définition 29.3.5.1003
Exemples :
1. Si f = Id, Det(Id) = 1. De plus, Det(λId) = λn .
2. Si s est la symétrie par rapport à G et parallèlement à F où F ⊕ G = E. On prend une base adaptée c’est à
dire une base B = (e1 , . . . , en ) telle que (e1 , . . . , e p ) est une base de F et (e p+1 , . . . , en ) une base de G. On a
alors
DetB (s(e1 ), . . . , s(en )) = DetB (−e1 , . . . , −e p , e p+1 , . . . , en ) = (−1) p DetB (B ).
Donc Det(s) = (−1) p .
Proposition 29.3.5.1004
Soit f ∈ L ( E) :
f ∈ GL( E) ⇐⇒ Det( f ) 6= 0.
Démonstration :
— ⇒ : On suppose que f est un automorphisme. On sait alors que l’image d’une base est une base. Soit E
une base et E 0 son image par f . On a
Proposition 29.3.5.1005
Soit A ∈ Mn (K) une matrice carrée. On appelle déterminant de A et on note Det( A) le déterminant des
vecteurs colonnes de la matrice dans la base canonique de Kn .
Notation : Si
a11 · · · a1n a11 ··· a1n
.. on note Det( A) =
A = ... .
..
.
..
. .
an1 · · · ann an1 · · · ann
a b a b
Exemple : Si A = alors = ad − bc.
c d c d
427
Proposition 29.3.6.1007
a b c
d e f = aei + dhc + gb f − gec − dbi − ah f .
g h i
Il suffit d’utiliser les trois permutations paires Id, (1, 2, 3) et (1, 3, 2) et les trois permutations impaires (1, 2), (1, 3), (2, 3).
Cela s’appelle la règle de Sarrus.
ATTENTION
La notion de déterminant d’une matrice est liée aux notions vues précédemment. Précisément,
Proposition 29.3.6.1008
1. Si B est une base de E et (u1 , . . . , un ) une famille de vecteurs. Si M = MatB (u1 , . . . , un ) alors
Démonstration :
1. La encore, il suffit d’utiliser la formule.
2. D’après ce qui précède on sait que M = MatB ( f (e1 ), . . . , f (en )) si on note B = (e1 , . . . , en ). D’où
428
3.7 Propriétés et calculs
Théorème 29.3.7.1009 (Propriétés du déterminant)
ATTENTION
Démonstration : Les points 1 et 2 ont déjà été vus. Pour le point 3 il suffit de la faire pour les endomorphismes.
On se donne une base B = (e1 , . . . , en ) de E. Alors
Det( f ◦ g) = DetB ( f ( g(e1 ), . . . , f ( g(en ))
= Det( f )DetB ( g(e1 ), . . . , g(en ))
= Det( f )Det( g)DetB (B )
= Det( f )Det( g).
Pour le 4, il suffit d’utiliser de plus que Det(Id) = 1.
Proposition 29.3.7.1010
Démonstration : On note A = ( aij ). On note B = (bij ) la matrice tA et donc bij = a ji . On sait alors que
Or
bσ(1),1 · · · bσ(n),n = a1,σ(1) · · · an,σ(n) = aσ−1 (1),1 · · · aσ−1 (n),n .
On en déduit que
Det( B) = ∑ ε(σ ) aσ−1 (1),1 · · · aσ−1 (n),n = ∑ ε(σ−1 ) aσ−1 (1),1 · · · aσ−1 (n),n = Det( A).
σ ∈Sn σ ∈Sn
429
Proposition 29.3.7.1011
On a Det( A) = αDet( A0 ).
Corollaire 29.3.7.1012
430
Démonstration : Il suffit d’utiliser que les déterminant est une n-forme linéaire alternée.
1 3 3
Exemple : Si on veut calculer 2 4 1 . On peut utiliser la règle de Sarrus et on trouve Det( A) = 40.
−1 7 2
Sinon on peut aussi voir que
1 3 3 1 3 3
−2 −5
2 4 1 = 0 −2 −5 =
10 5
−1 7 2 0 10 5
a a a a
a b b b
Exercice : Calculer
a b c c
a b c d
Définition 29.3.8.1014
1 2 0 1
−1 2 3 1
Exemple : Soit A =
0
.
3 −2 1
0 −3 2 1
−1 3 1
Le mineur en (1, 2) est 0 −2 1 = 4.
0 2 1
Proposition 29.3.8.1015
Démonstration :
a1j
1. Notons C1 , . . . , Cn les n colonnes de la matrices et Cj = ... . On a donc
anj
n
Det( A) = Det(C1 , · · · , Cn ) = ∑ aij Det(C1 , . . . , Cj−1 , Xi , Cj+1 , . . . , Cn )
i =1
431
Or
a11 ··· a1,j−1 0 a1,j+1 ··· a1n
.. .. .. .. ..
. . . . .
ai−1,1 ··· ai−1,j−1 0 ai−1,j+1 · · · ai−1,n
Det(C1 , . . . , Cj−1 , Xi , Cj+1 , . . . , Cn ) = ai,1 ··· ai,j−1 1 ai,j+1 · · · ai,n
ai+1,1 ··· ai+1,j−1 0 ai+1,j+1 · · · ai+1,n
.. .. .. .. ..
. . . . .
an,1 ··· an,j−1 0 an,j+1 ··· ann
Maintenant en échangeant j − 1-fois de colonnes et i − 1 fois des lignes on peut amener le 1 en haut à
gauche (ou en bas à droite avec n − j fois sur les colonnes et n − i fois sur les lignes). On en déduit que
2. Il suffit de transposer
Exemples :
1. On retrouve ainsi la formule de Sarrus.
2. Soit a ∈] − 2, 2[ on pose
a 1 0 ··· 0
.. .
1 a 1 . ..
Dn ( a ) = .. ..
0 1 . . 0 .
.. .. ..
. . . a 1
0 ··· 0 1 a
En développant par rapport à la première ligne on obtient
1 1 0 ··· 0
.. .
0 a 1 . ..
Dn ( a) = aDn−1 ( a) − .. ..
0 1 . . 0 .
.. .. ..
. . . a 1
0 ··· 0 1 a
Dn ( a) = aDn−1 ( a) − Dn−2 a.
1 1 ··· 1
a0 a1 · · · an
V ( a0 , . . . , a n ) = a20 a21 · · · a2n .
.. .. ..
. . .
a0n a1n · · · ann
432
— Si n = 1, V ( a0 ) = 1.
— Si n = 2, V ( a0 , a1 ) = a1 − a0 .
1 1 1
— Si n = 3, il est plus simple de particulariser une valeur. On a V ( a0 , a1 , x ) = a0 a1 x . Si on
a20 a21 x2
développe par rapport à la dernière colonne
V ( a0 , . . . , a n , x ) = V ( a0 , . . . , a n ) x n + · · ·
∀i [[ 0 ; n ]] , P( xi ) = yi .
n
En effet si on pose P = ∑ ck X k . Alors P vérifie la condition si et seulement si
k =0
∀i ∈ [[ 0 ; n ]] , ∑ ck xik = yi .
k
On note alors
1 x0 · · · x0n c0 y0
.. .. .. , X = .. et Y = .. .
A= . . . . .
1 xn · · · xn n cn yn
On a alors P vérifie les conditions si et seulement si Y = AX. Or DetA = DettA = V ( x0 , . . . , xn ) 6= 0. On
en déduit qu’il existe une unique solution qui est X = A−1 Y.
Proposition 29.3.9.1016
433
— La première consiste à reprendre la formule générale du déterminant :
Det( M ) = ∑ ε(σ ) aσ(1),1 · · · aσ(n),n
σ ∈Sn
Maintenant, pour tout p > n0 et q 6 n0 , a pq = 0. De ce fait, dans la somme ci-dessus on peut ne garder que
les permutations σ qui laissent [[ n0 + 1 ; n ]] stable. De ce fait, [[ 1 ; n0 ]] est aussi stable. Une telle permutation
est donc donnée par une permutation σ1 de [[ 1 ; n0 ]] et une permutation σ2 de [[ n0 + 1 ; n ]]. On en déduit
donc que
!
Det( M) = ∑ aσ (1),1 · · · aσ (n0 ),n0 × ∑ aσ (n0 +1),n0 +1 · · · aσ (n),n = Det( A) × Det( D ),
1 1 2 2
σ1 ∈Sn0 σ2 ∈S
Corollaire 29.3.9.1017
On a
p
det( M) = ∏ Det( Ai ).
i =1
434
4 Utilisation des déterminants
4.1 Commatrice
Définition 29.4.1.1018
1 0 2 8 1 −13
Exemple : Si A = −2 3 −1 . On a Com( A) = 4 −4 −1 . Calculons tCom( A).A. On
3 2 2 −6 −3 3
trouve −18I. Or Det( A) = −18. On trouve donc tCom( A).A = Det( A) I.
Proposition 29.4.1.1019
Démonstration : Notons comme précédemment A = ( aij ) et ∆ij le mineur associé à aij . On note bij = (−1)i+ j ∆ ji
les coefficients de tCom( A).
— Pour la diagonale : Soit i ∈ [[ 1 ; n ]] on a
n n
∑ aij bji = ∑ aij (−1)i+ j ∆ij = Det( A)(Formule de developpement par rapport à la ligne i)
j =1 j =1
De plus, si on considère la matrice A0 = ( aij0 ) obtenue en remplaçant la ligne j de A par la ligne i de telle
0 = a0 on obtient
sorte que aik = aik jk
A.X = B
où A ∈ GLn (K) est la matrice des coefficients qui est inversible, X ∈ M1,n (K) est la matrice des inconnues
et B ∈ M1,n (K) est le second membre.
435
Proposition 29.4.2.1021 (Formules de Cramer)
x1
On sait qu’un système de Cramer a une unique solution qui est donné par X = ... où
xn
Det( Ak )
∀k ∈ [[ 1 ; n ]] , xk =
Det( A)
Démonstration :
On note C1 , . . . , Cn les colonnes de A de telle sorte que Det( A) = Det(C1 , . . . , Cn ).
vecteurs
x1
Maintenant, si X = ... est la solution du système alors ∑ x p C p = B. De ce fait,
p =1
xn
n
Det( Ak ) = Det(C1 , . . . , Ck−1 , ∑ x p C p , Ck+1 , . . . , Cn ) = ∑ x p Det(C1 , . . . , Ck−1 , Cp , Ck+1 , . . . , Cn ).
p =1 p =1
Det( Ak ) = xk Det(C1 , . . . , Cn )
436
Couples de variables
30
aléatoires
1 Couples de variables aléatoires 437
1.1 Loi conjointe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437
1.2 Variables aléatoires indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
1.3 Lois conditionnelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 439
1.4 Lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 440
1.5 Fonction d’un couple de variables aléatoires réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 441
2 Moments 442
2.1 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
2.2 Variance et covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 442
3 Généralisation à n variables 445
3.1 Variables aléatoires mutuellement indépendantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 445
3.2 Somme de n variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 446
Dans ce chapitre nous allons étudier les relations qui peuvent exister entre plusieurs variables aléatoires
définies sur un même espace probabilisé. Nous commencerons par étudier le cas de deux variables aléatoires
avant de généraliser au cas de n (n ∈ N? ).
Soit X et Y deux variables aléatoires réelles définies sur un même espace probabilisé (Ω, P (Ω), P). La loi du
couple ( X, Y ) ou loi conjointe est la donnée :
— l’ensemble des valeurs prises par le couple : X (Ω) × Y (Ω)
— pour chaque ( x, y) ∈ X (Ω) × Y (Ω), la valeur P(( X = x ) ∩ (Y = y)).
437
ATTENTION
Exemples :
1. On lance deux fois un dé équilibré. On note X le nombre de chiffres pairs obtenus et Y le nombre
de chiffres supérieurs à 4 obtenus. On sait que X ,→ B (2, 1/2) et Y ,→ B (2, 1/2). On en déduit que
X (Ω) × Y (Ω) = [[ 0 ; 2 ]]2 Cependant le fait d’obtenir un nombre plus grand que 4 n’est pas indépendant
du fait de faire un nombre pair. On va donc calculer "à la main" les nombres
On remarque donc que connaître la loi de X et de Y n’est pas suffisant pour connaître la loi du couple
( X, Y ).
2. On dispose d’une pièce équilibrée. On la lance une première fois. On note X la variable aléatoire qui vaut
1 si la pièce fait pile et 0 sinon. On fait alors un deuxième étape qui consiste à lancer deux fois la pièce si
on a fait pile à la première étape et une fois si on a fait face. On note Y le nombre de pile obtenu lors de
cette deuxième étape.
Ici, il est plus difficile de déterminer la loi de Y. On va juste chercher la loi conjointe de ( X, Y ).
Proposition 30.1.1.1023
∑ pij = 1.
(i,j)∈[[ 1 ; r ]]×[[ 1 ; s ]]
438
1.2 Variables aléatoires indépendantes
Définition 30.1.2.1024
Soit X et Y deux variables aléatoires réelles définies sur un même espace probabilisé (Ω, P (Ω), P). Les deux
variables sont dits indépendantes si ∀( x, y) ∈ X (Ω) × Y (Ω) les événements ( X = x ) et (Y = y) sont
indépendants. C’est-à-dire si :
Remarque : Comme dans le cas des événements indépendants, l’indépendance sera la plupart du temps une
hypothèse qui découlera de la modélisation. Attention au fait que l’examen de la modélisation ne permet pas
de conclure au fait que des variables ne sont pas indépendantes.
Exemples :
1. Deux personnes tirent successivement et avec remise une boule dans une urne qui contient N boules
numérotées de 1 à N. On note Xi le nombre tiré par la i-ème personne (i ∈ {1, 2}). Les variables sont
indépendantes et
1
∀(k, k0 ) ∈ [[ 1 ; N ]] , P( X1 = k, X2 = k0 ) = 2 .
N
2. On reprend le même exercice mais cette fois ci, sans remise. Les variables ne sont plus indépendantes.
Remarque : On voit que si X et Y sont indépendantes, la connaissance des lois de X et Y permet de déterminer
la loi de ( X, Y ).
Proposition 30.1.2.1025
P(( X ∈ I ) ∩ (Y ∈ J )) = P( X ∈ I ) × P(Y ∈ J ).
Démonstration
Corollaire 30.1.2.1026
Soit X et Y deux variables aléatoires réelles définies sur un même espace probabilisé (Ω, P (Ω), P).
On suppose que X et Y sont indépendantes. Soit f (resp. g) une fonction dont l’ensemble de définition
contient X (Ω) (resp. Y (Ω)). Les variables aléatoires f ( X ) et g(Y ) sont indépendantes.
Soit X une variable aléatoire réelle définie sur l’espace probabilisé (Ω, P (Ω), P). Soit A ∈ P (Ω) un
événement tel que P( A) 6= 0. On définit la loi conditionnelle de X par A (ou loi de X conditionnée par A ou
encore loi de X sachant A) de la manière suivante.
— L’ensemble des valeurs est inclus dans X (Ω).
— Pour tout x ∈ X (Ω), la probabilité est la probabilité de ( X = x ) sachant A que l’on note PA ( X = x ).
Remarques :
1. C’est une loi de probabilité en particulier :
∑ PA ( X = x ) = 1.
x ∈ X (Ω)
2. L’ensemble des valeurs n’est pas toujours X (Ω) en entier (voir exemple 2).
439
3. La condition sera souvent définie comme la valeur d’une variable aléatoire.
Exemples :
1. On reprend l’exemple 1. La loi de X sachant (Y = 0) est donnée par :
x 0 1 2
P(Y =0) ( X = x ) 4/9 4/9 1/9
x 0 1 2
P(Y =1) ( X = x ) 2/9 5/9 2/9
Soit ( X, Y ) un couple de variables aléatoires réelles définies sur un espace probabilisé (Ω, P (Ω), P). Les lois
de X et de Y s’appellent les lois marginales du couple ( X, Y ).
Proposition 30.1.4.1029
Soit ( X, Y ) un couple de variables aléatoires réelles définies sur un espace probabilisé (Ω, P (Ω), P).
On a :
?∀ x ∈ X (Ω), P( X = x ) = ∑ P( X = x, Y = y)
y ∈Y ( Ω )
?∀y ∈ Y (Ω), P (Y = y ) = ∑ P( X = x, Y = y)
x ∈ X (Ω)
Démonstration : Il suffit d’utiliser que les événements ( X = x ) (resp. (Y = y)) forment un système complet
d’événements.
Remarque : Dans la pratique, pour déterminer les lois marginales, il suffit de faire la somme des lignes (resp.
des colonnes) du tableau de la loi conjointe. Dans la pratique, cela peut permettre de vérifier les calculs d’une
loi conjointe.
Exemples :
1. On reprend l’exemple 1 précédent. On a
HH Y
0 1 2 X
X
HH
H
0 1/9 1/9 1/36 1/4
1 1/9 5/18 1/9 1/2
2 1/36 1/9 1/9 1/4
Y 1/4 1/2 1/4 1
440
2. On reprend l’exemple de l’urne avec 4 boules noires. On veut calculer la loi du couple ( X, Y ). On a
X (Ω) = [[ 0 ; 3 ]] et Y (Ω) = [[ 0 ; 4 ]] et, pour (i, j) ∈ [[ 0 ; 3 ]] × [[ 0 ; 4 ]], on a :
P ( X = i |Y = j )
P( X = i, Y = j) = P(Y = j) × P( X = i |Y = j) = .
5
On en déduit donc la loi de ( X, Y ) ainsi que les lois marginales :
HH X
0 1 2 3 Y
Y
H
HH
0 1/5 0 0 0 1/5
1 1/20 3/20 0 0 1/5
2 0 1/10 1/10 0 1/5
3 0 0 3/20 1/20 1/5
4 0 0 0 1/5 1/5
X 1/4 1/4 1/4 1/4 1
Soit ( X, Y ) un couple de variables aléatoires réelles définies sur un même espace probabilisé (Ω, P (Ω), P).
Soit u une fonction de R2 dans R. On suppose que X (Ω) × Y (Ω) est inclus dans l’ensemble de définition de
u. On définit une nouvelle variable aléatoire Z = u( X, Y ) en composant la fonction u avec les fonctions X et
Y. C’est-à-dire :
Z: Ω → R
ω → u( X (ω ), Y (ω )).
Exemple : On lance deux dés à 6 faces. On note X (resp. Y) le résultat du premier (resp. second) dé. Si on pose
u( x, y) = x + y alors S = u( X, Y ) = X + Y est la somme obtenue. Si on pose v( x, y) = Min( x, y) et Z = v( X, Y ),
la variable Z est le plus petit des deux.
Il est souvent difficile de calculer loi d’une variable aléatoire définie par une fonction de deux variables
aléatoire. En effet soit z ∈ Z (Ω) alors l’événement ( Z = z) est l’union des événements ( X = x ) ∩ (Y = y) où
( x, y) sont tels que u( x, y) = z. On a
Proposition 30.1.5.1031
Soit ( X, Y ) un couple de variables aléatoires réelles définies sur un même espace probabilisé
(Ω, P (Ω), P). Soit u une fonction de R2 dans R. On suppose que X (Ω) × Y (Ω) est inclus dans
l’ensemble de définition de u. On pose Z = u( X, Y ). On a :
∀z ∈ R, P( Z = z) = ∑ P( X = x, Y = y).
( x,y)∈ X (Ω)×Y (Ω)
u( x +y)=z
441
Supposons par exemple que X et Y soient indépendantes et suivent la loi U ([[ 0 ; N ]]). On a Z (Ω) ⊂ [[ 0 ; 2N ]]
et pour tout n ∈ [[ 0 ; 2N ]],
n
P( Z = n) = ∑ P ( X = i ) P (Y = n − i ) .
i =0
Dans la somme tous les termes valent 1/( N + 1)2 . On veut juste savoir combien il y a de termes. Cela revient
à trouver le nombre d’entiers i tels que 0 6 i 6 N et n − N 6 i 6 n. Cela revient à 0 6 i 6 n si n 6 N et
n − N 6 i 6 N si n > N. On en déduit que
n+1
si n 6 N
( N + 1)2
P( Z = n) =
2N + 1 − n
si n > N.
( N + 1)2
2 Moments
2.1 Espérance
Nous allons étudier les moments des couples de variables aléatoires.
Soit X et Y deux variables aléatoires définies sur un même espace probabilisé (Ω, P (Ω), P). Soit u
une fonction de deux variables dont l’ensemble de définition contient X (Ω) × Y (Ω). On a
E(u( X, Y )) = ∑ u( x, y) P( X = x, Y = y).
( x,y)∈(Ω)×Y (Ω)
Remarque : Cela peut-être très utile car il est souvent difficile voir impossible de déterminer la loi de u( X, Y )
Corollaire 30.2.1.1033
E( aX + bY ) = aE( X ) + bE(Y ).
7
E ( X1 ) = E ( X2 ) = .
2
On en déduit que
E(S) = E( X1 ) + E( X2 ) = 7.
V( X + Y ) = E(( X + Y )2 ) − E( X + Y )2
= E( X 2 + 2XY + Y 2 ) − (E( X ) + E(Y ))2
= E( X 2 ) − E( X )2 + E(Y 2 ) + E(Y )2 + 2E( XY ) − 2E( X ).E(Y )
= V( X ) + V(Y ) + 2(E( XY ) − E( X )E(Y )).
442
Définition 30.2.2.1034
Soit X et Y deux variables aléatoires définies sur le même espace probabilisé (Ω, P (Ω), P). La covariance du
couple ( X, Y ) est :
Cov( X, Y ) = E( XY ) − E( X )E(Y ).
Proposition 30.2.2.1035
Démonstration
Remarque : La "vraie" définition de la covariance est Cov( X, Y ) = E(( X − E( X ))(Y − E(Y ))). L’égalité
Cov( X, Y ) = E( XY ) − E( X )E(Y ) est la formule de Huygens pour la covariance.
Proposition 30.2.2.1036
Proposition 30.2.2.1037
V( aX + bY ) = a2 V( X ) + b2 V(Y ) + 2abCov( X, Y ).
En particulier pour a = b = 1 on a
V( X + Y ) = V( X ) + V(Y ) + 2Cov(Y, Y ).
Remarque : Ces formules nous disent que l’on peut imaginer la covariance comme un produit scalaire et que la
variance est alors le carré de la norme associée (la norme étant l’écart type). Il faut quand même faire attention
que c’est pas réellement exact car la covariance n’est pas définie. On peut avoir V( X ) sans que X soit nulle.
Théorème 30.2.2.1038
E( XY ) = E( X )E(Y ).
D’où
Cov( X, Y ) = 0 et V( X + Y ) = V( X ) + V(Y ).
Démonstration : On a
= ∑ xy.P( X = x ).P(Y = y)
( x,y)∈ X (Ω)×Y (Ω)
443
Exemples :
1. On reprend l’exemple de la somme de deux dés. Les deux lancers sont indépendants d’où
35 35
V(S) = V( X1 ) + V( X2 ) = 2. = .
12 6
2. On considère une urne avec les nombres de 1 à N. On tire deux boules, on note X le premier numéro tiré
et Y le deuxième. Calculer Cov( X, Y ) selon que le tirage se fasse avec ou sans remise.
3. Soit ( X, Y ) le couple de variables aléatoires de loi conjointe ;
HH Y
H
0 1 2
X HH
0 1/30 11/30 1/30
1 6/30 5/30 6/30
Définition 30.2.2.1039
Avec les notations précédentes, on suppose que X et Y ne sont pas constantes. On appelle coefficient de
corrélation linéaire la grandeur :
Cov( X, Y )
ρ( X, Y ) = .
σ ( X ).σ (Y )
Remarque : Cette grandeur a l’avantage par rapport à la covariance que sa valeur absolue ne varie sous
homothétie. On a pour ( a, b) ∈ (R? )2 ,
Proposition 30.2.2.1040
On voit donc que P(λ) est un trinôme du second degré en λ. De plus, comme une variance est toujours positive,
il est toujours positif. On en déduit que son discriminant est négatif ou nul. D’où
On en déduit
|Cov( X, Y )| 6 σ( X )σ(Y ) et |ρ( X, Y )| 6 1.
444
Proposition 30.2.2.1041
Remarque : on voit que le coefficient de corrélation linéaire mesure bien la "dépendance" des deux variables.
Plus il est grand plus elles dépendent l’une de l’autre. En particulier dans le cas extrême où |ρ| = 1.
Démonstration :
1. Déjà vu.
2. — Commençons par montrer que : (il existe ( a, b) ∈ R? × b tels que Y = aX + b) ⇔ |ρ( X, Y )| = 1. On
pose donc Y = aX + b. Alors
Cov( X, aX + b) = E( aX 2 + bX ) − E( X ).( aE( X ) + b)
= aE( X 2 ) + bE( X ) − aE( X )2 − bE( X )
= V( X ).
D’autre part, σ ( aX + b) = | a|σ ( X ) d’où
On a bien |ρ( X, Y )| = 1.
— Montrons maintenant que : |ρ( X, Y )| = 1 ⇔ (il existe ( a, b) ∈ R? × b tels que Y = aX + b). Reprenons
les notations de la démonstration précédente. On pose P(λ) = V( X ) + λ2 V(Y ) + 2λ.Cov( X, Y ).
Comme |ρ( X, Y )| = 1 on a ∆ = 0. De ce fait, il existe une valeur α ∈ R tel que P(α) = V( X + α.Y ) = 0.
On en déduit que la variable aléatoire X + α.Y est constante égale à β. On en déduit que X = −α.Y + β
Or α 6= 0 car X n’est pas constante. Donc
1 β
Y= X+ .
α α
3 Généralisation à n variables
Nous allons essayer de généraliser certaines notions au cas non plus de deux variables aléatoires mais de n
variables aléatoires.
Soit (Ω, P (Ω), P) un espace probabilisé et X1 , . . . , Xn des variables aléatoires réelles. On dit qu’elles sont
mutuellement indépendantes si, pour tout ( x1 , . . . , xn ) ∈ X1 (Ω) × · · · × Xn (Ω), les événements ( X1 =
x1 ), . . . , ( Xn = xn ) sont mutuellement indépendants.
Remarque : Là encore, on ne démontrera que rarement que l’on considère des variables aléatoires mutuellement
indépendantes. Ce sera, la plupart du temps, une hypothèse qui découlera de l’expérience.
Proposition 30.3.1.1043
445
Exemple : On lance n fois un dé à 6 faces équilibré. On note Xi le résultat obtenu au i-ème lancer. Les variables
ainsi obtenues sont indépendantes. On a par exemple
!
\n
1
P ( Xi > 5 ) = n .
i =1
3
Proposition 30.3.1.1044
Avec les notations précédentes, si X1 , . . . , Xn sont des variables aléatoires mutuellement indépen-
dantes alors toute sous-famille l’est aussi.
Proposition 30.3.1.1045
Avec les notations précédentes, on suppose que X1 , . . . , Xn sont des variables aléatoires mutuellement
indépendantes.
1. Soit p ∈ [[ 1 ; n − 1 ]], f une fonction R p dans R et g une fonction de Rn− p dans R, alors
f ( X1 , . . . , X p ) et g( X p+1 , . . . , Xn ) sont des variables aléatoires indépendantes.
2. Soit f 1 , . . . , f n des fonctions de R dans R. Les variables aléatoires f 1 ( X1 ), . . . , f n ( Xn ) sont
mutuellement indépendantes.
On a
n
E( S ) = ∑ E ( Xi ) .
i =1
De même on a
n n
V( S ) = ∑ V(Xi ) + ∑ Cov(Xi , Xj ) = ∑ V(Xi ) + 2 ∑ Cov(Xi , Xj ).
i =1 i6= j i =1 i> j
Proposition 30.3.2.1047
Proposition 30.3.2.1048
On suppose maintenant que les variables Xi sont des variables aléatoires indépendantes de Bernoulli
et de même paramètre p. On a alors S ,→ B (n, P).
446
Espaces
préhilbertiens réels
31
1 Produit scalaire 447
1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447
1.2 Norme euclidienne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 449
2 Orthogonalité 451
2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451
3 Bases orthogonales 453
3.1 Généralité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 453
3.2 Produit mixte et produit vectoriel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455
3.3 Sous-espaces vectoriels orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 456
3.4 Projecteurs orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 458
3.5 Hyperplans . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 459
4 Endomorphismes orthogonaux 461
4.1 Endomorphismes orthogonaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 461
4.2 Matrices orthogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 463
4.3 Endomorphismes orthogonaux du plan euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
4.4 Automorphismes orthogonaux de l’espace . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 468
Dans ce chapitre nous allons voir comment on peut généraliser la notion de produit scalaire pour les espaces
vectoriels sur R.
1 Produit scalaire
1.1 Définitions
On se fixe un espace vectoriel E.
447
Définition 31.1.1.1049 (Rappel)
Une forme bilinéaire symétrique est une application bilinéaire f de E × E dans R telle que
Définition 31.1.1.1050
Remarques :
1. On ne peut définir positive que si le corps de base est R.
2. Il se peut que f (u, v) < 0 si u 6= v.
Définition 31.1.1.1051
On appelle produit scalaire sur E la donnée d’une forme bilinéaire symétrique définie positive.
Définition 31.1.1.1052
1. On appelle espace préhilbertien un espace vectoriel sur R muni d’un produit scalaire.
2. On appelle espace euclidien un espace préhilbertien de dimension finie.
Remarque : On appelle espace hilbertien (ou espace de Hilbert) un espace vectoriel E sur R muni d’un produit
scalaire qui est complet ce qui est une condition sur la convergence des suites d’élément de E. La condition
demandée est en particulier vérifiée sur E est de dimension finie.
448
Proposition 31.1.1.1053 (Inégalité de Cauchy-Schwarz)
Démonstration : Il suffit de considérer λ 7→ (u + λv|u + λv). Voir le cours sur les intégrales.
Exemple : On retrouve ce qui a été vu sur les intégrales
Z b Z b Z b
f (t) g(t) dt 6 f 2 (t) dt . g2 (t) dt .
a a a
Définition 31.1.2.1054
Soit u et v dans E,
(u, v) 6 ||u||||v||.
De plus il y a égalité si et seulement si u et v sont colinéaire et le coefficient de colinéarité est positif.
Démonstration :
1. OK
449
2. OK
3. Soit u et v deux vecteurs il suffit de montrer que ||u + v||2 6 ||u||2 + ||v||2 + 2||u||||v||. Or on sait que
||u + v||2 = (u + v, u + v)
= ||u||2 + ||v||2 + 2(u, v) (Linéarité et symétrie)
6 ||u||2 + ||v||2 + 2||u||||v|| (Cauchy-Schwarz)
Le cas d’égalité découle de celui qui précède.
On peut utiliser les propriétés de la norme pour définir les propriétés de la distance.
La distance d vérifie :
1. Pour tout (u, v) dans E2 , d(u, v) = 0 ⇐⇒ u = v
2. Pour tout (u, v, w) dans E3 , d(u, w) 6 d(u, v) + d(v, w).
Démonstration :
1. Évident
2. L’inégalité triangulaire affirme que
d(u, w) = ||u − w|| 6 ||u − v|| + ||v − w|| = d(u, v) + d(v, w).
Définition 31.1.2.1059
Remarque : De manière plus générale on peut définir une distance sur un espace E comme une application
d : E2 → R +
450
Proposition 31.1.2.1060 (Identités de polarisation)
Remarque : C’est égalité permettent de retrouver (u, v) en ne connaissant que les normes.
Remarque : Cette égalité a déjà été vue dans le cadre des complexes.
2 Orthogonalité
2.1 Définitions
Définition 31.2.1.1062
Soit u et v deux vecteurs de E. Ils sont donc orthogonaux si (u|v) = 0. On note alors u ⊥ v.
Démonstration
Définition 31.2.1.1064
Soit A et B deux parties de E. On dit que A et B sont orthogonales si tout vecteur de A est orthogonal à tout
vecteur de B c’est-à-dire,
∀u ∈ A, ∀v ∈ B, (u|v) = 0.
Exemples :
1. Dans R3 les droites ∆1 = Vect(1, 1, 1) et ∆2 = Vect(1, −1, 0) sont orthogonales.
2. Dans R[ X ] muni du produit scalaire précédent, les espaces F = R1 [ X ] et G = Vect(−6X 2 + 6X − 1) sont
orthogonaux.
451
Définition 31.2.1.1065
Soit A une partie de E, on appelle orthogonal de A et on note A⊥ l’ensemble des vecteurs qui sont orthogonaux
à tous les vecteurs de A. On a
A⊥ = {u ∈ E | ∀v ∈ A, (u|v) = 0}.
Remarque : On a donc que A et B sont orthogonaux si et seulement si A ⊂ B⊥ (ce qui est aussi équivalent à
B ⊂ A⊥ ).
Proposition 31.2.1.1066
Démonstration
Exemples :
1. On a {0}⊥ = E et E⊥ = {0}.
a b
2. Dans E = M2 (R). Avec le produit scalaire tr (tAB), si on note E = | ( a, b) ∈ R2 . Un matrice
0 a
α β
B= est dans l’orthogonal de E si et seulement si pour tout a et b, a(α − δ) + bβ = 0. C’est à
γ δ
dire α = −δ et β = 0. On a donc
⊥ α 0 2
E = | (α, γ) ∈ R .
γ −α
Exercices :
1. Montrer que si F est un sous-espace vectoriel de E, F ∩ F ⊥ = {0}.
Z 1
2. Dans R2 [ X ] muni du produit scalaire ( P| Q) = P(t) Q(t) dt. Déterminer Vect( X )⊥ .
0
Proposition 31.2.1.1067
Soit F et G deux sous-espaces vectoriels orthogonaux. Ils sont alors en somme directe. On note alors
⊥
F ⊕ G la somme
Démonstration
Définition 31.2.1.1068
Exemples :
1. La base canonique est orthonormée pour le produit scalaire usuel.
2. Dans P, on pose f k : x 7→ cos(kx ). La famille ( f 0 , . . . , f p ) est orthonormée pour le produit scalaire
Z 2π
1
( f , g) = f (t) g(t) dt.
2π 0
452
ATTENTION
Proposition 31.2.1.1069
Soit (u1 , . . . , u p ) une famille orthogonale de vecteurs non nuls. Elle est libre.
Démonstration
3 Bases orthogonales
On va vouloir travailler avec des bases, on va donc souvent se placer dans le cadre de la dimension finie
(c’est-à-dire la cas des espaces euclidiens).
3.1 Généralité
Dans toute la suite de ce paragraphe, on note E un espace euclidien.
Définition 31.3.1.1070
Soit E un espace euclidien. On appelle base othonormale (ou orthonormée) une base de E qui est une famille
orthonormale.
Remarque : Il suffit qu’une famille orthonormale ait le bon nombre de vecteurs (égal à la dimension de E) pour
être une base orthonormale.
Soit (e1 , . . . , e p ) une famille libre de vecteurs de E. Il existe une famille orthonormale ( f 1 , . . . , f p )
telle que, pour tout k ∈ [[ 1 ; p ]] , Vect(e1 , . . . , ek ) = Vect( f 1 , . . . , f k ).
Corollaire 31.3.1.1072
Exemple : Dans E = R3 muni du produit scalaire usuel. On pose e1 = (1, 1, 1), e2 = (0, −4, 1) et e3 = (2, −1, 1).
Cette famille est libre. On va commencer par orthogonaliser cette famille.
— On prend donc v1 = e1 = (1, 1, 1).
— On cherche v2 . Il doit être orthogonal à v1 et appartenir à Vect(e1 , e2 ) = Vect(v1 , e2 ). On pose donc
v2 = e2 + av1 ∈ Vect(v1 , e2 ). On a alors (v2 |v1 ) = (e2 |v1 ) + a(v1 |v1 ). Si on veut que v2 soit orthogonal à
( e2 , v 1 ) −3
v1 il faut prendre a = − =− = 1. On pose donc v2 = e2 + v1 = (1, −3, 2).
( v1 | v1 ) 3
453
— On cherche v3 . Il doit être orthogonal à v1 et à v2 et appartenir à Vect(e1 , e2 , e3 ) = Vect(v1 , v2 , e3 ). On
pose donc v3 = e3 + a1 v1 + a2 v2 ∈ Vect(v1 , v2 , e3 ). On a alors
( v 3 , v 1 ) = ( e3 , v 1 ) + a 1 ( v 1 , v 1 ) + a 2 ( v 2 | v 1 ) = ( e3 , v 1 ) + a 1 ( v 1 , v 1 )
et
( v 3 , v 2 ) = ( e3 | v 2 ) + a 1 ( v 1 | v 2 ) + a 2 ( v 2 , v 2 ) = ( e3 | v 2 ) + a 2 ( v 2 , v 2 ) .
Si on veut que v3 soit orthogonal à v1 et à v2 il faut prendre
( e3 , v 1 ) 2 (e , v ) 8 4
a1 = − = − et a2 = − 3 2 = − = − .
( v1 | v1 ) 3 ( v2 | v2 ) 14 7
On en déduit que
1
v3 = (26, 1, −5)
21
Ensuite il ne reste plus qu’à normer v1 , v2 et v3 . On trouve alors
1 1 1
f 1 = √ (1, 1, 1), f 2 = √ (1, −3, 2) et f 3 = √ (26, 1, −5).
2 14 702
Démonstration : La démonstration suit le même principe que l’exemple à la différence prêt que l’on norme
e
les vecteurs au fur et à mesure. On pose f 1 = 1 . On suppose alors avoir construit ( f 1 , . . . , f k ) vérifiant les
||e1 ||
k
conditions. On pose alors vk+1 = ek+1 + ∑ ai f i où ai = −(ek+1 , f i ). C’est ici que l’on simplifie les formules en
i =1
normands au fur et à mesure.
v k +1
Ce vecteur n’est pas nul car ek+1 6∈ Vect( f 1 , . . . , f k ). On pose donc f k+1 = qui est un vecteur
||vk+1 ||
unitaire. De plus, par construction, pour tout i ∈ [[ 1 ; k ]], ( f k+1 , f i ) = (vk+1 , f i ) = 0. La famille ( f 1 , . . . , f k+1 )
est orthonormale. Elle est donc libre et de rang k + 1. Comme Vect( f 1 , . . . , f k+1 ) ⊂ Vect(e1 , . . . , ek+1 ) par
construction on a bien Vect( f 1 , . . . , f k+1 ) = Vect(e1 , . . . , ek+1 )
Remarques :
1. Il n’y a pas unicité de choix dans ce procédé, car à chaque fois on peut prendre ou f i ou − f i . Mais c’est le
seul degré de liberté.
2. En reprenant la démonstration du théorème on voit que si B est une base, il existe une base orthonormale
E telle que la matrice de passage de B à E soit triangulaire supérieure.
Z 1
Exercice : Soit E = Rn [ X ] muni du produit scalaire ( P, Q) = P(t) Q(t) dt. Si on considère la base canonique
−1
(1, X, . . . , X n ).
Si on applique le procédé d’orthonormalisation de Gram-Schmidt on obtient une famille de
polynôme Pn vérifiant
∀(i, j) ∈ [[ 0 ; n ]]2 , ( Pi , Pj ) = δij .
1 3 8
. De même P1 = X et P2 = (3X 2 − 1).
Déterminer P0 , P1 et P2 . Précisément on a P0 =
2 2 5
Ces polynômes sont colinéaires aux polynômes de Legendre. C’est un cas particulier des polynômes
orthogonaux.
Proposition 31.3.1.1073
Soit E un espace vectoriel euclidien, (e1 , . . . , en ) une base orthonormale. Pour tout vecteur u de E,
u= ∑(u, ei )ei .
i
Remarque : Cela signifie que pour connaitre les coordonnées d’un vecteur dans une base orthonormale il
suffit de faire le produit scalaire avec le vecteur de la base.
454
Proposition 31.3.1.1074
x1
Avec les mêmes notations, si on note U = MatE (u) = ... la matrice des coordonnées d’un
xn
y1
vecteur u et V = MatE (v) = ... la matrice des coordonnées d’un vecteur v.
yn
1. Le produit scalaire se calcule par (u, v) = ∑ xi yi = tUV.
i
r √
2. La norme norme se calcule par ||u|| = ∑ xi2 tUU.
i
(u, v) = ∑ xi e j (ei , e j ) = ∑ xi yi .
i,j i
Remarque : Cette propriété n’est vraie que dans une base orthonormale. Sinon on a (u, v) = tU AV où
A = ((ei , e j )).
Théorème 31.3.2.1075
det = det .
B0 B
Définition 31.3.2.1076
Soit E un espace euclidien orienté, on appelle produit mixte le déterminant prenant comme base de référence
une base orthonormée directe. On le note
[ u1 , . . . , u n ]
455
Exemples :
1. Si E est un espace vectoriel orienté de dimension 2, et u et v deux vecteurs, [u, v] est l’aire orientée du
parallélogramme.
2. Si E est un espace vectoriel orienté de dimension 3, et u, v et w trois vecteurs, [u, v, w] est le volume orienté.
3. Si E est un espace vectoriel orienté et f un endomorphisme, det f mesure la dilatation que procure f .
Vous avez vu en physique le produit vectoriel de deux vecteurs. Si E est un espace
vectoriel
de dimension
x x0
3 et B une BOND. On se donne deux vecteurs u et v de coordonnées respectives y et y0 . Alors le
z z0
produit vectoriel u ∧ v a pour coordonnées
y y0
z z0
yz0 − y0 z
0
− y y0 = −( xz0 − x 0 z)
z z
0
xy0 − x 0 y
y y
z z0
α
On remarque que pour tout vecteur w de coordonnées β , le produit mixte [u, v, w] vaut
γ
x x0 α
y y0 y y0 y y0
[u, v, w] = y y0 β =α −β +γ = ( u ∧ v | w ).
z z0 z z0 z z0
z z0 γ
On peut montrer que le produit vectoriel u ∧ v est l’unique vecteur ayant cette propriété ce qui permet d’en
avoir une définition intrinsèque.
1. L’application
E×E → E
(u, v) 7→ u ∧ v
est bilinéaire et antisymétrique.
2. Le vecteur u ∧ v est orthogonal à u et v.
3. On a u ∧ v = 0 si et seulement si les vecteurs u et v sont liés.
4. Si u et v sont deux vecteurs unitaires et orthogonaux alors (u, v, u ∧ v) est une base orthonornée
directe.
u ∈ F ⊥ ⇐⇒ ∀i ∈ [[ 1 ; p ]] (u, ei ) = 0.
Démonstration :
456
1. Soit u ∈ F ∩ F ⊥ , on a u ⊥ u et donc u = 0. Il reste à montrer que F + F ⊥ = E. Soit (e1 , . . . , e p ) une
base orthonormée de F (que l’on peut obtenir en appliquant le procédé d’orthonormalisation de Gram-
Schmidt à une base de F). On peut la compléter en une base (e1 , . . . , en ) orthonormée de E. Si on pose
H = Vect(e p+1 , . . . , en ) on a H ⊂ F ⊥ et F + H = E. On en déduit que F + F ⊥ = E.
2. Cela découle de 1.
3. On peut montrer que F ⊂ ( F ⊥ )⊥ . En effet soit u ∈ F. Pour tout v ∈ F ⊥ on a (u, v) = 0 donc u ∈ ( F ⊥ )⊥ . Si
on note n = dim E et p = dim F on a
dim( F ⊥ )⊥ = n − (n − p) = p = dim F
On a donc F = ( F ⊥ )⊥ .
ATTENTION
Si F est un sous-espace vectoriel, on sait qu’il existe de nombreux sous-espaces supplémentaires. Par
contre il existe un unique supplémentaire qui soit orthogonal : c’est F ⊥ .
Exemples :
1. Dans R3 . On considère le plan vectoriel F = {( x, y, z) ∈ R3 | 2x + 3y − z = 0}. On sait alors que le vecteur
n = (2, 3, −1) est orthogonal à F et on a
F ⊥ = Vect(n).
2. Dans Mn (R) avec le produit scalaire défini ci-dessus. Si F = Vect( In ), F ⊥ = { A ∈ Mn (R) | tr ( A) = 0}.
Une partie de la proposition précédente se généralise aux sous-espaces vectoriels de dimension finie d’un
espace préhilbertien.
Proposition 31.3.3.1079
Démonstration : La démonstration précédente ne s’étend pas au cas où E n’est plus de dimension finie. On
a toujours F ∩ F ⊥ = {0}. Montrons de plus que F + F ⊥ = E. On procède par analyse synthèse. On considère
B = (e1 , . . . , e p ) une base orthonormée de F.
— Analyse : Soit w ∈ E et u ∈ F, v ∈ F ⊥ tels que u + v = w. Si on décompose u dans la base B :
u = λ1 e1 + · · · λ p e p . On a alors
457
(a) Montrer qu’il existe α 6= 0 tel que f (α) 6= 0.
(b) Montrer qu’il existe ε > 0 tel que
[α − ε, α + ε] ⊂]0, 1[ et ∀ x ∈ [α − ε, α + ε], | f ( x )| > | f (α)|/2.
(c) Construire une fonction g de F telle que ( f | g) > 0.
2. En déduire F ⊥ .
3. Montrer que ( F ⊥ )⊥ 6= F
Soit F un sous-espace vectoriel de E de dimension finie. On appelle projection orthogonale sur F la projection p
sur F parallèlement à F ⊥ . Pour tout vecteur u de E, p(u) est l’unique vecteur de F vérifiant u − p(u) ∈ F ⊥ .
Proposition 31.3.4.1081
Soit F un sous-espace vectoriel de dimension finie et (e1 , . . . , e p ) une base orthonormée de F. Soit u
un vecteur de E le projeté orthogonal de u sur F est
p
∑ ( u | ei ) ei .
i =1
p
Démonstration : On voit pour commencer que v = ∑ (u, ei )ei appartient à F. Il reste à montrer que u − v est
i =1
dans F ⊥ c’est-à-dire qu’il doit être orthogonal à tous les vecteurs de F (il suffit de vérifier qu’il est orthogonal
aux vecteurs de la base de F). Pour tout k ∈ [[ 1 ; p ]] ,
!
p
(u − v, ek ) = u − ∑ (u, ei )ei , ek = (u, ek ) − (u, ek ) = 0.
i =1
458
Définition 31.3.4.1082
Remarque : Cela existe bien car {||u − v|| | v ∈ F } est une partie non vide de R+ qui est donc minorée (par 0).
Proposition 31.3.4.1083
Démonstration : Soit v ∈ F on a
||u − v||2 = ||(u − p(u)) + ( p(u) − v)||2
= ||u − p(u)||2 + || p(u) − v||2 d’après le théorème de Pythagore car u − p(u) ⊥ p(u) − v
> ||u − p(u)||2
Z 1
Exemple : Calculons d( X 3 , R1 [ X ]) dans R3 [ X ] muni du produit scalaire ( P, Q) = P(t) Q(t) dt.
0
On cherche p( X 3 ) le projeté orthogonal de X 3 sur R1 [ X ].
— Première méthode : On cherche aX + b tel que X 3 − aX − b ∈ R1 [ X ]⊥ . On a donc le système
1 − a −b = 0
( X 3 − aX − b, 1) = 0 4 2
⇐⇒ ⇐⇒ a = 9/10 et b = −1/5.
( X 3 − aX − b, X ) = 0 1−a−b = 0
5 3 2
9 1
On trouve donc X 3 − P( X 3 ) = X 3 − X + et d( X 3 , R1 [ X ]) = ...
10 5
√
— Deuxième méthode : On cherche une base orthonormé de R1 [ X ]. On pose e0 = 1 et e2 = 3(2X − 1)
que l’on obtient par le procédé de Gram-Schmidt.
9 1
On en déduit que X 3 − p( X 3 ) = X 3 − ( X 3 , e1 )e1 − ( X 3 , e0 )e0 = X 3 − X + .
10 5
3.5 Hyperplans
Dans ce paragraphe, E désigne un espace euclidien de dimension n (on le supposera la plupart du temps
orienté). On rappelle qu’un hyperplan (vectoriel) H est un sous-espace vectoriel de dimension n − 1. De même
un hyperplan affine H est la donnée d’un élément Ω de E (vu comme un point) et d’un hyperplan vectoriel H
(la direction) et on a
−−→
H = {Ω + h | h ∈ H } = { M ∈ E | ΩM ∈ H }
Cela généralise ce que l’on sait faire avec les droites de R2 et les plans de R3 .
Définition 31.3.5.1084
Soit H un hyperplan affine de direction H, on appelle vecteur normal tout vecteur non nul de H ⊥ .
Remarque : Par définition, dim( H ) = n − 1 donc dim( H ⊥ ) = 1. Un vecteur normal est donc une base de H ⊥
et tous les vecteurs normaux sont colinéaires entre eux.
Exemples :
1. Dans E = R2 on considère D = {( x, y) ∈ R2 | x + 2y = 2}. C’est un hyperplan affine (ici une droite). La
direction H = {( x, y) ∈ R2 | x + 2y = 0} = Vect(2, −1). Un vecteur normal est donc n = (1, 2).
459
2. Dans E = R3 , on considère P = {( x, y, z) ∈ R3 | x + 2y − z = 1}. C’est un hyperplan affine, ici un plan.
La direction H = {( x, y, z) ∈ R3 | x + 2y − z = 0} = Vect(u, v) où u = (1, 0, 1) et v = (−2, 1, 0). Pour se
donner un vecteur normal, n, il faut trouver un vecteur orthogonal à u et à v. On peut le faire avec un
système ou utiliser le produit vectoriel vu en physique :
Proposition 31.3.5.1085
Soit H un hyperplan affine. Le choix d’un vecteur normal n définit une orientation de la direction H
en disant qu’une base (e1 , . . . , en−1 ) de H est directe si et seulement si (e1 , . . . , en−1 , n) est une base
directe de E.
Exemples :
1. Cas de R2
2. Cas de R3 Faire des dessins
Proposition 31.3.5.1086
ϕ: E → R
−−→
M 7→ AM.n
ϕ( A + x −
→
n ) = x−
→
n .−
→
n = x ||−
→
n ||2 .
λ
Il suffit donc de poser x = −
→ . Maintenant que l’on a trouvé M0 appartenant à Fλ . Pour tout M ∈ E
|| n ||2
−−→ → −−→ − −−−→ → −−−→ →
ϕ( M ) = AM.− n = AM0 . → n + M0 M.− n = λ + M0 M.−n.
On en déduit que
−−−→ → −−−→
M ∈ Fλ ⇐⇒ M0 M.−
n = 0 ⇐⇒ M0 M ∈ H ⇐⇒ M ∈ M0 + H.
Remarque : Réciproquement, tout hyperplan plan affine est une ligne de niveau de ce genre. Il suffit de prendre
pour −
→
n un vecteur normal à H et pour λ la valeur de ϕ( B) où B est un point de H .
Corollaire 31.3.5.1087
On considère un repère orthonormé (Ω, B ). Soit H un hyperplan affine, il existe des scalaires
λ1 , . . . , λn , µ tels que pour tout point M de coordonnées ( x1 , . . . , xn ),
M ∈ H ⇐⇒ λ1 x1 + · · · + λn xn = µ
Exemples :
460
1. Cas de R2
2. Cas de R3
Proposition 31.3.5.1088
−−→
Démonstration : On sait que d( M, H ) = || HM || où H est le projeté orthogonal de M sur H . On a alors
−−→ → −→ → −−→ − −−→
| AM.−
n | = | AH.−
n + HM. →
n | = || HM ||.||−
→
n ||
Exemples :
1. Cas de R2
2. Cas de R3
Exercice : Déterminer l’équation des bissectrices des droites D1 : 2x + y = 3 et D2 : 3x − y = 1.
4 Endomorphismes orthogonaux
Dans ce paragraphe, E désigne un espace euclidien.
Proposition 31.4.1.1090
Démonstration : Comme E est de dimension finie, il suffit de montrer qu’il est injectif. Or si f (u) = 0 alors
|| f (u)|| = 0 ce qui implique que ||u|| = 0 puis u = 0.
Théorème 31.4.1.1091
Démonstration :
461
1. On montre d’abord que f préserve la norme. En effet, pour tout vecteur u,
Définition 31.4.1.1092
On appelle symétrie orthogonale par rapport à F la symétrie par rapport à F et parallèlement à F ⊥ . Si F est un
hyperplan on dit que c’est une réflexion.
Exemple : Les symétries orthogonales sont des endomorphismes orthogonaux. En effet soit s la symétrie
orthogonale par rapport à un sous-espace vectoriel F. Soit u un vecteur de E, il se décompose uniquement sous
la forme u = α + β avec α ∈ F et β ∈ F ⊥ . On a alors s(u) = α − β et
Proposition 31.4.1.1093
Démonstration :
— i.) ⇒ ii.) On suppose que f est orthogonal. Soit (e1 , . . . , en ) une base orthonormale. Alors pour tout
(i, j) ∈ [[ 1 ; n ]]2
( f (ei ), f (e j )) = (ei , e j ) = δij .
Donc ( f (ei )) est bien une base orthonormale.
— ii.) ⇒ iii.) Evident.
— iii.) ⇒ i.) Soit (ei ) une base orthonormale dont l’image ( f (ei )) est encore orthonormale. Soit u = ∑ x i ei
i
un vecteur de E on a f (u) = ∑ xi f (ei ). Or, comme ( f (ei )) est une base orthonormale,
i
462
Proposition 31.4.1.1094
L’ensemble des endomorphismes orthogonaux est un groupe pour la composition que l’on ap-
pelle groupe orthogonal et qui se note O( E). Cela signifie que si f et g sont des endomorphismes
orthogonaux alors f −1 et f ◦ g aussi.
Démonstration : Il suffit de voir que c’est un sous-groupe de GL( E) car tous les endomorphismes orthogonaux
sont des automorphismes. Pour cela il faut montrer que si f et g sont orthogonaux alors f −1 et f ◦ g aussi. En
effet soit u dans E, on sait que pour v = f −1 (u) on a
Proposition 31.4.1.1095
Démonstration : Soit u ∈ F ⊥ . On veut montrer que f (u) ∈ F ⊥ c’est-à-dire que pour tout vecteur v de F alors
( f (u), v) = 0. Commençons par remarquer que, comme f est un automorphisme, f ( F ) = F car le premier est
inclus dans le deuxième et ils ont la même dimension. De ce fait si v appartient à F il existe v0 dans F tel que
v = f (v0 ). On a alors
( f (u), v) = ( f (u), f (v0 )) = (u, v0 ) = 0.
Définition 31.4.2.1096
Remarques :
1. Pour la condition i.) il suffit de vérifier que MtM = In ou que tMM = In .
2. Dans les conditions ii.) et iii.) on a identifié les colonnes ou les lignes de la matrice à Rn avec son produit
scalaire usuel.
463
Démonstration : Si on note M = ( aij ), Ci les colonnes de M et que l’on note (bij ) les coefficients de tMM. On a
n
∀(i, j) ∈ [[ 1 ; n ]]2 , bij = tCi Cj = ∑ aki akj = (Ci , Cj ).
k =1
Définition 31.4.2.1097
Un matrice vérifiant les conditions ci-dessus s’appelle une matrice orthogonale. On note O(n) ou On (R)
l’ensemble des matrices orthogonales de Mn (K).
Théorème 31.4.2.1098
f ∈ O( E) ⇐⇒ MatB ( f ) ∈ O(n).
Corollaire 31.4.2.1099
On a que O(n) est un sous-groupe de GLn (R) et pour toute base orthonormale,
O( E) → O(n)
f 7→ MatB ( f )
Proposition 31.4.2.1100
464
Définition 31.4.2.1101
On appelle groupe spécial orthogonal (ou groupe des rotations) et on note SO(n) le sous-groupe de O(n)
constitué des matrices orthogonales de déterminant 1.
Remarque : On définit de même SO( E). Un élément de SO( E) est un automorphisme orthogonal direct (ou
une rotation) alors q’un élément de O( E) qui n’est pas dans SO( E) est un automorphisme orthogonal indirect.
Proposition 31.4.2.1102
Soit B une base orthonormée et B 0 une autre base. La base B 0 est orthonormée si et seulement si la
matrice de passage de B à B 0 est orthogonale.
Théorème 31.4.3.1103
Soit M une matrice de O(2). Il existe θ dans R tel que M = R(θ ) ou M = S(θ ).
a b
Démonstration : On note M = . Comme M est orthogonale, on a a2 + c2 = 1 (car « la colonne est
c d
normée ») et de ce fait il existe θ tel que a = cos θ et c = sin θ. De même, il existe ϕ tel que b = cos ϕ et d = sin ϕ.
Maintenant, en utilisant les deux colonnes sont orthogonales on obtient :
Corollaire 31.4.3.1104
465
Proposition 31.4.3.1105
Soit f un endomorphisme de SO( E). Il existe un unique réel θ à 2π-près tel que dans toute base
orthonormée directe sa matrice soit R(θ ).
Démonstration : On sait que la matrice de f dans une base orthonormée directe B appartient à SO(2). Elle est
donc de la forme R(θ ). Maintenant si B 0 est une autre base orthonormée directe alors la matrice de passage P
de B à B 0 est aussi un élément de SO(2). Comme SO(2) est abélien,
Définition 31.4.3.1106
Avec les notations précédentes, on dit que f est une rotation d’angle θ ou que θ est une mesure de f .
Proposition 31.4.3.1107
Soit u et v deux vecteurs unitaires. Il existe une unique rotation r telle que r (u) = v.
Démonstration : Il suffit de travailler dans la base (u, u0 ) où u0 est choisit tel que cette base soit orthonormée
directe (il en existe un unique). Dès lors, dans cette base, comme v est un vecteur unitaire, il existe un unique θ à
2π-près tel que v = (cos θ )u + (sin θ )u0 . Dans cette base, un endomorphisme vérifiant f (u) = v s’écrit donc
cos θ ∗
.
sin θ ∗
La proposition en découle.
Définition 31.4.3.1108
Si u et v sont deux vecteurs non nuls. On appelle mesure de l’angle orienté (u,ˆ v) une mesure θ de l’unique
rotation r telle que
r (u/||u||) = v/||v||.
On note (u,ˆ v) = θ [2π ].
Proposition 31.4.3.1109
2. Si u et v sont deux vecteurs non nuls et θ est une mesure de (u,ˆ v) alors
Démonstration :
1. On peut supposer que les trois vecteurs sont unitaires. Ensuite si on note r1 et r2 les rotations telles que
r1 (u) = v et r2 (v) = w. On a (r2 ◦ r1 )(u) = w. Or si θ1 est une mesure de r1 et θ2 une mesure de r2 alors
θ1 + θ2 est une mesure de r2 ◦ r1 .
466
0
Dans la base (u, u) utilisée
2. Là encore, on peut, par linéarité se ramener au cas où u et v sont unitaires.
1 cos θ
précédemment qui est orthonormée directe, les coordonnées de u sont et celles de v sont .
0 sin θ
Il suffit alors de faire le calcul.
Exemple : Tout ceci s’applique au cas E = R2 mais aussi à tout plan euclidien. Par exemple, si on se donne
Z 1
E = R1 [ X ] avec ( P, Q) = P(t) Q(t) dt. Il faut de plus orienté E en choisissant une base orthonormée
0
√On voit que u =√1 est unitaire.
directe. √ De plus ũ = X − 1/2 est orthogonal à u. On prend la base (u, u0 ) où
0
u = 2 3( X − 1/2) = 2 3X − 3.
On peut alors chercher l’angle (1,ˆX ). On a vu u = 1 est unitaire. Par contre si v1 = X a ||v1 ||2 = 1/3.
on√
√ 3/2
On pose donc v = 3X qui est unitaire. Maintenant les coordonnées de v dans (u, u0 ) sont . On en
1/2
déduit que l’angle cherché vaut π/6.
Proposition 31.4.3.1110
Démonstration : On choisit une base orthogonale. On voit que la matrice de f est de la forme S(θ ). On en
déduit par le calcul que f 2 = Id car S(θ )2 = I2 .
Donc f est une symétrie orthogonale. On regarde le noyau de f − Id. Comme f n’est pas Id ni -Id (qui sont
des rotations) on en déduit que le noyau de f − Id est de dimension 1. C’est bien une réflexion.
Remarque : En reprenant les notations ci-dessus. On se place dans une base orthonormée directe (i,j) et on
note S(θ ) sa matrice. Si on cherche une équation de Ker ( f − Id) il suffit de résoudre :
((cos θ ) − 1) x + (sin θ )y = 0 sin(θ/2) (− sin(θ/2) x + cos(θ/2)y) = 0
⇐⇒
(sin θ ) x + (−(cos θ ) − 1)y = 0 cos(θ/2) (sin(θ/2) x − cos(θ/2)y) = 0
θ θ
Le vecteur u = cos i + sin j est une solution. On en déduit que f est une symétrie par rapport à Vect(u).
2 2
Proposition 31.4.3.1111
Soit deux vecteurs non nuls u et v et r, s les réflexions par rapport Vect(u) et Vect(v). La composée
s ◦ r est une rotation d’angle 2(u,ˆ v).
Démonstration : Il est clair que la composée de deux réflexions est une rotation. Pour déterminer l’angle de
cette rotation il suffit de calculer l’image d’un vecteur. Calculons (s ◦ r )(u).
D’abord on peut supposer que u et v sont unitaires. On a de plus r (u) = u. Il suffit donc de calculer s(u).
Maintenant, considérons les bases orthonormées directes B = (u, u0 ) et B 0 = (v, v0 ). On sait que la matrice de s
dans B 0 est S(0). On note θ une mesure de (u,ˆ v). De plus la matrice de passage de B à B 0 est R(θ ). Celle de B 0 à
B est donc R(−θ ) On en déduit que la matrice de s dans B est R(−θ )−1 S(0) R(−θ ) = R(θ )S(0) R(−θ ) = S(2θ ).
Les coordonnées de l’image de u dans (u, u0 ) sont donc (cos(2θ ), sin(2θ )). On en déduit bien que s ◦ r est
rotation d’angle 2θ.
Remarque : On peut faire les calculs dans O(2) en identifiant un vecteur ( x, y) avec le nombre complexe x + iy.
La matrice R(θ ) correspond alors à la multiplication par eiθ . La matrice S(θ ) à z 7→ eiθ z.
Corollaire 31.4.3.1112
467
4.4 Automorphismes orthogonaux de l’espace
Dans ce paragraphe E désigne un espace euclidien orienté de dimension 3. Là encore on va essayer de
classifier tous les éléments de SO( E) et de O( E) et donc de SO(3) et de O(3).
Commençons par une proposition sur les orientations.
Proposition 31.4.4.1113
Soit w un vecteur unitaire de E. Il existe une unique orientation du plan H = Vect(w)⊥ tel que pour
toute base orthonormée directe (u, v) de H, la base (u, v, w) soit directe dans E.
Remarques :
1. On dit alors que H est orienté par le vecteur w. On peut d’ailleurs procéder dans l’autre sens. Si on se
donne un plan H, pour l’orienter, il suffit de choisir un des deux vecteur unitaires de H ⊥ .
2. Dans la pratique si w est un vecteur unitaire, pour construire une base orthonormée directe, on prend un
vecteur u dans H. On sait alors que uVectw est aussi dans H et orthogonal à u. D’où (u, w, u ∧ w) est une
BOND. On note plutôt (u, −(u ∧ w), w) = (u, w ∧ u, w).
Théorème 31.4.4.1114
Soit f ∈ SO( E). Il existe une base orthonormée directe B = (u, v, w) telle que
cos θ − sin θ 0
MatB ( f ) = sin θ cos θ 0
0 0 1
où θ est un réel.
Lemme 31.4.4.1115
Soit f dans SO( E) tel que f 6= Id. Le sous-espace vectoriel F = Ker ( f − Id) est une droite vectorielle.
En particulier, en développant avec la règle de Sarrus on voit que χ est un polynôme de degré 3 dont le degré
dominant est −λ3 . De plus, comme χ(0) = Det f = 1
On en déduit qu’il existe λ0 > 0 tel que χ(λ0 ) = 0. Cela revient à dire que f − λ0 Id n’est pas injectif donc il
existe u0 6= 0 tel que ( f − λ0 Id)(u0 ) = 0 ⇐⇒ f (u0 ) = λ0 u0 .
Cependant, comme f est un automorphisme orthogonal, || f (u0 )|| = |λ0 |||u0 || = ||u0 || d’où |λ0 | = 1 et donc
λ0 = 1.
On a bien montré que F n’était pas réduit à {0}. Montrons maintenant que dim F = 1. On voit déjà que
dim F = 3 est impossible car f 6= Id. De plus si dim F = 2 alors f est la réflexion par rapport à F (il suffit de
voir que F ⊥ est stable mais pas invariante).
Démonstration du théorème : Soit w un vecteur unitaire qui engendre F = Ker f − Id. On a vu f laissait
stable H = F ⊥ . Par le même raisonnement que ci-dessus, on voit que f H est alors un élément de SO( H ). C’est
donc une rotation.
468
Définition 31.4.4.1116
Soit w une vecteur non nul de E et θ un réel. On appelle rotation d’axe autour de w et d’angle θ, l’auto-
morphisme orthogonal laissant stable F = Vect(w) et tel que f H soit la rotation d’angle θ où H = F ⊥ . Si
B = (u, v, w0 ) est une base orthonormée directe avec w0 = w/||w||, la matrice de f dans la base B est
cos θ − sin θ 0
MatB ( f ) = sin θ cos θ 0
0 0 1
Remarques :
−1 0 0
1. La droite vectorielle F s’appelle l’axe de f . Remarque : Si l’angle vaut π et donc la matrice est 0 −1 0 ,
0 0 1
on dit que c’est un demi-tour.
2. Il faut faire attention que si on change w en −w la rotation change car le plan H est alors orienté dans
l’autre sens.
3. La plupart du temps on prendra w unitaire.
4. On voit donc que dans les automorphismes orthogonaux de l’espace il y a les rotations (qui sont les
éléments de SO( E)). Il y a aussi les réflexions. Mais, contrairement au cas du plan, il y en a d’autre. Par
exemple l’application u = −IdE est un élément de O( E) mais pas de SO( E) car det(u) = (−1)3 = −1.
Mais ce n’est pas une réflexion
car aucun vecteur n’est invariant. De fait, c’est
la composée du demi-tour
−1 0 0 1 0 0
de matrice 0 −1 0 et de la réflexion de matrice = 0 1 0 .
0 0 1 0 0 −1
Proposition 31.4.4.1117
Soit w un vecteur unitaire, θ un réel et f la rotation d’angle θ autour de w. Pour tout vecteur u
orthogonal à w, on a
f (u) = (cos θ )u + (sin θ )(w ∧ u).
Démonstration : Il suffit de voir que, comme (u, w, u ∧ w) est une base orthonormée directe alors (u, w ∧ u, w)
De ce fait, la matrice de f dans cette base est
cos θ − sin θ 0
MatB ( f ) = sin θ cos θ 0
0 0 1
Le résultat en découle en regardant la première colonne.
Exemples :
1. Soit w le vecteur w = (1, 2, 0). On cherche la matrice dans la base canonique de R3 de la rotation autour
de w et d’angle θ. Pour tout vecteur u = ( x, y, z) on peut le décomposer comme somme d’un vecteur
colinéaire à w et d’un vecteur qui lui est orthogonal (car F et F ⊥ sont en somme directe si F = Vect(w)).
On a
x + 2y 1
u= w + (4x − 2y, −2x − 3y, 5z).
5 5
1 1
Maintenant w ∧ (4x − 2y, −2x − 3y, 5z) = (10z, −5z, −10x + y). On a donc
5 5
x + 2y cos θ sin θ
f (u) = (1, 2, 0) + (4x − 2y, −2x − 3y, 5z) + (10z, −5z, −10x + y).
5 5 5
On peut alors en déduire la matrice ...
8 1 4
1
2. A l’inverse soit M = −4 4 −7 . On vérifie que M est bien un matrice orthogonale et que son
9
1 8 4
déterminant vaut 1. L’endomorphisme f canoniquement associé est donc une rotation de R3 .
469
Pour déterminer l’axe il suffit de chercher les invariant c’est-à-dire le noyau de f − Id. On trouve w =
1
√ (3, −1, −1) en le prenant normé.
11
1
Maintenant on prend un vecteur orthogonal à w et normé. On prend u = √ (1, 3, 0). On a
10
√
7 5 11
cos θ = (u, f (u)) = et sin θ = ( f (u), w ∧ u) = Det(w, u, f (u)) = .
18 18
tr ( f ) − 1 7
On peut aussi remarquer que tr ( f ) = 1 + 2 cos θ. On retrouve bien cos θ = = .
2 18
Proposition 31.4.4.1118
Remarque : Dans l’espace on ne peut pas parler de l’angle orienté de deux vecteurs car cela dépend « de
quel coté on regarde ». Cependant on peut définir un angle géométrique. Soit u et v deux vecteurs de E. On
sait d’après l’inégalité de Cauchy-Schwarz que |(u|v)| 6 ||u||||v|| donc il existe un unique θ ∈ [0, π ] tel que
(u|v) = ||u||||v|| cos θ. A partir de là, on peut voir que
Il suffit en effet de faire les calculs dans une BOND où u = ( a, 0, 0) et v = (b, c, 0). On en déduit que
Maintenant si on se donne trois vecteurs u, v et w et que l’on considère le parallélépipède porté par ces trois
−→ −→ −→
vecteurs. On notera u = AB, v = AC et w = AD. On sait que le volume est (base)× hauteur.
−→ −→
Or l’aire de la base est AB × AC × sin( AB, AC ) = ||u ∧ v||. De plus le vecteur u ∧ v est colinéaire au vecteur
−→ →
normal du plan (ABC). On en déduit que si − →n est un vecteur normal à (ABC), la hauteur vaut | AD.− n |. On en
déduit que le volume est
|(u ∧ v).w| = det(u, v, w).
470
Fonctions de deux
32
variables - Bonus
Ceci est un bonus, ce qui est ici n’est pas au programme de MPSI - c’est essentiellement
une mise en jambe pour la deuxième année
2
p Dans ce chapitre R est muni de la structure euclidienne usuelle. Pour u = ( x, y) on note donc ||u|| =
x + y . On notera (e1 , e2 ) la base canonique de R2 .
2 2
1 Généralités
1.1 Fonctions à deux variables
Définition 32.1.1.1119
Proposition 32.1.1.1120
Définition 32.1.1.1121
Soit f une fonction à deux variables définie sur A. Soit a = ( x0 , y0 ) un élément de A. On note
A x = {y ∈ R, ( x0 , y) ∈ A} et Ay = { x ∈ R, ( x, y0 ) ∈ A}.
f (•, y0 ) = f 1 : Ax → R f ( x0 , •) = f 2 : Ay → R
et
x 7→ f ( x, y0 ) y 7→ f ( x0 , y )
471
Remarques :
1. Il faut faire attention que même si a n’apparait pas dans les notations A x , Ay , f 1 et f 2 , ces notions en
dépendent.
2. Les applications f 1 et f 2 sont des applications à une variable.
Exemples :
1. Si on reprend f : ( x, y) 7→ ln( xy) définie sur A = (R?+ )2 ∪ (R?− )2 . Pour m = (2, 1) on a A x = Ay = R?+ et
f 1 : t 7→ ln t et f 2 : t 7→ ln(2t).
p
2. Si f : ( x, y) 7→ 1 − x2 − y2 . Elle est définie sur A = D (O, 1) = {( x, y) ∈ R2 , x2 + y2 6 1}. Pour
m = (1/3, 1/2) on a √ √ √ √
A x = [− 3/2, 3/2] et Ay = [−2 2/3, 2 2/3].
On a r r
( 3 8
f 1 : t 7→ , 1/2) = − t2 et f 2 : t 7→ − t2 .
t 4 9
Définition 32.1.2.1122
Soit a un élément de R2 et r un réel positif. On appelle boule ouverte (resp. boule fermée, resp. sphère) de centre
a et de rayon r et on note B( a, r ) (resp. B( a, r ) resp. S( a, r )) les ensembles
Remarque : La terminologie vient de l’espace euclidien R3 mais ces notions sont utiles pour tout espace
euclidien, en particulier dans notre cas.
Définition 32.1.2.1123
Soit A une partie de R2 . On dit que A est une partie ouverte de R2 (ou que A est un ouvert de R2 ) si pour
tout point a de A il existe un réel strictement positif a tel que B( a, r ) ⊂ A.
Remarques :
1. Cette notion est fondamentale. Elle consiste à dire que, si A est un ouvert on peut toujours se « dépla-
cer » autour de tout élément de A mais en restant dans A.
2. Le r de la définition va bien évidemment dépendre de a.
Exemples :
1. L’ensemble vide et R2 en entier sont des ouverts.
2. Une boule ouverte B( a, r ) est un ouvert. En effet soit u ∈ B( a, r ). Si on note p = ||u − a|| < r. Il existe
ε ∈ R?+ tel que p + ε < r. De ce fait B(u, ε) ⊂ B( a, r ) car, d’après l’inégalité triangulaire, pour tout élément
v de R2 ,
||v − a|| = ||(v − u) + (u − a)|| 6 ||v − u|| + ||u − a||.
3. A l’inverse une boule fermé n’est pas un ouvert. En effet, si on prend u tel que ||u − a|| = r alors pour
ε u−a
tout ε il existe des éléments de B(u, ε) qui ne soient pas dans B( a, r ) par exemple u + .
2 r
4. Le complémentaire d’une boule fermé est un ouvert.
Exercice : Montrer qu’une intersection ou une union de deux ouverts est encore un ouvert.
472
Définition 32.1.2.1124
Soit A une partie de R2 et a un élément de R2 . On dit que a est un point adhérent à A si pour tout ε > 0, les
ensembles A et B( a, ε) ne sont pas d’intersection vide.
On notera A l’ensemble des points adhérents à A.
Remarques :
1. De manière évidente, tous les points de A sont des points adhérents à A.
2. Cela va permettre de définir la limite d’une fonction définie sur A. Si on reprend le cas des fonctions à une
variable. Si f était définie sur I =] a, b[ on pouvait définir lim f car a est « juste à coté » de A. La notion de
a
point adhérent est l’analogue.
3. Avec les notations de la définition, le point a est adhérent à A si tout ouvert contenant a rencontre A.
Exemples :
1. Si A = R2 \ {(0, 0)} alors A = R2 .
2. Si A =] − 1, 1[×R alors A = R2 .
3. Si A = Q2 alors A = R2 .
2 Fonctions continues
2.1 Limites
Définition 32.2.1.1125
Soit f une fonction de deux variables définies sur une partie A et a ∈ A. Soit ` ∈ R. On dit que f tend vers `
en a ou que la limite de f en a est ` et on note lim f = ` si
a
Remarque : Cette définition est l’analogue de celle pour les fonctions à une variables en remplaçant ] a − η, a + η [
par B( a, η ).
Proposition 32.2.1.1126
lim f = ` ⇐⇒ lim( f − `) = 0.
a a
Remarque : Comme avec une variable, on se ramènera souvent à montrer qu’une limite est nulle ce qui peut
se faire avec des majorations.
Définition 32.2.1.1127
Soit f une fonction de deux variables définies sur une partie A et a ∈ A. On dit que f tend vers +∞ (resp.
−∞) en a ou que la limite de f en a est +∞ (resp. −∞) et on note lim f = +∞ (resp. lim f = −∞) si
a a
Exemples :
473
1. Soit f = ( x, y) 7→ x2 + y. Elle est définie sur R2 . Calculons sa limite en (3, 2). On voit que f (3, 2) = 11. Or
on remarque que si η > 0,
q
( x, y) ∈ B((3, 2), η ) ⇐⇒ ( x − 3)2 + (y − 2)2 < η.
En particulier | x − 3| 6 η et |y − 2| 6 η. Maintenant f ( x, y) − 11 = x2 − 32 + y − 2. Si on se donne ε > 0
on sait qu’il existe ηx et ηy tels que
∀ x ∈ R, | x − 3| < ηx ⇒ | x2 − 32 | < ε/2 et ∀y ∈ R, |y − 2| < ηy ⇒ |y − 2| < ε/2.
Il suffit alors de poser η = Min(ηx , ηy ).
x+y
2. Soit f la fonction définie sur R2 \ {(0, 0} par f : ( x, y) 7→ . Cette fonction n’a pas de limite en
x 2 + y2
(0, 0). En effet, pour tout ε < 1 dans la boule de centre (0, 0) et de rayon ε il y a u = (ε/2, ε/2) qui vérifie
2
f (u) = > 2. Mais, dans cette même boule, il y a aussi v = (ε/2, −ε/2) qui vérifie f (v) = 0.
ε
Proposition 32.2.1.1128
Démonstration : Traitons le cas ` ∈ R. Pour tout ε > 0 il existe η > 0 tel que
∀u ∈ A, ||u − a|| < η ⇒ | f (u) − `| < ε.
p
Maintenant soit x tel que | x − x0 | < η on pose u = ( x, y0 ) et ||u − a|| = ( x − x0 )2 + (y0 − y0 )2 = | x − x0 |. De
ce fait, | f (u) − `| < ε. Comme f (u) = f ( x, y0 ) = f 1 ( x ) on a la propriété voulue. On peut faire de même pour f 2 .
Remarque : Les fonctions partielles peuvent ne pas exister. Par exemple si f : ( x, y) 7→ ln( x2 − y2 ). Elle est
définie sur A = {( x, y) ∈ R2 | | x | > |y|}. Il n’y a donc pas de deuxième application partielle en (0, 0).
B Ce n’est pas une équivalence. Par exemple si f : (x, y) 7→ x2 xy + y2
. On a que les deux applications partielles
1
en (0, 0) sont nulles. Cependant, on a pour tout x dans R? , f ( x, x ) = . De ce fait la limite de f en (0, 0) ne peut
2
pas être nulle.
Proposition 32.2.1.1129
Soit f une fonction définie sur A. Soit a ∈ A. On suppose que f a une limite finie en a. La fonction f
est bornée au voisinage de a ce qui signifie qu’il existe ε > 0 et M ∈ R tels que
∀u ∈ A ∩ B( a, ε), | f (u) 6 M.
2.2 Continuité
Définition 32.2.2.1130
474
Exemple : La fonction f : ( x, y) 7→ x2 + y est continue sur R2 .
Remarque : Les théorèmes sur les opérations (somme, produit) sont encore vrais et se démontrent comme
précédemment.
Proposition 32.2.2.1131
L’ensemble C ( A, R) est un sous-espace vectoriel de F ( A, R). Il est de plus stable par produit c’est
donc une sous-algèbre.
Remarque : On a aussi des propriétés sur le quotient. Si f et g sont continues et si g ne s’annule pas alors f /g
est continue.
Exemple : Les fonctions p1 : ( x, y) 7→ x et p2 : ( x, y) 7→ y sont continues. En effet soit a = (α, β). On va montrer
que lim p1 = α en montrant que lim p1 − α = 0. Pour tout ε > 0, on pose η = ε. Dès lors soit u = ( x, y), si
a a
u ∈ B( a, ε) alors ||u − a|| < ε et on a
q
| p1 ( u ) − α | = | x − α | 6 ( x − α)2 + (y − β)2 = ||u − a|| < ε.
On procède de même pour p2 . On en déduit que tous les polynômes sont continus.
Définition 32.2.3.1132
Soit f une fonction de deux variables définies sur une partie A et à valeurs dans R2 .
1. Soit a ∈ A et ` ∈ R2 . On dit que f tend vers ` en a ou que la limite de f en a est ` et on note lim f = `
a
si
∀ε > 0, ∃η > 0, ∀u ∈ A, u ∈ B( a, η ) ⇒ || f (u) − `|| < ε.
2. Si f est définie en a et que f a une limite en a (nécessairement égale à f ( a)) alors on dit que f est
continue en a.
3. Si f est continue en tout point a de A on dit que f est continue. On note C ( A, R2 ) l’ensemble des
fonctions continues.
Proposition 32.2.3.1133
Soit f une fonction définie sur A et à valeurs dans R2 . Pour tout u de A on note f (u) = (α(u), β(u)).
On a alors
1. Soit a ∈ A. La fonction f est continue en a si et seulement si α et β le sont
2. On a
f ∈ C ( A, R2 ) ⇐⇒ (α ∈ C ( A, R) et β ∈ C ( A, R)).
Remarque : Cela signifie que l’on peut justifier la continuité en regardant composantes par composantes.
B Dans le cas d’une fonction de R2 dans R2 , il ne faut pas confondre les applications partielles qui sont
définie d’une partie de R dans R2 avec les applications composantes qui sont définies d’une partie de R2 dans
R.
Démonstration : On traite la première.
— ⇒ Il suffit de voir que pour tout u dans A,
q
|| f (u) − f ( a)|| = (α(u) − α( a))2 + ( β(u) − β( a))2 .
D’où |α(u) − α( a)| 6 || f (u) − f ( a)|| et | β(u) − β( a)| 6 || f (u) − f ( a)||. Si f est continue en a alors
|| f (u) − f ( a)|| tend vers 0 et |α(u) − α( a)| et | β(u) − β( a)| aussi donc α et β sont continues en a.
475
— ⇐ Il suffit de voir là encore que pour tout u dans A,
q
|| f (u) − f ( a)|| = (α(u) − α( a))2 + ( β(u) − β( a))2 .
Donc si |α(u) − α( a)| et | β(u) − β( a)| tendent vers 0 alors || f (u) − f ( a)|| aussi.
Exemple : La fonction ( x, y) 7→ (2x + 2y, xy − x2 ) est continue.
Corollaire 32.2.3.1134
2.4 Composition
On va montrer que la composée de deux fonctions continues est continues
Théorème 32.2.4.1135
Soit ( p, q, r ) trois entiers égaux à 1 ou 2. Soit A une partie de R p et f ∈ C ( A, Rq ). Soit B une partie
de R p et g ∈ C ( B, Rr ). On suppose que f ( A) ⊂ B afin de définir g ◦ f . Alors la fonction g ◦ f est
continue de A dans Rr .
Démonstration : Afin de traiter tous les cas nous noterons encore ||.|| pour |.|
Soit ε > 0. On sait que g est continue en f ( a) donc pour cet ε il existe η1 tel que
On en déduit donc en posant u = f (v) que si v est dans B( a, η2 ) alors || g( f (v)) − g( f ( a))|| < ε.
C’est-à-dire que g ◦ f est continue en a par définition.
Exemples :
1. La fonction f : ( x, y) 7→ sin( x + y) − cos( x2 + y2 ) est continue.
2. La fonction g : (u, t) 7→ (cos(ut), sin(ut)) est continue.
3 Calcul différentiel
Dans tout ce paragraphe on notera U un ouvert de R2 et on ne considérera que des fonctions définies sur U
et à valeurs dans R. C’est-à-dire des éléments de F (U, R).
476
3.1 Première dérivées partielles
Définition 32.3.1.1136
∂f f (α + h, β) − f (α, β)
( a) = D1 f ( a) = f x0 ( a) = lim .
∂x h →0 h
∂f f (α, β + h) − f (α, β)
( a) = D2 f ( a) = f y0 ( a) = lim .
∂y h →0 h
Remarques :
1. On peut bien donner un sens à la dérivabilité de f 1 (resp. f 2 ) car U est un ouvert et donc f 1 (resp. f 2 ) est
définie sur un intervalle contenant ]α − ε, α + ε[ (resp. ] β − ε, β + ε[).
2. On dit dans ce cas que f admet des dérivées partielles en a et pas que f est dérivable.
3. Pour déterminer si f admet des dérivées partielles et les calculer il faut regarder les fonctions partielles.
Cela revient à considérer l’une des deux variables comme une variable et l’autre comme une constante.
Exemples :
1. Soit f : ( x, y) 7→ ln( xy) sur (R?+ )2 . Elle admet des dérivées partielles et
∂f 1 ∂f 1
(α, β) = et (α, β) = .
∂x α ∂y β
∂g y ∂g 1
(α, β) = − 2 f 0 (y/x ) et (α, β) = f 0 (y/x ).
∂x x ∂y x
La fonction f admet des dérivées partielles qui sont nulles en 0 car les applications partielles sont nulles.
1
Par contre elle n’est pas continue. En effet, pour tout x, f ( x, x ) = d’où lim f n’existe pas.
2 (0,0)
B Comme on vient de le voir, l’existence des dérivées partielles en un point n’implique pas que la fonction
soit dérivable. Cela provient du fait que les dérivées partielles ne s’intéressent qu’à une direction privilégiée.
Définition 32.3.1.1137
Avec les notations précédentes, si f admet des dérivées partielles par rapport à x (resp. à y) en tout point a de
∂f ∂f ∂f ∂f
U on note (resp. ) la fonction définie de U dans R qui associe à a, ( a)(resp. ( a)).
∂x ∂y ∂x ∂y
On voit que dans la définition des dérivées partielles on a privilégié les « axes coordonnées ». On peut de
fait essayer de calculer la dérivée selon toutes les directions.
477
Définition 32.3.1.1138
Soit f dans F (u, R) et v un vecteur non nul. Pour a dans U on pose ϕv : t 7→ f ( a + tv) qui est définie sur
un voisinage de 0. On dit que f admet une dérivée partielle selon v en a si ϕv est dérivable en 0 et on note
f ( a + hv) − f ( a)
Dv f ( a) = ϕ0v (0) = lim .
h →0 h
Remarques :
∂f
1. On trouve aussi la notation ( a) pour Dv f ( a).
∂v
∂f ∂f
2. Les dérivées partielles ( a) et ( a) sont juste De1 f ( a) et De2 f ( a) où (e1 , e2 ) sont les vecteurs de la bases
∂x ∂y
canoniques.
3. Soit λ un réel non nul. On suppose que Dv f ( a) existe alors D(λv) f ( a) existe aussi et vaut λ.Dv f ( a). En
effet,
f ( a + hλv) − f ( a) f ( a + hλv) − f ( a) f ( a + h0 v) − f ( a)
D(λv) f ( a) = lim = lim λ = λ lim λ = λDv f ( a).
h →0 h h →0 λ.h h 0 →0 h0
Exemples :
1. Soit f : ( x, y) 7→ ln( xy) sur (R?+ )2 . Soit v = (1, 2). On a alors en a = (α, β),
ϕ a : t 7→ ln((α + t)( β + 2t)) = ln(αβ + tβ + 2tα + 2t2 ).
D’où
2α + β 1 1
Dv f ( a) = ϕ0v (0) = = + .
αβ α β
On peut remarquer dans ce cas que
Dv f ( a) = De1 f ( a) + 2De2 f ( a) car v = e1 + 2e2 .
Nous reverrons ce point plus tard.
2. Soit f la fonction définie sur R2 par
2
x
si y 6= 0
( x, y) 7→ y
x si y = 0
Définition 32.3.2.1139
Soit f une fonction de F (U, R). On dit que f est de classe C 1 si elle admet des dérivées partielles en tout
∂f ∂f
point a de U et que les fonctions et sont continues sur U. On note C 1 (U, R) l’ensemble des fonctions
∂x ∂y
de classe C 1 .
478
Exemples :
1. Soit f : ( x, y) 7→ ln( xy). C’est une fonction de classe C 1 . En effet, les dérivées partielles existent et elles
sont continues.
2
x
si y 6= 0
2. Soit f : ( x, y) 7→ y Elle est de classe C 1 sur R × R? . Par contre elle n’est pas de classe C 1
x si y = 0
sur R2 . En effet,
∂f 2x si y 6= 0
: ( x, y) 7→ y
∂x
1 si y = 0
Elle n’est pas continue.
Proposition 32.3.2.1140
Démonstration : Il suffit de vérifier la stabilité ce qui découle de ce qui a déjà été fait.
Théorème 32.3.2.1141
Soit f une fonction de classe C 1 sur un ouvert U. Pour tout a = (α, β) ∈ U, il existe une fonction ε
qui tend vers 0 en a telle que
∂f ∂f
∀u = ( x, y) ∈ U, f (u) = f ( a) + ( x − α) ( a) + (y − β) ( a) + ||u − a||ε(u).
∂x ∂y
Remarques :
1. C’est un équivalent du théorème de Taylor-Young. A noter que l’hypothèses est que f est de classe C 1 et
pas juste dérivable comme dans le cas d’une variable.
2. On peut aussi écrire
∂f ∂f
∀ h = ( h1 , h2 ) , f ( a + h ) = f ( a ) + h1 ( a) + h2 ( a) + ||h||ε(h)
∂x ∂y
où lim ε(h) = 0.
h →0
3. Cela a une interprétation géométrique. Si on considère la surface S = {( x, y, z) ∈ R3 | ( x, y) ∈ U et z =
f ( x, y)}. On voit que le théorème permet de trouver l’équation du plan tangent. Son équation est
∂f ∂f
z = f ( a ) + h1
( a ) + h2 ( a ).
∂x ∂y
∂f ∂f
Dit autrement, les vecteurs 1, 0 ( a) et 0, 1 ( a) sont des vecteurs directeurs du plan tangent.
∂x ∂y
4. L’expression s’appelle développement limité de f à l’ordre 1 en a.
Démonstration : La fonction f étant définie sur un ouvert U. Il existe η1 tel que B( a, η1 ) ⊂ U. On peut donc
définir sur B(0, η1 ) \ {(0, 0)} la fonction
∂f ∂f
f ( a + h ) − f ( a ) − h1 ( a ) − h2 ( a )
∂x ∂y
ε : h 7→ .
||h||
Le but est de montrer que cela tend vers 0.
On écrit
∂f ∂f
f ( a 0 ) − f ( a ) − h1 ( a) f ( a + h ) − f ( a 0 ) − h2 ( a )
∂y
ε(h) = ∂x + où a0 = a + h1 e1 .
||h|| ||h||
479
∂f
Maintenant, f ( a0 ) − f ( a) − h1 ( a) = f 1 (α + h1 ) − f 1 (α) − f 10 (α), c’est donc, d’après la formule de Taylor-
∂x
∂f
f ( a 0 ) − f ( a ) − h1 ( a )
Young à l’ordre 1 négligeable devant h1 mais comme |h1 | 6 ||h|| on a bien que ∂x tend
||h||
vers 0.
On veut procéder de même pour l’autre mais il faut faire attention qu’il faut travailler avec la deuxième
∂f
f ( a + h ) − f ( a 0 ) − h2 ( a 0 )
∂y
application partielle en a0 et pas en a. On en déduit que tend vers 0. On peut alors
||h||
conclure en vérifiant que
∂f ∂f
h2 ( a 0 ) − h2 ( a )
∂y ∂y
||h||
∂f
tend vers 0 car est continue.
∂y
Corollaire 32.3.2.1142
Remarque : Cela permet de montrer qu’une fonction est continue mais ce n’est pas très utile car dans la
pratique, pour montrer que f est de classe C 1 il faut montrer que les deux dérivées partielles sont continues.
3.3 Composées
Nous allons voir comment on peut calculer les dérivées partielles d’une fonction composée.
Nous commençons par composer une fonction de R dans R2 avec une fonction de R2 dans R.
Proposition 32.3.3.1143
Soit f une fonction de classe C 1 définie sur un ouvert U. Soit ϕ une fonction dérivable d’un intervalle
I dans U. La fonction réelle F = f ◦ ϕ est dérivable et
∂f ∂f
∀t ∈ I, F 0 (t) = ( ϕ(t)) ϕ10 (t) + ( ϕ(t)) ϕ20 (t)
∂x ∂y
∂f ∂f
f (u) − f ( ϕ(t)) = ( ϕ(t))(u1 − ϕ1 (t)) + ( ϕ(t))(u2 − ϕ20 (t)) + ||u − ϕ(t)||ε(u).
∂x ∂y
Cela donne :
∂f ∂f 0
f ( ϕ(t + h)) − f ( ϕ(t)) ( ϕ(t))( ϕ1 (t + h) − ϕ1 (t)) ∂y ( ϕ(t))( ϕ2 (t + h) − ϕ2 (t)) || ϕ(t + h) − ϕ(t)||
= ∂x + + ε( ϕ(t + h)).
h h h h
∂f ∂f
Maintenant le premier terme tend vers ( ϕ(t)) ϕ10 (t) alors que le deuxième tend vers ( ϕ(t)) ϕ20 (t). Pour
∂x ∂y
|| ϕ(t + h) − ϕ(t)||
finir, le troisième tend vers 0 car est borné car cela tend vers || ϕ0 (t)|| et le terme en ε tend
h
vers 0 car ϕ est continue.
480
Remarque : On peut retenir cette formule en posant x (t) pour ϕ1 (t) et y(t) pour ϕ2 (t). On a alors
F : t 7→ f ( x (t), y(t))
et
dF ∂ f dx ∂ f dy
= + .
dt ∂x dt ∂y dt
Exemples :
1. On reprend f : ( x, y) 7→ ln( xy). On pose ϕ : t 7→ (λt, µt). Dans ce cas, F : t 7→ ln(λt × µt) = ln(λµt2 )
d’où
2
F 0 (t) = .
t
Par la formule,
1 1 2
F 0 (t) = .λ + .µ = .
λt µt t
∂f ∂f
F 0 (t) = − sin t (cos t, sin t) + cos t (cos t, sin t).
∂x ∂y
Corollaire 32.3.3.1144
Soit f une fonction de classe C 1 sur U et ϕ : ( a, b) 7→ ( x, y) une fonction d’un ouvert V de R2 dans
U. On suppose que les composantes ϕ1 et ϕ2 admettent des dérivées partielles. Si on note F = f ◦ ϕ.
Elle admet des dérivées partielles et pour tout u = ( a, b) ∈ V,
∂F ∂f ∂ϕ ∂f ∂ϕ
(u) = ( ϕ(u)) 1 (u) + ( ϕ(u)) 2 (u)
∂a ∂x ∂a ∂y ∂a
et
∂F ∂f ∂ϕ ∂f ∂ϕ
(u) = ( ϕ(u)) 1 (u) + ( ϕ(u)) 2 (u)
∂b ∂x ∂b ∂y ∂b
Remarques :
1. Il suffit d’appliquer ce qui précède aux applications partielles.
2. On utilise la notation suivante qui permet de bien retenir la formule. On pose ϕ( a, b) = ( x ( a, b), y( a, b)).
On alors :
∂F ∂ f ∂x ∂ f ∂y
= +
∂a ∂x ∂a ∂y ∂a
et
∂F ∂ f ∂x ∂ f ∂y
= + .
∂b ∂x ∂b ∂y ∂b
Exemple : Un cas classique est celui du changement de variables en polaires. Si on prend encore f de classe C 1
sur (R?+ )2 . On pose x = r cos θ et y = r sin θ pour (r, θ ) ∈ R?+ ×]0, π/2[. Ce qui revient à poser
∂F ∂f ∂f
= cos θ + sin θ
∂r ∂x ∂y
et
∂F ∂f ∂f
= −r sin θ + r cos θ
∂θ ∂x ∂y
En particulier, si f : ( x, y) 7→ ln( xy) on obtient
∂F 2 ∂F 1
= et = − tan θ + .
∂r r ∂θ tan θ
481
3.4 Différentielle et gradient
Proposition 32.3.4.1145
∂f ∂f
Dv f ( a ) = ( a ) v1 + ( a ) v2 .
∂x ∂y
d f a : v 7 → Dv f ( a )
∂f ∂f
Démonstration : Il suffit de voir que f ( a + tv) − f ( a) = tv1 ( a) + tv2 ( a) + |t|||v||ε(tv) d’où
∂x ∂x
f ( a + tv) − f ( a) ∂f ∂f
lim = v1 ( a ) + v2 ( a ).
t →0 t ∂x ∂x
Remarques :
1. C’est ce que nous avions remarquer plus tôt. Pour calculer les dérivées d’une fonction selon un vecteur on
calcule la plupart du temps sa différentielle.
2. On a donc Dv f ( a) = d f a (v). Ne pas se mélanger les pinceaux...
Exemple : Soit f : ( x, y) 7→ cos( x2 − y2 ). On veut calculer D(1,2) f (2, −1). On calcule les dérivées partielles :
∂f ∂f
( x, y) = −2x sin( x2 − y2 ) et ( x, y) = 2y sin( x2 − y2 )
∂x ∂x
D’où
D(1,2) f (2, −1) = 1 ∗ (−2 sin(−3)) + 2 ∗ (2 sin(−3)) = 2 sin(−3).
Proposition 32.3.4.1146
−−→
Soit f une fonction de classe C 1 sur U. Soit a ∈ U. Il existe un unique vecteur noté grad f ( a) tel que
−−→
∀v ∈ R2 , Dv f ( a) = d f a (v) = (grad f ( a), v).
Démonstration : C’est juste la proposition qui dit que dans un espace euclidien toutes les formes linéaires sont
de la forme v 7→ (b, v) pour un unique vecteur v.
Définition 32.3.4.1147
−−→
Avec les notations précédentes, le vecteur grad f ( a) s’appelle le gradient de f en a. Il se note aussi ∇ f ( a).
On a
−−→ ∂f ∂f
grad f ( a) = ( a), ( a) .
∂x ∂y
−−→ 1 1
Exemple : Si f :7→ ln( xy). On a grad f (α, β) = , .
α β
Interprétation géométrique : On considère une fonction f de classe C 1 . Pour tout λ dans R, on appelle ligne
de niveau la courbe
Eλ {( x, y) ∈ U | f ( x, y) = λ}.
482
On considère une courbe paramétrée Γ tracée dans Eλ . Si on note ϕ : t 7→ ϕ(t) = ( x (t), y(t)) la fonction
d’un intervalle I dans U un paramétrage de Γ. On a donc, pour tout t dans I, F (t) = f ◦ ϕ(t) = λ. Dès lors si on
dérive :
∂f ∂f −−→
0 = F 0 (t) = ( ϕ(t)) x 0 (t) + ( ϕ(t))y0 (t) = D f ϕ0 (t) ϕ(t) = (grad f ( ϕ(t))| ϕ0 (t)).
∂x ∂y
En particulier, on voit que le gradient est orthogonal à la tangente. On dit que le gradient dirige la ligne de plus
grande pente.
3.5 Extremums
On peut définir les extremums comme dans le cas des fonctions à une variables.
Définition 32.3.5.1148
Soit f une fonction définie sur une partie A de R2 et à valeurs dans R. Soit a ∈ A.
1. On dit que a est un maximum (resp. minimum) (global) si : ∀u ∈ A, f (u) 6 f ( a) (resp. f (u) > f ( a)).
Dans ce cas on dit que a est un extremum (global).
2. On dit que a est un maximum (resp. minimum) local si :
Proposition 32.3.5.1149
Soit f une fonction de classe C 1 définie sur un ouvert U. Soit a ∈ U. Si f est un extremum local alors
les dérivées partielles sont nulles en a.
Remarques :
1. Cela implique que la différentielle est nulle et que, de ce fait, les dérivées par rapport à tous les vecteurs
est nulle.
2. Comme dans le cas des fonctions définies sur R, il ne faut pas que a soit une borne. Cette hypothèse est
remplacée par le fait que U soit un ouvert.
3. Comme dans le cas des fonctions définies sur R, ce n’est pas une équivalence. Par exemple la fonction
f : ( x, y) 7→ x2 − y2 en (0, 0).
4. Pour déterminer des extremums, on cherche l’annulation des deux dérivées partielles, puis on regarde si
les solutions sont ou ne sont pas des extremums.
Démonstration : Il suffit de voir qu’un extremum est aussi un extremum des applications partielles.
Exemple : Soit f : ( x, y) 7→ x2 + y2 − 2x − 4y. On voit que
∂f ∂f
= 2x − 2 et = 2y − 4.
∂x ∂y
On étudie en a = (1, 2). On pose f (1 + h1 , 2 + h2 ) = −5 + h21 + h22 . On en déduit que a est un minimim global.
Exercice : Étudier les extremums de f : ( x, y) 7→ x3 + y2 − 6( x2 − y2 ).
483
3.6 Dérivées partielles d’ordre 2
Définition 32.3.6.1150
∂f
2. Si la fonction admet des dérivées partielles on note
∂y
∂2 f ∂ ∂f ∂2 f ∂ ∂f
= et 2 = .
∂x∂y ∂x ∂y ∂y ∂y ∂y
3. Si les quatre dérivées partielles existent et sont continues on dit que f est de classe C 2 .
Remarques :
1. On peut évidemment définir de même des fonctions de classe C 3 , etc mais il y a toujours plus de dérivées
partielles.
2. On note C 2 (U, R) l’ensemble des fonctions de classe C 2 .
3. L’ensemble C 2 (U, R) est un sous-espace vectoriel de F (U, R).
Exemples :
∂f 1
1. Si f : ( x, y) 7→ ln( xy). On a déjà vu que = on a donc
∂x x
∂2 f 1 ∂2 f
2
= − 2 et = 0.
∂x x ∂y∂x
∂f 1
De même = on a donc
∂y y
∂2 f 1 ∂2 f
2
= − 2 et = 0.
∂y y ∂x∂y
∂f
2. Si f : ( x, y) 7→ x3 + 2x2 y2 − 3y2 . On a que = 3x2 + 4xy2 on a donc
∂x
∂2 f 2 ∂2 f
= 6x + 4y et = 8xy.
∂x2 ∂y∂x
∂f
De même = 4x2 y − 6y on a donc
∂y
∂2 f ∂2 f
= 8xy et = 4x2 − 6.
∂y2 ∂x∂y
∂2 f ∂2 f
On remarque que dans les deux cas précédents, = .
∂x∂y ∂y∂x
∂2 f ∂2 f
= .
∂x∂y ∂y∂x
484
Démonstration : Ce théorème est admis. Un des démonstration consiste à montrer que
∂2 f f (α + h, β + h) − f (α, β + h) − f (α + h, β) + f (α, β) ∂2 f
= lim = .
∂x∂y h →0 h2 ∂y∂x
∂f
F Commençons par l’équation sur R2 : = 0. On cherche une fonction de classe C 1 sur R. Pour tout y ∈ R,
∂x
l’application partielle f 1 est constante car de dérivée nulle. On en déduit que pour tout y il existe ϕ(y) tel que
∀ x ∈ R, f ( x, y) = ϕ(y). De plus, ϕ est de classe C 1 car f l’est. Réciproquement toutes les fonctions de la forme
( x, y) 7→ ϕ(y)
F On pose maintenant
∂f ∂f
−5 = x. (E)
∂x ∂y
x2
On peut remarquer ( x, y) 7→ est une solution. Comme c’est une équation linéaire, on est ramené à
2
résoudre
∂f ∂f
−5 = 0. (H)
∂x ∂y
∂F ∂ f ∂x ∂ f ∂y
= +
∂v ∂x ∂v ∂y ∂v
∂f ∂f
= α +β .
∂x ∂y
∂F
On voit donc qu’en prenant α = 1 et β = −5, l’équation (H) se ramène à . On a donc qu’il existe une
∂v
fonction ϕ de classe C 1 telle que
2 2 5x + y
∀(u, v) ∈ R F (u, v) = ϕ(u) et donc ∀( x, y) ∈ R , f ( x, y) = ϕ .
6
485
Donc les solutions de E sont de la forme :
x2 5x + y
( x, y) 7→ +ϕ .
2 6
∂2 f 1 ∂2 f
− = 0. (E)
∂x2 c2 ∂t2
C’est en particulier l’équation qui est vérifiée par une corde vibrante. Par exemple si on considère une corde
de longueur `. On note f ( x, t) la hauteur du point de la corde à l’abscisse x et à l’instant t. La grandeur c qui est
homogène à une vitesse.
On pose le changement de variables u = x + ct et v = x − ct
On voit que
ψ: R2 → R2
( x, t) 7→ (u, v)
2 u+v u−v
est une bijection de R dans lui même. La bijection réciproque est ϕ : (u, v) 7→ ( x, y) = , . De
2 2c
plus elle est de classe C 1 car polynomiale. On pose encore F = f ◦ ϕ et donc f = F ◦ ψ.
On obtient alors
2
∂2 f ∂2 F ∂2 F ∂2 F ∂2 f 2 ∂ F ∂2 F ∂2 F
= + 2 + et = c − 2 + .
∂x2 ∂u2 ∂u∂v ∂v2 ∂t2 ∂u2 ∂u∂v ∂v2
∂2 F
On en déduit que si f est une solution alors F vérifie = 0.
∂u∂v
∂F
On en déduit qu’il existe h de classe C1 sur R telle que = h(v) puis F : (u, v) 7→ H (v) + G (u) où H est
∂v
une primitive de h.
Finalement,
f : ( x, y) 7→ H ( x − ct) + G ( x + ct).
Réciproquement les fonctions de ce type vérifient l’équation.
Après on peut essayer de déterminer H et G en fonction des conditions initiales. Si par exemple on suppose
que les deux extrémités de la corde ne bouge pas. On a
∀t ∈ R, f (0, t) = f (`, t) = 0.
On en déduit que pour tout t, H (−ct) = − G (ct). Donc f : ( x, t) 7→ H ( x − ct) − H (− x − ct). De plus H est
2`-périodique.
486