0% ont trouvé ce document utile (0 vote)
61 vues72 pages

Cours Maths MP

cours

Transféré par

divosopro
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
61 vues72 pages

Cours Maths MP

cours

Transféré par

divosopro
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Notes de cours de mathématiques de MP*

Dorian Lesbre
2017 – 2018

Table des matières


1 Dénombrabilité 4

2 Espace affine, barycentres, convexité 5


2.1 Espaces affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 Barycentre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3 Sous-espace affine . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Applications affines . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.5 Repères affines et barycentriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.6 Parties convexes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

3 Fonctions de la variable réelle 8


3.1 Théorèmes de continuité et dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . 8
3.2 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9

4 Fonctions convexes 10
4.1 Définition, propriétés élémentaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
4.2 Convexité et dérivabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

5 Intégration sur un intervalle quelconque 11


5.1 Intégrale sur [a, +∞[ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
5.2 Généralisation aux autres types d’intervalles . . . . . . . . . . . . . . . . . . . . . . . 12
5.3 Propriétés de l’intégrale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
5.4 Calcul d’intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
5.5 Intégration des relations de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . 14

6 Suites et séries numériques 14


6.1 Suites numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
6.2 Séries numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
6.3 Sommation des relations de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . 16
6.4 Étude de convergence de séries à terme général quelconque . . . . . . . . . . . . . . . 16

7 Topologie des espaces normés 17


7.1 Généralités . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
7.2 Suites d’éléments d’un espace vectoriel normé . . . . . . . . . . . . . . . . . . . . . . 18
7.3 Topologie d’un espace métrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
7.4 Comparaison de normes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1
Notes Cours Maths MP* Dorian Lesbre

8 Limites d’une application, continuité 21


8.1 Limites d’une application . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
8.2 Propriétés des limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
8.3 Continuité globale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

9 Connexité par arcs, compacité, dimension finie 24


9.1 Connexité par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
9.2 Compacité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
9.3 Dimension finie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

10 Espaces vectoriels et algèbres 26


10.1 Dualité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
10.2 Algèbres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
10.3 Substitution polynomiale, polynômes annulateurs . . . . . . . . . . . . . . . . . . . . 27

11 Réduction des endomorphismes 28


11.1 Quelques outils . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
11.2 Éléments propres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
11.3 Polynôme caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
11.4 Diagonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
11.5 Trigonalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

12 Espaces préhilbertiens réels et euclidiens 32


12.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
12.2 Projection orthogonale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
12.3 Endomorphismes d’un espace euclidien . . . . . . . . . . . . . . . . . . . . . . . . . . 34
12.4 Compléments (HP) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

13 Suites et séries de fonctions 36


13.1 Suites de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
13.2 Séries de fonctions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
13.3 Intégration, dérivation, primitivation d’une limite . . . . . . . . . . . . . . . . . . . . 38
13.4 Approximation des fonctions d’une variable réelle . . . . . . . . . . . . . . . . . . . . 39

14 Convergence dominée et application 40


14.1 Suites et séries d’intégrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
14.2 Intégrales à paramètre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

15 Fonction vectorielle d’une variable réelle 41


15.1 Dérivation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
15.2 Intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
15.3 Primitivation et intégration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
15.4 Formules de Taylor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
15.5 Intégration, dérivation, primitivation d’une limite . . . . . . . . . . . . . . . . . . . . 44

16 Familles sommables 45
16.1 Famille sommable de réels positifs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
16.2 Familles sommables de nombres complexes . . . . . . . . . . . . . . . . . . . . . . . . 46
16.3 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
16.4 Exponentielle dans une algèbre de dimension finie . . . . . . . . . . . . . . . . . . . . 47

2
Dorian Lesbre Notes Cours Maths MP*

17 Séries entières 48
17.1 Rayon de convergence d’une série entière . . . . . . . . . . . . . . . . . . . . . . . . . 48
17.2 Série entières d’une variable réelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
17.3 Fonction développable en série entière . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

18 Espaces probabilisés 51
18.1 Espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
18.2 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

19 Variables aléatoires 53
19.1 Variable aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
19.2 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
19.3 Couples de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
19.4 Indépendance de variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
19.5 Espérance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
19.6 Fonctions génératrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

20 Groupe, anneaux, arithmétiques 58


20.1 Anneaux et corps . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
20.2 Divisibilité dans un anneau intègre . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
20.3 Arithmétique dans un anneau principal . . . . . . . . . . . . . . . . . . . . . . . . . . 60
20.4 L’anneau Z/nZ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
20.5 Groupes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

21 Équations différentielles linéaires 62


21.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
21.2 Cas d’une résolution explicite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
21.3 Cas général . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
21.4 Étude qualitative des solutions d’une équation différentielle . . . . . . . . . . . . . . . 66

22 Calcul différentiel 66
22.1 Différentiabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
22.2 Fonctions numériques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
22.3 Fonctions de classe C k . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
22.4 Applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

3
Notes Cours Maths MP* Dorian Lesbre

1 Dénombrabilité
Équipotence : deux ensembles en bijection sont équipotents

Ensemble fini : en bijection avec un ensemble de la forme [[1, n]], n est alors unique (démo par
récurrence, existence de bijection entre [[1, n]] et [[1, m]] → n = m)
Une partie F d’un ensemble fini E est finie et #F ⩽ #E, #F = #E ⇔ F = E, (mq #E \ {a} =
#E − 1)

Partie de N : une partie A de N est finie si et seulement si elle est majorée (par la somme). Si elle
est infinie elle est en bijection avec N
(suite (ak ) par ordre croissant), pour la surjectivité de q {k ∈ N / ak < q}, il admet un max...

Dénombrabilité : un ensemble est dénombrable s’il est en bijection avec N, il est au plus dé-
nombrable s’il est équipotent à une partie de N ou s’injecte dans N (il est soit fini soit dénombrable)

Toute partie d’un ensemble dénombrable est au plus dénombrable.

Caractérisation : soit A non vide, alors on a les équivalences :


— A est au plus dénombrable
— il existe une surjection d’un ensemble X au plus dénombrable dans A
— il existe une surjection de N dans A
Un ensemble est dénombrable s’il
— est en bijection avec N (numérotation)
— s’injecte dans N ou autre ensemble dénombrable et est infini
— existe une surjection de N ou autre ensemble dénombrable dans A et est infini

Opérations : si (Ai )i∈I est une famille finie non vide d’ensembles dénombrables alors
[
Ai et ×A
i∈I
i
i∈I
sont dénombrables (passer par Z et N2 , récurrences).
Si les (Ai ) sont au plus dénombrables, alors leur produit cartésien et union est au plus dénombrable.

Réunion infinie : si (Ai )i∈I [est une famille non vide d’ensembles au plus dénombrables et que I
est au plus dénombrable, alors Ai est au plus dénombrable.
i∈I
∃fi : N → Ai surjectives, alors f : (i, n) 7→ fi (n) surjective, or I × N au plus dénombrable.

Non-dénombrabilité : R est non dénombrable, car pour toute suite (un ) ∈ RN , il existe ℓ ∈ R, ℓ ∈ /
u(N). (construire (an ) et (bn ) adjacentes par trichotomie vérifiant ∀n ∈ N, un ∈
/ [an , bn ] et prendre
leur limite.)

Parties d’un ensemble : il n’existe pas de surjections de E dans P(E) ({x ∈ E, / x ∈ / f (x)} n’a
jamais d’antécédents)
P(N) n’est pas dénombrable, tout comme {0, 1}N (ils sont en bijection par l’indicatrice et en bijection
avec R).

4
Dorian Lesbre Notes Cours Maths MP*

2 Espace affine, barycentres, convexité


2.1 Espaces affines
Action de groupe : pour (G, ·) un groupe et E un ensemble, f : G × E → E est une action si :
— ∀x ∈ E, f (eg , x) = x 
— ∀(a, b, x) ∈ G2 × E, f a, f (b, x) = f (a · b, x)
ex : les actions de translation (g, x) 7→ g · x et de conjugaison (g, x) 7→ g · x · g −1
Transitivité : une action est transitive si ∀(x, y) ∈ E 2 , ∃g ∈ G, x = f (g, y). Elle est simplement
transitive s’il y a unicité de g.
Une action correspond à un morphisme de groupe de G dans S (E)
Espace Affine : (E, E, ·) est un espace affine si :
— E est un espace vectoriel
— · : E × E → E est une action de groupe simplement transitive.
−→
Les éléments de E sont des points et ceux de E des vecteurs. On notera AB l’unique vecteur tel que
−→
A = B · AB. On notera · par +

Exemples : (E, E, +) est un espace affine, un sous espace affine F de E de direction F est un
espace affine.
 
E → E
Translations : t− u :
→ est la translation de vecteur →

u ◦ t−
u . On a t−
→ v = t−
→ → v =
u +−

x 7→ x + → −
u
v ◦ t−
t−
→ u . Les translations sont bijectives.

Vectorialisation : pour O ∈ E, on peut définir les lois

E2 → E K×E → E
   
+: −→ −−→ et ·: −→
(A, B) 7→ O + OA + OB (λ, C) 7→ O + λ · OC

(E, +, ·) est un espace vectoriel (qui dépend de O) isomorphe à E.

2.2 Barycentre
Système pondéréP: c’est une famille finie (Ai , λi )i∈I ∈ (E × K)I avec
P
i∈I λi ̸= 0. Elle est
normalisée lorsque i∈I λi = 1

Barycentre : Pour un système pondéré (Ai , λi )i∈I ∈ (E × K)I , il existe un unique point G de E
tel que X −−→ → −
λi GAi = 0
i∈I
X −−→ X −−→
Ce point vérifie alors ∀M ∈ E : λi M Ai = λi M G
i∈I i∈I

−−→ → − −−→
Prendre (G, M ) ∈ E 2 , P 1
P P
i∈I λi GAi = 0 ⇔ G = M + λi i∈I λi M Ai (Chasles)
i∈I

P 1
P
Notation : on notera le barycentre i∈I λi Ai , ce qui coïncide avec les lois + et · de l’espace
i∈I λi
vectorialisé.

5
Notes Cours Maths MP* Dorian Lesbre

Propriétés diverses ;
— L’isobarycentre est la moyenne : n1 (A1 + . . . + An )
— L’ensemble des barycentres de A et B est {tA + (1 − t)B, t ∈ R}
— Invariant par multiplication des poids par un scalaire non nul
— Invariant par permutation des éléments
— Invariance par modification des éléments de poids nul

Pk
Associativité des barycentres : pour k ∈ [[1, n]] tel que α = i=1 λi ̸= 0

k
! !
 X
Bar (λ1 , A1 ), . . . , (λn , An ) = Bar α, λi Ai , (λk+1 , Ak+1 ), . . . , (λn , An )
i=1

P peut alors calculer le barycentre de (λi , Ai )i∈I en partitionnant I en (Ik )k∈K tel que ∀k ∈ K, σk =
On
i∈Ik λi ̸= 0 puis en calculant Gk = Bar (λi , Ai )i∈Ik , et finalement G = Bar (σk , Gk )k∈K

Calcul de Barycentre : on peut calculer tout barycentre en effectuant une succession de calcul
de deux barycentres.

2.3 Sous-espace affine


Définition : pour A ∈ E et F un sev de E on note :

A + F = {A + →

u, →

u ∈ F}

F est un sous espace affine de E s’il existe A ∈ F et F sev de E tel que F = A + F .




F est appelé direction et noté F

La direction est unique, car on a :


n−−→ o n−−→ o
2
F = AM , M ∈ F = M N , (M, N ) ∈ F
n→−o
— un singleton est un sous-espace affine dirigé par 0
−→
— une droite affine est de la forme A + Vect AB = {A + λ→ −
u , λ ∈ K}
— un sous espace affine est un espace affine sur sa direction

Caractérisation : on a les équivalences : (HP)


1. F est un sous-espace affine de E
2. ∀(A, B) ∈ F 2 , ∀t ∈ R, tA + (1 − t)B ∈ F
3. Tout barycentre d’éléments de F est dans F
F est donc un sous-espace affine ⇔ ∀(A, B) ∈ F, (AB) ⊂ F

Intersection de sous-espaces affines : pour \− (Fi )i ∈ I des sous-espaces affines. L’intersection est

(vide ou) un sous-espace affine de direction Fi (stabilité du barycentre)
i∈I
On a alors pour A ⊂ E, A ̸= ∅, il existe Aff(A) un plus petit sous-espace affine contenant A (c’est
l’ensemble des barycentres). Aff({A, B}) = (AB)

6
Dorian Lesbre Notes Cours Maths MP*

Parallélisme : pour F et G deux sous-espaces affines,



− →

— F est parallèle à G si F ⊂ G

− →

— F et G sont parallèles si F = G
Si F parallèle à G alors F ∩ G = ∅ ou F ⊂ G

Intersection : soit (A, B) ∈ E 2 et (F, G) deux sev de E. On a


−→
(A + F ) ∩ (B + G) ̸= ∅ ⇔ AB ∈ F + G

− → − →
− → −
Donc si F + G = E, F ∩ G = ̸ ∅ et si F ⊕ G = E, F ∩ G est un singleton.

2.4 Applications affines


Définition : pour E et F deux espaces affines, f : E → F est affine s’il existe φ ∈ L (E, F )
−−−−−−→ −→
∀(A, B) ∈ E, f (A)f (B) = φ AB


φ est alors unique, c’est l’application linéaire associée à f , notée f
idE , x 7→ a, φ + e avec φ linéaire sont
 des applications affinesassociées à idE , 0L (E) , φ. De même
E → F
pour A ∈ E, B ∈ F, φ ∈ L (E, F ), est affine.
A + u 7→ B + φ(→

− −u)

Caractérisation en termes de barycentre (HP) : soit f : E → F, on a les équivalences :


1. f est une application affine
P P P
2. ∀(Ai , λi ) t.q. λi = 1, on a f ( λi Ai ) = λi f (Ai )

3. ∀(A, B) ∈ E 2 , ∀t ∈ R, f (1 − t)A + t = (1 − t)f (A) + tf (B)
−−−−−−→ −→
2 ⇒ 1 poser φ : → −
u 7→ f (O + →
−u ), mq φ linéaire et f (A)f (B) = φ(AB)

Propriétés des applications affines : pour f : E → G et g : G → H affines on a :


— g ◦ f est une application affine

− −→ → −
— f bijective ⇔ f bijective et alors f −1 est affine et f −1 = f −1

− →−
— pour tout A sea de E, f (A) est un sea de F de direction f ( A )

− →

— pour tout B sea de F, f −1 (B) est un sea de E de direction f −1 ( B )

2.5 Repères affines et barycentriques


Repères : un repère affine est un couple (Ω, B) ou Ω est un point de E et B = (→

ei )ni=1 une base de
E. On a alors : n
λi →

X
n
∀M ∈ E, ∃!(λi )i=1 , M = Ω + ei
i=1

Un repère barycentrique (HP) est une liste (A0 , . . . , An ) ∈ E n+1 tel que
n
X n
X
∀M ∈ E, ∃!(λi )ni=0 , λi = 1 et M = λi A i
i=0 i=0

−−−→
(Ai )ni=0 est un repère barycentrique ⇔ (A0 Ai )ni=1 est une base de E.
−−−→ 
Si A0 , A0 Ai )ni=1 est un repère affine, alors (Ai )ni=0 P
est barycentrique. Un point M de coordonnées
n
(λ)i=1 dans la première aura pour coordonnées (1 − λi , λ1 , . . . , λn ) dans la seconde.

7
Notes Cours Maths MP* Dorian Lesbre

2.6 Parties convexes


Pour des espaces vectoriels réels :

Segments : pour (A, B) ∈ E 2 , on définit le segment


[AB] = {(1 − t)A + tB, t ∈ [0, 1]}
On a [AA] = A et [AB] = [BA]. Les segments de R sont [ab] = [a, b] ou [b, a] selon a < b ou non
Partie convexe : une partie C de E est convexe si

∀(A, B) ∈ C 2 , [AB] ⊂ C

Tout sous-espace affine, segments, intervalles de R, ∅ sont alors convexes. Toute boule d’un espace
euclidien est un convexe. L’image et l’image réciproque par une application affine d’un convexe est
un convexe.

Combinaison convexe (HP) : c’est un barycentre à coeffs positifs. Elle vérifie les propriétés du
barycentre. Un ensemble est convexe si et seulement s’il est stable par combinaison convexe.

Enveloppe convexe (HP) : une intersection de convexe est un convexe, il existe donc pour
tout X ⊂ E un plus petit convexe contenant X, appelé enveloppe convexe. C’est l’ensemble des
combinaisons convexes des points de A

3 Fonctions de la variable réelle


3.1 Théorèmes de continuité et dérivabilité
Continuité : pour f : I → R et g : I → C :, continue sur I :
— TVI : f continue ⇒ f (I) est un intervalle. f change de signe sur I ⇒ f s’annule
— Limite monotone : si f monotone sur I alors elle admet une limite à gauche et à droite en
tout point de I
— Bornes atteintes : g continue sur un segment ⇒ g bornée
— Heine : si g est continue sur un segment, elle y est uniformément continue

Dérivation : pour f : [a, b] → R continue sur [a, b], dérivable sur ]a, b[, on a :
— Rolle et EAF : il existe c ∈]a, b[, f ′ (c) = f (b)−f
b−a
(a)

— Monotonie : f monotone ⇔ f ′ de signe constant (strictement si f ′ ne s’annule que sur des


intervalles triviaux)
Théorème minimaliste : pour f : [a, b] → K et φ : [a, b] → R, on a :

 f et φ continues sur [a, b]
f et φ dérivables à droite sur [a, b[ ⇒ |f (b) − f (a)| ⩽ φ(b) − φ(a)
∀t ∈ [a, b], |fd′ (t)| ⩽ φd (t)

Poser A = {x, |f (x) − f (a)| ⩽ φ(x) − φ(a) + ε(x − a)}, si x ̸= b ∈ A, alors x + η ∈ A car τf (t, x) −
τφ (t, x) → k ⩽ 0 < ε donc par continuité...
De plus, sup A ∈ A par caractérisation séquentielle est continuité, donc sup A = b
La dérivabilité sur ]a, b[ suffit (appliquer entre x > a et b et faire tendre x vers a)

8
Dorian Lesbre Notes Cours Maths MP*

Version officielle : une fonction continue sur I dérivable à l’intérieur de I dont la dérivée est
majorée par M est M -lipschitzienne sur I (pour les fonctions réelles, classe C 1 pour les fonctions
complexes).

Intégration de o : soit f : I → K continue sur I dérivable sur I \ {a}.


f ′ (t) = o (t − a)n ⇒ f (t) − f (a) = o (t − a)n+1
 
t→a t→a
n+1
f ′ (t) < ε |t − a|n = φ′ (t)donc |f (t) − f (a)| ⩽ φ(t) − φ(a) = ε |t−a|
n+1
−0
Limites de la dérivée : soit f : i → K :

 f continue sur I

f dérivable sur I \ {a} ⇒ f dérivable en a et f ′ (a) = ℓ
 f ′ (t) −−−−→ ℓ ∈ K

t → a̸=

EAF pour les réels puis sur Re(f ) et Im(f ).


Si f ∈ C 1 (I \ {a}), et f ′ (t) −−−−→ ℓ ∈ K alors f ′ ∈ C 1 (I)
t → a̸=

Fonctions de classe C n : une fonction est de classe C n s’il existe une suite de fonction (φk )nk=0
telles que φ0 = f , que pour k ⩽ n − 1 φk+1 = φ′k et que φn est continue. On note alors f (n) la dérivée
n-ième de f : φn .
f ∈ C ∞ si ∀n ∈ N, f ∈ C n .
Si n et p + q, on peut montrer que f est de classe C p et f (p) de classe C q

Prolongement de classe C n : si f : I \ {a} → K est de classe C k avec k ∈ N ∪ {∞}, et que f (n)


admet une limite finie en a pour tout n ⩽ k, alors son prolongement par continuité en a est de classe
Cn

3.2 Formules de Taylor


Taylor-Laplace : soit f ∈ C n+1 (I, K) et (a, b) ∈ I 2 :
n b
(b − a)k (b − t)n n+1
X Z
(k)
f (b) − f (a) = f (t)dt (t = a + x(b − a))
k=0
k! a n!
Z 1
n+1 (1 − t)n n+1
= (b − a) f (x + t(b − a))dx
0 n!

Récurrence et IPP
Taylor-Lagrange : pour f ∈ C n+1 (I, K) et (a, b) ∈ I 2 tel que |f n+1 | ⩽ M :
n
X (b − a)k (b − a)n+1
f (b) − f (k) (a) ⩽ M
k=0
k! (n + 1)!

Taylor-Young : pour une étude locale, soit f n − 1 fois dérivable sur I et n fois en a (classe C n
au programme), on a :
n
X (b − a)k (k)
f (a) + o (b − a)n

f (b) =
k=0
k! b→a

Démontrer par récurrence en intégrant le DL de f ′

9
Notes Cours Maths MP* Dorian Lesbre

4 Fonctions convexes
4.1 Définition, propriétés élémentaires
On étudie des fonctions définies de I (ou d’une partie convexe d’un EV) dans R
Fonction convexe : f : I → R est convexe si pour tout (a, b) ∈ I 2 et pour tout λ ∈ [0, 1], on
a: 
f (1 − λ)a + λb ⩽ (1 − λ)f (a) + λf (b)
f est concave si −f est convexe

f est convexe si son graphe est en dessous de toutes les cordes.


Si φ : E → F affine et C convexe de E, alors φ(C) convexe et si f convexe sur φ(C) alors f ◦ φ
convexe sur C

Épigraphe de f : on le définit par εf = {(x, y) ∈ R2 / y ⩾ f (x)}. On a alors la caractérisation :

f est convexe ⇔ εf est une partie convexe

Inégalité de convexité : soit (λi )pi=1 des réels positifs de somme 1, on a :


p p
!
X X
f convexe ⇔ ∀(xi )pi=1 ∈ Rp , λi f (xi ) ⩾ f λ i ai
i=p i=1

Inégalités de pentes : soit x < y < z ∈ I 3 , si f convexe sur I alors :

f (x) − f (y) f (x) − f (z) f (y) − f (z)


⩽ ⩽
x−y x−z y−z

(on peut montrer que les trois inégalités sont équivalentes...)


I \ {a} → R

Corollaire : posons φa : . On a
x 7→ f (x)−f
x−a
(a)

f convexe ⇔ ∀a ∈ I, φa est croissante

De même, on a les équivalences :


— f est concave 
— ∀(x, y) ∈ I 2 , ∀λ ∈ [0, 1], f (1 − λ)x + λy ⩾ (1 − λ)f (x) + λf (y)
— ∀(x, y, z) ∈ I 3 , x < y < z ⇒ f (x)−f
x−y
(y)
⩾ f (x)−f
x−z
(z)
⩾ f (y)−f
y−z
(z)

— ∀a ∈ I, φa est décroissante

4.2 Convexité et dérivabilité


Caractérisation : soit f dérivable sur un intervalle I :

f convexe ⇔ f ′ croissante

⇒ utiliser φa (x) ⩽ φa (b) = φb (a) ⩽ φb (y) quand x → a et y → b


La démo nécessite seulement la continuité sur I et la dérivabilité sur I \ {bornes} On en déduit
qu’une fonction deux fois dérivable est convexe ⇔ f ′′ ⩾ 0

10
Dorian Lesbre Notes Cours Maths MP*

Fonction concave : de manière symétrique, une fonction f dérivable est concave si et seulement
si f ′ est décroissante, ou si f ′′ ⩽ 0

Position par rapport à la tangente : pour une fonction convexe et dérivable sur I on a :

∀a ∈ I, ∀x ∈ i, f (x) ⩾ f ′ (a)(x − a) + f (a)

et inversement si f concave. (utiliser la croissance de φa )

Dérivabilité des fonctions convexes (HP) : une fonction convexe est dérivable à droite et à
gauche en tout point de I \ {bornes} et

∀x < y ∈ I \ {bornes} , fg′ (x) ⩽ fd′ (x) ⩽ fg′ (y) ⩽ fd′ (y)

démo en utilisant φa monotone et bornée. On en déduit que f est continue sur I \ {bornes}

5 Intégration sur un intervalle quelconque


Continuité par morceaux : f est continue par morceaux sur un segment [a, b] s’il existe une
subdivision (a0 , . . . , an ) de [a, b] telle que f|]ai , ai+1 [ possède un prolongement continu sur [ai , ai+1 ]
f est continue par morceau sur un intervalle I si elle est continue par morceau sur tout segment de I
Z x
Croissance de l’intégrale : soit f ∈ Cpm (I, R) positive, on a F : x 7→ f (t)dt est croissante
a
sur I
De plus (HP), on a F dérivable à droite et gauche en tout point de I sauf sup I ou inf I avec
Fg′ (x) = f (x− ) et Fd′R(x) = f (x+ )
F (x + h) − F (x) ⩽ [x,x+h] |f | or f majoré sur un segment...

5.1 Intégrale sur [a, +∞[


R +∞
Z x
Intégrale sur [a, +∞[ : soit f ∈ Cpm ([a, +∞[, K) On dit que a
f converge si lim f∈
x → +∞ a
Z +∞ Z x
K, elle diverge sinon. On notera alors f = lim f
a x → +∞ a

Pour justifier la convergence, il faut la continuité et montrer l’existence d’une limite finie d’une
primitive F en +∞
Remarque : f → 0 n’entraine pas la convergence de l’intégrale (cf séries) mais ici, la convergence de
l’intégrale n’implique pas celle de f .
R +∞ R +∞
Chasles : soit b ∈ [a, +∞[, les intégrales a
f et b
f ont la même nature et :
Z +∞ Z b Z +∞
f= f+ f
a a b

La convergence n dépend donc que du comportement asymptotique de f


R +∞
Intégrales convergentes : l’ensemble des fonctions f de Cpm ([a, +∞), K) telles que a f converge
est un sous-espace vectoriel de Cpm ([a, +∞), K). On en déduit qu’une fonction complexe converse si
sa partie réelle et imaginaire converge.

11
Notes Cours Maths MP* Dorian Lesbre

R +∞ R +∞
Intégrale inversée : si f continue et a
f converge, alors x 7→ x
f est de classe C 1 ([a, +∞[)
et a pour dérivée −f

Fonctions positives : soit f ∈ Cpm ([a, +∞), K) positive, on a :


R +∞ R +∞
— a f converge ⇒ a f ⩾ 0 h i
R +∞ R +∞
— a f converge et f continue ⇒ a f = 0 ⇒ f = 0
R +∞ Rx
— a f converge ⇔ x 7→ a f majorée sur [a, +∞[
R +∞ Rx
Dans ce cas, a f = supx⩾a a f
R +∞ Rx
— a f diverge ⇔ lim a f = +∞
x → +∞
Les conclusions subsistent si f n’est positive qu’au voisinage de +∞

Comparaison : pour f et g ∈ Cpm ([a, +∞), K) positives :


 R +∞ R +∞
g converge ⇒ a f converge
— ∃b ⩾ a, ∀t ⩾ b, 0 ⩽ f (t) ⩽ g(t) ⇒ a
R +∞ R +∞
hR a
f diverge ⇒
i a g diverge
+∞ R +∞
— f = O +∞ (g) ⇒ a g converge ⇒ a f converge
— f ∼ R +∞
+∞ g ⇒ a
R +∞
f et a f ont même nature
Z +∞
dt
Intégrales de Riemann : on a converge ⇔ α > 1.
1 tα
Utiliser les théorèmes ci-dessus en comparant les fonctions à une intégrale de Riemann

R +∞ R +∞
Intégrabilité : f est intégrable sur [a, +∞[ ou a f converge absolument si a |f | converge.
La convergence absolue implique la convergence (posé f + = 21 (|f | + f ) et f − )
R +∞
Une fonction semi-convergente est non-intégrable alors que a f converge.

Comparaisons : pour f et g ∈ Cpm ([a, +∞), K) si g est intégrable et positive :


— ∃b ⩾ a, ∀t ⩾ b, |f (t)| ⩽ g(t) ⇒ f intégrable
— f = O (g) ou f ∼g alors f est intégrable

Utilisation d’une série : soit (bn ) ∈ [a, +∞]N une suite croissante qui tend vers +∞, on a
Z +∞ XZ bn
f converge ⇒ f converge
a n⩾1 bn−1

Z bn+1
et qu’on a l’égalité des valeurs. La réciproque est fausse sauf si on a f positive ou lim |f | = 0...
n→+∞ bn

5.2 Généralisation aux autres types d’intervalles


Ra Ra
Sur ] − ∞, a] : on la définit de même : pour f ∈ Cpm (] − ∞, a], K), −∞ f converge si x 7→ x f à
une limite en −∞. On
R a retrouve les propriétés
Rb : Ra Rb Ra
— de Chasles : −∞ f converge ⇔ −∞ f converge et −∞ f = −∞ f + b f
Ra
— de Riemann : −∞ |t|1α converge ⇔ α > 1.
— Les théorèmes de comparaison des fonctions positives et de fonctions intégrables.

12
Dorian Lesbre Notes Cours Maths MP*

Rb Rx
Sur [a, b[ et ]a, b] : si f ∈ Cpm ([a, b[, K) avec a < b réels. On dit que a f converge lorsque x 7→ a f
admet une limite finie en b.
On a toujours le même théorème sauf pour l’intégrale de Riemann, on a :
Z b Z b
dt dt
ou convergent ⇔ α < 1
a (t − a)α a (b − t)α

Si f est bornée ou admet une limite finie en b, alors elle est intégrable.
S’il existe α < 1 tel que lim (b − x)α f (x) = 0 alors elle converge (Riemann)
x→b

Cas d’un intervalle ouvert : on s’intéresse à ]a, b[ avec −∞ ⩽ a < b ⩽ +∞ et f ∈


Z b
Rc Rb
Cpm (]a, b[, K). f converge s’il existe c ∈]a, b[ tel que a f et c f convergent. On pose alors :
a
Z b Z c Z b
f (t)dt = f (t)dt + f (t)dt
a a c

Cette définition et la valeur de l’intégrale ne dépendent pas de c d’après Chasles


Rx
Cela revient à montrer l’existence de limite en a et b de F : x 7→ c
f

Cohérence des notations : si f ∈ Cpm (]a, b[, K), les différentes valeurs
R R R
]a,b[
f, ]a,b]
f, [a,b[
f et
Rb
C
R
[a,b]
f sont égales si définies (f ∈ pm ([a, b])). D’où la notation a
f

Avec des suites : pour f ∈ Cpm (]a, b[, K) et (αn ), (βn ) ∈ (]a, b[N )2 convergeant respectivement vers
a et b, on a
Z βn Z b
lim f (t)dt = f (t)dt
n→∞ αn a

5.3 Propriétés de l’intégrale


R
Propriétés : soit I un intervalle de R non trivial, si I est un segment on dira que I f converge si
f ∈ Cpm (I, R)
— SEV : l’ensemble des fonctions fR ∈ Cpm (I, K) telles que I f converge est un sous-espace
R

vectoriel de Cpm (I, K) dont


R f 7→ I f est uneR forme linéaire.
R
— si f est positive et que I f converge alors I f ⩾ 0 et I f = 0 ⇒ f = 0
— l’ensemble des fonctions intégrables est un sev de Cpm (I, K)
R R
— I f ⩽ i |fR| R
— J ⊂ I alors I f converge ⇒ J f converge

Intégrale orientée : soit (x, y) ∈ [a, b]2 éventuellement infini, on pose :


R
y f si x < y
R]x,y[
Z
f (t)dt = − ]y,x[ f si y < x
x
0 si y = x

On a alors
R x la propriété de Chasles.
F (x) = a est continue sur I et dérivable si f continue avec F ′ = f .

13
Notes Cours Maths MP* Dorian Lesbre

5.4 Calcul d’intégrales


Intégration par parties : soit f et g deux fonctions Zde classe C 1 sur Z bI d’extrémités a et b
b
éventuellement infinie. L’existence de deux termes parmi f ′ g, [f g]ba et f g ′ assure l’existence
Z b Z b a a

du troisième et l’égalité : f ′ g = [f g]ba − f g′.


a a
En pratique, intégrer par partie sur les primitives, puis passer à la limite.

Changement de variable : pour f ∈ C (]a, b[, K) et φ :]a, b[→]α, β[ strictement croissante et


Rb Rβ
bijective, les intégrales a f et α f φ(x) φ′ (x)dx ont même nature et en cas de convergence


Z b Z β
f φ(x) φ′ (x)dx

f (t)dt =
a α

Rb Rβ
Et si φ strictement décroissante : a f (t)dt = − α f φ(x) φ′ (x)dx Démo : changement de variable


sur un segment ⊂ [a, b] puis passage à la limite

Propriétés :
— L’intégrabilité de f sur ]a, b[ équivaut à celle de R(f ◦ φ)φR′
— On peut utiliser des symétries : si f paire alors R f = 2 R+ f
— on peut faire un changement de variable sur un segment en se limitant à l’intervalle ouvert

5.5 Intégration des relations de comparaison


Comparaisons de restes : soit f et φ ∈ Cpm ([a, b[, K) avec φ positive et intégrable sur [a, b[ et
−∞ < a < b ⩽ +∞ Rb Rb 
— f (x) = O x→b g(x) ⇒ f intégrable sur [a, b[ et x f = O x→b x φ

 Rb Rb 
— f (x) = ox→b g(x) ⇒ f intégrable sur [a, b[ et x f = ox→b x φ
— f positive et f (x) ∼ Rb
x→b g(x) ⇒ f intégrable sur [a, b[ et x f
Rb
x→b x φ ∼
Comparaison des intégrales partielles : pour f et φ ∈ Cpm ([a, b[, K) avec φ positive d’intégrale
divergente sur [a, b[.
Rx Rx 
— f (x) = O x→b g(x) O

 ⇒R xa f = R x a φ
x→b
— f (x) = ox→b g(x) ⇒ a f = ox→b Rx a φ
— f positive et f (x) ∼ x→b g(x) ⇒ a f ∼
Rx
x→b a φ
Les résultats s’étendent aux fonctions négatives. La positivité au voisinage de b suffit.

6 Suites et séries numériques


6.1 Suites numériques
Cours de première année : convergence, divergence ver ±∞, suites adjacentes, suites monotones
comparaisons et équivalents, extraction et valeur d’adhérence, théorème de Bolzano-Weierstrass.

Équivalences de ln : pour (an ) et (bn ) deux suites positives qui tendent vers 0

14
Dorian Lesbre Notes Cours Maths MP*

Caractérisation ensembliste des valeurs d’adhérence (HP) : soit (un ) une suite, on a les
équivalences :
— ℓ est valeur d’adhérence de (un )
— ∀ε > 0, {n ∈ N / |un − ℓ| < ε} est infini
— ∀ε > 0, ∀n ∈ N, ∃p ⩾ n, |up − ℓ| < ε
Une suite convergente n’admet que sa limite comme valeur d’adhérence

Bolzano-Weierstrass : toute suite bornée dans K admet une sous-suite convergente.


Démo dans R par construction de suite adjacentes (an , bn ) telles que [an , bn ] contiennent une infinité
de termes de u, puis dans C par partie réelles et imaginaire.
Autre démo en utilisant les suites zn = sup up , p ⩾ n et yn = inf up , p ⩾ n qui encadrent u

6.2 Séries numériques


Définition
Pn : une série possède un terme général (un ) et une somme partielle (Sn ) avec Sn =
u
k=0 n et u n = Sn − Sn−1 .
On
P+∞dit qu’une série converge si la suite (Sn ) converge et on dit alors que la somme de la série est
k=0 un = lim Sn On note Sn (u) la n-ième somme partielle de la série de terme général u et S(u) sa
somme.

Propriétés : vues en sup


P
— (un ) converge ⇔ un+1 − unPconverge
— l’ensemble de (un ) telles que un converge est un sev de KN sur lequel u 7→ S(u) est une
forme
P linéaire
— un converge ⇒ un −−−−−→ 0 (la réciproque est fausse)
n → +∞
— on ne change pas la nature d’une série en ajoutant à son terme général le terme général d’une
série
P convergente.
— si un converge, on note Rn (u) = +∞
P
k=n uk , on a S(u) = Sn (u)+Rn (u) donc Rn (u) −−−−−→ 0
n → +∞

Séries à terme général positif : soit (un ), (vn ) deux suites telles que 0 ⩽ (un ) ⩽ (vn ) à partir
d’un certain
P rang.
— P un converge ou Ptend vers +∞
— P vn converge ⇒P un converge
— un diverge ⇒ vn diverge

P P
Convergence absolue : on dit que un converge absolument lorsque |un | converge. L’absolue
convergence implique la convergence.
n
Une série convergente, mais pas absolument convergente est
dite semi-convergente ( (−1)
n
)

Théorèmes de comparaison : soit (un ) et (vn ) deux suites :


O
P P
— si vn converge, (vn ) positive APDCR et un = (vn ) alors un converge
— Psi un et vn positives et un
n
∼ vn alors
P
un et
P
vn ont même nature
— P α converge ⇔ |α| < 1
1
— nα
converge ⇔ α > 1

Règle du nα : si α > 1 et nα un → 0 alors un converge et si α ⩽ 1 et nα un → +∞ alors


P P
un
diverge. P −α
S’il existe M ⩾ m > 0 tel que M ⩾ un nα ⩾ m pour tout n alors
P
un et n ont même nature.

15
Notes Cours Maths MP* Dorian Lesbre

Règle de d’Alembert : soit (un ) et (vn ) strictement positive à partir d’un certain rang telles que
un+1 vn+1
0⩽ ⩽ , alors
un P vn P
— si vn converge Palors il en est de même pour un P
— inversement, si un diverge alors il en et de même pour vn
un+1 un+1
D’où le corollaire si lim < 1 alors (un ) converge et si lim > 1 alors (un ) diverge
∞ un ∞ un

Comparaison série-intégrale : soit f ∈ Cpm ([n0 , +∞[) positive et décroissante, on a :

X Z n 
f (t)dt − f (n) converge
n⩾n0 +1 n−1

P R +∞
On en déduit que f (n) converge si et seulement si n0 f converge, et un encadrement des sommes
partielles ou des intégrales.
Inversement, en cas de divergences, on peut trouver un équivalent des sommes partielles, et des restes
en cas de convergence.
Même procédé si la fonction est croissante.

6.3 Sommation des relations de comparaison


P
Cas convergent : soit v une série convergente à terme général positif
Pn
— si un = O (vn ) alorsP un converge et Rn (u) = O Rn (v)


— si un = o(vn ) alors
P un converge et Rn (u) = o Rn (v)
— si un ∼ vn alors un converge et Rn (u) ∼ Rn (v)
Si uun+1
n
→ ℓ alors on peut sommer l’équivalent u n+1 ∼ℓun
P
Cas divergent : soit vn une série divergente à terme général positif
— si un = O (vn ) alors Sn (u) = O Sn (v)


— si un = o(vn ) alors
PSn (u) = o Sn (v)
— si un ∼vn alors un diverge et Sn (u) ∼
Sn (v)

6.4 Étude de convergence de séries à terme général quelconque


Séries alternées : soit (un ) une suite telle que (−1)n un soit de signe constant,
X
|un | décroissante et un −−−−−→ 0 ⇒ un converge
n → +∞

Montrer que (S2n ) et (S2n+1 ) sont adjacentes. Si le terme général ne décroit pas en module, on peut
faire un DL...

Sommation par tranches : soit φ une extraction telle que φ(0) = 0, on définit la série regroupée
vn par
φ(n+1)−1
X
vn = un
φ(n)
P P
Si un converge alors vn aussi (Sn (v) est une sous-suite de Sn (u)). La réciproque est vrai si
Pφ(n+1)−1
φ(n) |un | tend vers 0.
C’est le cas si φ(n + 1) − φ(n) borné et un → 0 ou si (un ) ∈ RN et de signe constant sur les tranches.

16
Dorian Lesbre Notes Cours Maths MP*

Transformation d’Abel (HP) : pour (an ) une suite, on définit une dérivée (an+1 − an ) et une
primitive (suite de dérivée (an )), on a alors

n
X n−1
X
ak bk = An bn − A−1 b0 − Ak (bk+1 − bk )
k=0 k=0

P P
On peut aussi utiliser une primitive : si un = f (n), alors un ressemble à F (n + 1) − F (n)...

7 Topologie des espaces normés


E est un K-espace vectoriel, K = R ou C

7.1 Généralités
Norme : une fonction N : E → R+ est une norme si elle vérifie :
— l’homogénéité : ∀λ ∈ K, ∀x ∈ E, N (λx) = |λ| N (x)
— l’inégalité triangulaire : ∀(x, y) ∈ E 2 , N (x + y) ⩽ N (x) + N (y)
— la séparation : ∀x ∈ E, N (x) = 0 ⇒ x = 0E
On dit alors que (E, N ) est un espace vectoriel normé et on note N (x) = ∥x∥

p
Ex : x 7→ |x| ou (x, y) 7→ |x| + |y| ou max {|x| , |y|} ou ⟨x, x⟩

Inégalité triangulaire :
— |∥x∥ − ∥y∥| ⩽ ∥x ± y∥ ⩽ ∥x∥ + ∥y∥
pour montrer la première, partir de x = x + y − y...
— cas d’égalité : (x, y) positivement colinéaires ⇒ ∥x + y∥ = ∥x∥ + ∥y∥
laPréciproquePest fausse sauf pour les normes euclidiennes.
— ∥ λk xk ∥ ⩽ |λk | ∥xk ∥

Distance associée : on pose d(x, y) = ∥x − y∥. Elle est symétrique, nulle si et seulement si x = y,
invariante par translation et vérifie :

|d(N, M ) − d(M, P )| ⩽ d(N, P ) ⩽ d(N, M ) + d(M, P )

Dans un triangle, la longueur d’un côté est inférieure à la somme des deux autres.

Espace métrique (HP) : c’est un espace muni d’une distance qui vérifie les propriétés de symétrie,
séparation (d(x, y) = 0 ⇔ x = y) et l’inégalité triangulaire.

Boules : soit a ∈ E et r > 0, on définit :


— la boule fermée Bf (a, r) = {x ∈ E / d(x, a) ⩽ r}
— la boule ouverte Bo (a, r) = {x ∈ E / d(x, a) < r}
— la sphère S(a, r) = {x ∈ E / d(x, a) = r}
La boule dépend de la distance sur E. Toute boule est une partie convexe de E. Dans un espace
vectoriel normé, toute boule ressemble à la boule B(0, 1) (boule unité) par homothétie et translation.

17
Notes Cours Maths MP* Dorian Lesbre

P usuelles : sur tout espace vectoriel munie d’une base (ui )i∈I (pas forcément finie), et
Normes
x = i∈I xi ui on définit :
X
• la norme infinie : ∥x∥∞ = max {|xi | , i ∈ I} • la norme 1 : ∥x∥1 = |xi |
i∈I
sX sX
• la norme 2 : ∥x∥2 = |xi |2 • la norme p : ∥x∥p = p |xi |p
i∈I i∈I

Cette définition s’applique en particulier à Kn , mais aussi en dimension infinie.


Pour des fonctions bornées de X dans K, on définit la norme N∞ (f ) = sup |f (x)|
x∈X
Enfin pour ρ ∈ C (X, R+ ) tel que {x ∈ I / ρ(x) ̸= 0}R soit dense dans I, on peut définir une norme
sur {f ∈ C (I, K) / ρf intégrable sur I} par N1 (f ) = I ρ |f |, et de même pour N2

Nouveaux EV normés : les normes connues peuvent s’étendre à d’autres espaces :


— pour F un sev de E, la restriction de N à F est la norme induite sur F .
— pour u : F → E injective, N ◦ u est une norme sur F
Dans l’espace produit de ((E1 , ∥·∥1 ), . . . , (Ep , ∥·∥p ) des EVs normés, pour x = (x1 , . . . , xp ), on définit
n o
la norme produit : ∥x∥ = max ∥x1 ∥1 , . . . , ∥xp ∥p les normes 1, 2 et p et de même pour la distance
dans un espace métrique.

Distance à une partie : on définit d(x, A) = inf {d(x, a), a ∈ A}.


Elle vérifie |d(x, A) − d(y, A)| ⩽ d(x, y).
Partie bornée : on définit le diamètre par diam(A) = sup {d(a, b), (a, b) ∈ A2 }.
On a diam(∅) = 0. C’est une fonction croissante pour l’inclusion. Si diam(A) est fini on dit que A
est bornée.
On a diam(A ∪ B) ⩽ diam(A) + diam(B) + d(A, B) donc la réunion d’un nombre fini de parties
bornées est une partie bornée. On caractérise les parties bornées par les équivalences :
— A est borné
— ∃a ∈ E et r ∈ R∗+ , A ⊂ Bf (a, r)
— ∀a ∈ E, ∃r ∈ R∗+ , A ⊂ Bf (a, r) (partir de r = diam(A ∪ {a}) < +∞

Application bornée : une application de X → E est bornée s’il existe R ∈ R+ tel que ∀x ∈
A ∥f (x)∥ ⩽ R.
L’ensemble des applications bornées est un SEV de F(X, E). Une application peut être bornée pour
une norme, mais pas pour d’autre (sauf si les normes sont équivalentes).

7.2 Suites d’éléments d’un espace vectoriel normé


Définition : c’est une application de N dans E. On dit que la suite (an ) converge s’il existe ℓ ∈ E
telle que (d(an , ℓ))n∈N tend vers 0. La séparation garantit l’unicité de la limite.
— si (an ) → ℓ alors ∥an ∥ → ∥ℓ∥. Toute suite convergente est donc bornée.
— une suite peut converger pour une norme et pas pour un autre
— si (an ) → ℓ1 , si (bn ) → ℓ2 , alors (λan + µbn ) → λℓ1 + µℓ2
— si (an ) → ℓ et (λn ) → λ alors (λn an ) → λℓ

(n) (n)
Dans un espace produit : une suite an = (a1 , . . . , ak ) ∈ (E1 × . . . × Ek )N converge vers
(n) (n)
ℓ = (ℓ1 , . . . , ℓk ) au sens de la norme produit si et seulement si les suites (a1 ), . . . , (ak ) convergent
vers ℓ1 , . . . , ℓk respectivement.

18
Dorian Lesbre Notes Cours Maths MP*

Suite extraite, valeurs d’adhérence : tout comme dans K, on définit une suite extraite à partir
d’une extraction φ comme la suite (aφ(n) )n∈N . La limite d’une suite extraite est une valeur d’adhérence
de la suite. La suite converge si et seulement si elle ne possède qu’une seule valeur d’adhérence : sa
limite.
Caractérisation d’une valeur d’adhérence x (HP) :

∀ε > 0, ∀n ∈ N, ∃n0 ⩾ n, d(an0 , x) ⩽ ε

Pn 
SériesP : à une suite (a n ) on associe la suite (S n ) = p=0 a p , on a un = Sn − Sn−1 . On dit que la
série un converge si (Sn ) converge.
On note Sn (u) la n-ème somme partielle de la série de terme général un et S(u) sa somme. SI une
série converge alors son terme général tend vers 0.

Absolue Pconvergence : on dit que la série de terme général (an ) est absolument convergente
lorsque ∥an ∥ converge. Cependant l’absolue convergence n’implique la convergence qu’en dimen-
X /n ne converge pas dans K[X] mais dans B(N, K))
P n
sion finie (contre exemple :

7.3 Topologie d’un espace métrique


Ouverts et fermés : un ouvert A de E est une partie de E vérifiant :

∀x ∈ A, ∃r > 0, B(x, r) ⊂ A

La proposition avec boules ouvertes ou fermées sont équivalentes.


Un fermé est une partie de E dont le complémentaire est un ouvert

Propriétés : pour E un espace métrique :


— toute boule ouverte est un ouvert (dessin)
— toute boule fermée est un fermé
— une union d’ouverts est un ouvert
— une intersection finie d’ouverts est un ouvert
Par complémentaire, une intersection de fermé est un fermé et une union finie de fermé est un fermé.
Ces notions dépendent de E : ]a, b[ est ouvert dans R, mais pas dans C.
E et ∅ sont ouvert et fermés. Tout singleton est un fermé.

Voisinage : soit V ⊂ E et a ∈ E, V est voisinage de a si

∃r > 0, Bo (a, r) ⊂ V

On note Va l’ensemble des voisinages de a

il existe r > 0, d(a, x) < r → x ∈ V , V contient les points proches de A (mais aussi éventuellement
très loin)

V ⊂ E est un ouvert ⇔ V est voisinage de chacun de ses points

Opérations : pour x ∈ E,
— une intersection finie de voisinage de x est encore un voisinage de x
— si A est un voisinage de x, toute partie contenant A est un voisinage de x.

19
Notes Cours Maths MP* Dorian Lesbre

Limites et voisinages : on a alors une troisième caractérisation de la convergence :


— ∀ε > 0, ∃n0 ∈ N, ∀n ⩾ n0 , ∥an − ℓ∥ ⩽ ε
— ∀ε > 0, ∃n0 ∈ N, ∀n ⩾ n0 , an ∈ Bo (ℓ, ε)
— ∀V ∈ Va , ∃n0 ∈ N, ∀n ⩾ n0 , an ∈ V
Et de même pour les valeurs d’adhérence. On peut caractériser le fait que la suite tend vers l’infini
de la même manière en posant

V∞ = {V ⊂ E / ∃A ∈ V, ∀x ∈ E, ∥x∥ ⩾ A ⇒ x ∈ V }

Et d’une manière similaire V+∞ et V−∞ dans R


Point intérieur, adhérent, intérieur et adhérence d’une partie :
— x est point intérieur de A si A est un voisinage de x.
— l’intérieur Å d’une partie et le plus grand ouvert contenu dans A.
C’est l’ensemble des points intérieurs de A. On a A ouvert ⇔ A = Å
— x est point adhérent à A si ∀r > 0, Bo (x, r) ∩ A ̸= ∅
— l’adhérence A d’une partie est le plus petit fermé contenant A.
C’est l’ensemble des points adhérents. A est fermé ⇔ A = A

On a par ailleurs E \ Adh(A) = Int(E \ A)

Propriétés : on sait que :


— si A ⊂ B alors Å ⊂ B̊ et A ⊂ B
— l’intérieur d’une réunion contient la réunion des intérieurs
— l’intérieur d’une intersection est contenu dans l’intersection des intérieurs (égalité si l’inter-
section est finie).

Caractérisation séquentielle des points adhérents : un point x est adhérent à A si et seule-


ment s’il existe une suite d’éléments de A qui tend vers x.
On en déduit que l’adhérence de A est l’ensemble des limites des suites à valeurs dans A, et qu’une
partie B ⊂ E est fermée si et seulement si le la limite de toute suite convergente à valeur dans B est
dans B.

Extension (HP) de la notion de point adhérent : un point a est adhérent à A ⇔ ∃(an ) ∈


AN , an → a (a peut être l’infini.) on a alors :

a adhérent à A ⇔ ∀V ∈ Va , V ∩ A ̸= ∅

Densité : on dit qu’un ensemble D est dense dans A si :


— A⊂D
— ∀x ∈ A, ∀r > 0, ∃d ∈ D, d(a, x) ⩽ r
— ∀x ∈ A, ∃(dn ) ∈ DN , dn −−−−−→ a
n → +∞

Frontière : pour un ensemble A de E on définit sa frontière par

Fr(A) = A \ Å

On a donc pour tout x ∈ Fr(A), B(x, r) ∩ A ̸= ∅ et B(x, r) ∩ (E \ A) ̸= ∅. La frontière est donc une
partie fermée. De plus Å, Fr(A) et E \ A sont trois ensembles disjoints d’union A.

20
Dorian Lesbre Notes Cours Maths MP*

Ouvert relatif, fermé relatif, voisinage relatif : soit A ⊂ E


— U est un ouvert relatif à A si ∃U b ⊂ E, Ub soit ouvert et U = A ∩ U b
— F est un fermé relatif à A si ∃F ⊂ E, F soit fermé et F = A ∩ F
b b b
— V est un voisinage de a relatif à A si ∃Vb ⊂ E, Vb ∈ Va et V = A ∩ Vb
Il s’agit des ouverts, fermés, et voisinages pour la norme induite sur l’espace A.

7.4 Comparaison de normes


Domination : une norme N1 et dominé par N2 s’il existe un réel α > 0 tel que

∀x ∈ E, N1 (x) ⩽ αN2 (x)

Il suffit de vérifier que N2 (x) = 1 → N1 (x) ⩽ α par homogénéité.


Une suite convergeant vers ℓ pour N2 convergera alors aussi vers ℓ pour N1 . N1 n’est pas dominé par
N2 , s’il existe une suite qui converge pour N2 et non N1

Équivalence : deux normes sont équivalentes s’il existe α > 0 et β tel que

∀x ∈ E, αN1 (x) ⩽ N2 (x) ⩽ βN1 (x)

C’est un relation d’équivalence (double domination). Des normes équivalentes définissent les mêmes
ouverts, fermés, et suites convergentes de mêmes limites.

Topologie (HP) : une topologie est un ensemble E et une partie O de P(E) vérifiant :
— E ∈ O et ∅ ∈ O
— O stable par union dénombrable et par intersection finie
O est l’ensemble des ouverts. F est fermé si E \F ∈ O. V est un voisinage de a si ∃U ∈ O, a ∈ U ⊂ V .
On a la définition topologique de la convergence.
Exemples : un espace métrique, la topologie grossière (E, {E, ∅}) non métrisable et la topologie
discrète (E, P(E)).

8 Limites d’une application, continuité


Soit E et F des espaces métriques, A ⊂ E, f : A → B et a adhérent à A

8.1 Limites d’une application


Définition : on dit que l’application f tend vers ℓ ∈ F en a lorsque l’une des propositions équiva-
lentes suivantes est vérifiée : 
— métrique 1 : ∀ε > 0, ∃η > 0, ∀x ∈ A, d(x, a)  ⩽ η ⇒ d f (x), ℓ ⩽ ε
— métrique 2 : ∀ε > 0, ∃η > 0, f B(a, η) ∩ A ⊂ B(ℓ, ε)
— topologique : ∀V ∈ Vℓ , ∃W ∈ Va , f (W ∩ A) ⊂ V 
— séquentielle : ∀(an ) ∈ AN , lim an = a ⇒ lim f (an ) = ℓ ou f (an ) n∈N converge.
La caractérisation topologique n’est vraie que dans un espace métrique. La convergence suffit pour
l’unicité de la limite dans la caractérisation séquentielle en prenant une suite alternée.
Si f tend vers ℓ en a alors ℓ est adhérent à f (A).

Continuité : pour a ∈ A, on dit que f est continue en a si f (x) −−−→ f (a). Caractérisation
x→a
séquentielle : f continue en a ⇔ ∀(an ) ∈ AN , (an ) → a ⇒ f (an ) → f (a)

21
Notes Cours Maths MP* Dorian Lesbre

Unicité de la limite : si f (x) −−−→ ℓ1 et f (x) −−−→ ℓ2 alors ℓ1 = ℓ2 . (caractérisation séquentielle


x→a x→a
et unicité de la limite sur les suites).
On appelle alors ℓ la limite de f en a noté lima f

Limites infinies : dans R on a les définitions usuelles. Dans E, f (x) −−−→ ∞ si


x→a

∀R ⩾ 0, ∃η > 0, ∀x ∈ E, d(x, a) ⩽ η ⇒ ∥f (x)∥ ⩾ R

Limites à l’infini : pour une fonction définie sur R on a les définitions usuelles en ±∞. Pour une
fonction sur E on a (HP) f tend vers ℓ en ∞ si

∀ε > 0, ∃R ⩾ 0, ∀x ∈ E ∥x∥ ⩾ R ⇒ d f (x), ℓ ⩽ ε
Généralisation : la définition topologique de la limite est la même pour les limites finies/infinies
et a et en l’infini (voisinage de l’infini). Donc deux normes équivalentes définissent les mêmes limites.

8.2 Propriétés des limites


f : A → F vérifie P au voisinage de a si ∃V ∈ Va , P vraie sur V ∩ A

Opération sur les limites : soit f1 et f2 admettant des limites ℓ1 et ℓ2 en a.


— λ1 f1 (x) + λ2 f2 (x) −−−→ λ1 ℓ1 + λ2 ℓ2
x→a
— si f1 est à valeurs dans K, alors f1 (x) · f2 (x) −−−→ ℓ1 · ℓ2
x→a
— si f1 à valeurs dans K et ℓ1 ̸= 0 alors f11(x) → ℓ11
— si g admet une limite α en ℓ, alors (g ◦ f )(x) −−−→ α
x→a

Fonction à valeur dans un espace produit : pour f : E → F1 × . . . × Fp avec F1 × . . . × Fp muni


de la norme produit, on appelle fonction composante les fi : E → Fi telles que f = (f1 , . . . , fp ).
f tend vers ℓ en a si et seulement si ∀i ∈ [[1, p]] , fi → ℓi en a.

Continuité  partielle : pour f : A1 × A2 → F et (a1 , a2 ) ∈ A1 × A2 , on considère les fonctions par-


A1 → F
tielles f1 : et f2 de même. La continuité des fonctions partielles est une condition
x 7→ (x, a2 )
nécessaire non suffisante à la continuité de f .

Obtention de limites (HP) : pour f, g, h : A → F , φ : A → R+ et ℓ ∈ F .


— si d(f (x), ℓ) ⩽ φ(x) au voisinage de a et lima φ = 0 alors lima f = ℓ
— si F = R, g ⩽ f ⩽ h au voisinage de a et g, h → ℓ alors f → ℓ en a
— si F = R, f ⩽ g en a et g → −∞ alors f → −∞

Limites et inégalités : soit f : A → R tel que f (x) −−−→ ℓ


x→a
— si m < ℓ alors m < f au voisinage de a
— si f1 → ℓ1 , f2 → ℓ2 et ℓ1 < ℓ2 alors f1 < f2 au voisinage de a
— si f ⩽ m au voisinage de a alors ℓ ⩽ m
Une fonction continue > 0 en a est strictement positive au voisinage de a.

Prolongement par continuité (HP) : f : A \ {a} → F admet une limite ℓ en a alors la fonction
prolongé par ℓ en a est continue en a.

22
Dorian Lesbre Notes Cours Maths MP*

Limite selon une partie : soit P ⊂ A, on dit que f admet une limite ℓ en a selon P si la
restriction de f à P tend vers ℓ en a. On a notamment les limites à droite et à gauche des fonctions
réelles.
— si lim f = b alors ∀P ⊂ A, a adhérent à P ⇒ x→a
lim f (x) = b
a
x∈P
— si f admet une limite ℓ selon P et Q alors elle admet ℓ pour limite selon P ∪ Q

Comparaison de fonctions : au voisinage d’un point, on retrouve les définitions de o, O et ∼


8.3 Continuité globale
Définition : une application est continue si elle est continue en tout point de son ensemble de
définition.
Deux fonctions continues coïncidant sur une partie dense sont égales.
Fonction lipschitzienne : f est k-lipschitzienne si :

∀(x, y) ∈ A2 , d f (x), f (y) ⩽ d(x, y)




— Toute application lipschitzienne est continue


— La composée de f k1 -lipschitzienne et g k2 -lipschitzienne est k1 k2 -lipschitzienne.
— L’ensemble des fonctions lipschitzienne est un sous-espace vectoriel invariant par normes équi-
valentes.
— u ∈ L (A, F ) est k-lipschitzienne ⇔ ∀x ∈ a, ∥u(x)∥ ⩽ k ∥x∥

Opérations sur les fonctions continues : les combinaisons linéaires et produits d’applications
continues sont continues. De même dans Kn les applications polynomiales et rationnelles sont conti-
nues sur leur ensemble de définition. Enfin la composée de f : A → B et g : B → C continue est
continue. On le montre par caractère lipschitzien ou caractérisation séquentielle.

Homéomorphisme (HP) : une bijection réciproque n’est pas forcément continue (t ∈ [0, 2π[7→
eit ∈ U à une réciproque discontinue en 1). Si c’est le cas on parle d’homéomorphisme. Si f : E → F
est bicontinue ou homéomorphique on dit que E et F sont homéomorphes.

Topologie est continuité : l’image réciproque de tout ouvert, fermé ou voisinage est un ouvert
fermé ou voisinage. (l’image réciproque est compatible avec les opérations ensemblistes)
On en déduit la nature ouvert/fermé des solutions d’équation/inéquations.

Continuité uniforme : f est uniformément continue si

∀ε > 0, ∃η > 0, ∀(x, y) ∈ A2 , d(x, y) ⩽ η → d f (x), f (y) ⩽ ε




L’uniforme continuité implique la continuité et le caractère lipschitzien implique l’uniforme continuité.


Caractérisation séquentielle : f est uniformément continue si et seulement si

∀(xn ), (yn ) ∈ (AN )2 , d(xn , yn ) → 0 ⇒ d f (xn ), f (yn ) → 0




Continuité des applications linéaire : soit E et F deux espaces vectoriels normés et u ∈


L (E, F ). On a
u est continue ⇔ ∃k ∈ R, ∀x ∈ E, ∥u(x)∥ ⩽ k ∥x∥
Il suffit même de vérifier que l’image de la sphère unité est bornée. ⇒ par caractère lipschitzien, ⇐
prendre ε = 1... On en déduit que l’ensemble LC est stable par combinaison linéaire et composition.

23
Notes Cours Maths MP* Dorian Lesbre

Continuité et dimension finie : toute application linéaire est continue en dimension finie. En
dimension infinie, on montre qu’une application linéaire n’est pas continue en exhibant (xn ) tel que
(xn ) bornée et non (f (xn )) ou tel que xn → 0 et non (f (xn ))

Application linéaire et série : si u est une application linéaire alors

+∞ +∞
!
X X X X
xn converge ⇒ u(xn ) converge et u(xn ) = u xn
n=0 n=0

9 Connexité par arcs, compacité, dimension finie


9.1 Connexité par arcs
Chemin : soit A une partie de E métrique. Soit (x, y) ∈ A2 . On dit qu’il existe un chemin de x à
y s’il existe une fonction p continue d’un segment [a, b] de R dans A tel que p(a) = x et p(b) = y.
On peut se limiter à des fonctions définies sur [0, 1]. A est connexe par arc si ∀(x, y) ∈ A2 , il existe
un chemin de x à y.
— cette notion est invariante par norme équivalente.
— c’est une notion intrinsèque à A, elle ne dépend pas de E.
— une union d’intersection non-vide de connexes par arc est connexe par arc.
— les parties connexes par arcs de R sont les intervalles.

Composantes connexes par arc : la relation “il existe un chemin entre x et y” est une relation
d’équivalence. Ses classe d’équivalence sont appelées les composantes connexes par arcs. A est connexe
par arc si et seulement si elle n’admet qu’une seule composante connexe par arc.

Partie étoilée : on dit que A ⊂ E ev normé est étoilée par rapport à a ∈ A lorsque ∀x ∈ A, [a, x] ∈
A.
Une partie étoilée est connexe par arc.

Image continue d’un connexe par arcs : l’image continue d’un connexe par arcs est un connexe
par arcs. (composition du chemin continu et de f continue)

Partie connexe (HP)

Définition : un espace métrique X est connexe si les seuls parties ouvertes et fermées de X sont
X et ∅.
Tout connexe par arcs est connexe, car 11P pour P ouvert et fermé est continue donc constante.

Constance locale : une application est localement constante si elle est constante au voisinage de
tout point. Une application localement constante sur un connexe, et donc sur un connexe par arcs,
est continue.

9.2 Compacité
Compact : une partie K de A est un compact si toute suite de KN admet une sous suite convergente
dans K

24
Dorian Lesbre Notes Cours Maths MP*

Propriétés de compacts :
— Ils ne sont pas relatifs (les compacts de R sont des compacts de C).
— Ils sont fermés et bornés. (dans Rn ce sont exactement les fermés et bornés)
— Tout fermé d’un compact est un compact
— Ils sont invariants par normes équivalentes
— Un produit cartésien de compact est un compact

Compacts et suite : une suite à valeurs dans un compact converge si et seulement si elle admet
une unique valeur d’adhérence.

Compact et application : soit f : K → A continue et K compact.


— f (K) est un compact, donc f est bornée et atteint ses bornes
— si f est bijective alors f −1 est continue
— f est uniformément continue.

Réunion et intersection de compacts (HP)


T
Compacts emboités : pour (An ) une suite décroissante de compacts non-vides, on a n∈N An ̸= ∅.
On en déduit que (il existe xn ∈ An ..., cette suite admet une valeur d’adhérence). On a alors les
résultats équivalents :
\ \n
— pour Fn une suite de fermés d’un compact K, Fn = ∅ ⇒ ∃n ∈ N, Fk = ∅
n∈N k=0
[ n
[
— pour Un une suite d’ouverts, on a K ⊂ Un → ∃n ∈ N, K ⊂ Uk
n∈N k=0

T dénombrable de K
Inversement, si on peut extraire un sous-recouvrement fini de tout recouvrement
par des ouverts, K et compact. (prendre une suite uk dans K, on a K ∩ ( n∈N {xp , p ⩾ n}) ̸= ∅
d’après la propriété sur les fermés).

Théorème de Borel-Lebesgue (HP) : K est compact si et seulement si de tout recouvrement


de K par des ouverts on peut extraire un recouvrement fini.

9.3 Dimension finie


Norme infinie :  il existe (e1 , . . . , en ) une base
 de E. On définit la norme infinie par N∞ (x) =
n
(K , ∥·∥ ) → (E,
P ∞)N
max |e∗i (x)|. Ainsi ∞ est une isométrie.
i∈[[1, n]] (xi ) 7→ xi ei
— les compacts de E sont exactement les fermés bornées comme
P Kn
dansP
— toutes les normes de E sont équivalentes à N∞ car N ( xi ei ) ⩽ ( N (ei ))N∞ (x) et que N
continue donc N (S(0, 1)) est un compact.

P
Fonctions coordonnées : pour f : A → F on peut écrire f (x) = fi (x)ei , définissant ainsi les
fonctions composantes dans la base (e1 , . . . , en ) fi . On a alors :
— f admet une limite finie en a adhérant à A ⇔ ∀i, fi admet une limite finie en A
— f est continue/lipschitzienne/uniformément continues si et seulement si toutes les fi sont
continues/lipschitziennes/uniformément continues.
— une suite converge si et seulement si toutes ses suites coordonnées convergent
— toute série absolument convergente est convergente.

25
Notes Cours Maths MP* Dorian Lesbre

Compacité : les compacts sont exactement les fermés bornées t dimension finie.
— toute suite bornée admet une valeur d’adhérence
— toute suite bornée converge si et seulement si elle n’admet qu’une valeur d’adhérence.
— la boule unité fermé est un compact de E
On en déduit aussi qu’un SEV F de dimension finie d’un EV E est un fermé de E, puis que pour
tout x ∈ E, d(x, F ) est atteinte (continuité de a → d(x, a) sur un compact inclus dans F )

Théorème de Riesz (HP) : si la boule unité d’un EV normée est compact, alors cet EV est de
dimension finie.

10 Espaces vectoriels et algèbres


Revoir le cours de sup sur les espaces vectoriels et la dimension finie.

10.1 Dualité
Dual : soit E un espace vectoriel. L’espace dual et l’ensemble des formes linéaires : E ∗ = L (E, K).
les hyperplans sont les noyaux des formes linéaires non nulle (⇔ sev admettant une droite pour
supplémentaire). Deux formes linéaires ont même noyau si et seulement si elles sont proportionnelles.

Formes coordonnées : pour B = (e1 , . . . , en ) une base de E, on définit e∗i comme les formes
linéaires vérifiant (e∗i (ej ) = δi,j . Elle constitue une famille libre de E ∗ (base si dim E < ∞)
X n Xn
∗ ∗
En dimension finie n : ∀x ∈ E, x = ei (x) et ∀φ ∈ E , φ = φ(ei )e∗i
i=1 i=1

Bidual : pour φ ∈ E ∗ et x ∈ E on pose x̂(φ) = φ(x). La fonction j : x 7→ x̂ est linéaire injective


de E dans (E ∗ )∗ . C’est un isomorphisme si dim E < ∞.

Orthogonalité (HP) : On définit deux notions d’orthogonalités :


— pour A ⊂ E, A⊥ = {φ ∈ E ∗ / ∀x ∈ A, φ(x) = 0} =T x∈A Ker(x̂)
T
— pour B ⊂ E ∗ , B⊥ = x ∈ E / ∀φ ∈ B, φ(x) = 0 = φ∈B Ker(φ)
En dimension finie on a B ⊥ = j(B⊥ ) (j est isomorphique). On a alors
— A 7→ A⊥ et B 7→ B⊥ sont décroissantes
— A⊥ et B⊥ sont des sous-espaces vectoriels
— A⊥ = Vect(A)⊥ et B⊥ = Vect(B)⊥ même si A et B ne sont pas des SEV
— A ⊂ (A⊥ )⊥ (égalité en dimension finie)
— dim A⊥ = dim E − dim A et dim B⊥ = dim E − dim B

10.2 Algèbres
Application bilinéaire : une application b : E × F → G est bilinéaire si b′ : x 7→ b(x, y0 ) et b′′ :
y 7→ b(x0 , y) sont linéaires pour tout (x0 , y0 ) ∈ E × F .
Si (ei )i∈I est une base de E, (fj )j∈J une de F et (z(i,j) )(i,j)∈I×J une famille de G, alors il existe une
unique application bilinéaire b : E × F → G vérifiant ∀(i, j) ∈ I × J, b(ei , fj ) = z(i,j)

26
Dorian Lesbre Notes Cours Maths MP*

Algèbre : une algèbre est un K-espace vectoriel muni d’une loi de composition interne bilinéaire,
associative possédant un neutre noté 1A .
Autre définition : un anneau muni d’une multiplication externe vérifiant

∀(λ, a, b) ∈ K × A2 λ · (a × b) = (λ · a) × b = a × (λ · b)

Sous-algèbre : c’est un sous-espace vectoriel stable par multiplication et contenant 1A . Une inter-
section de sous-algèbre est une sous-algèbre. On a donc la notion de sous-algèbre engendrée par une
 sous-algèbre est Vect(1A ). La plus petite sous algèbre d’un élément a ∈ A est
partie. La plus petite
k
K[a] = Vect (a )k∈N

Morphisme d’algèbre : c’est une fonction f : A → B vérifiant :


— f linéaire : f (λ · a + µ · b) = λ · f (a) + µ · f (b)
— f compatible avec le produit : f (a × b) = f (a) × f (b)
— f (1A ) = 1B
Vect(1A ) est isomorphe à K. Toute algèbre contient donc K. L’image et l’image réciproque d’une
sous-algèbre par un morphisme d’algèbre est une sous-algèbre.

Idéaux d’une algèbre : soit A une algèbre. Un idéal I de A est :


— un sous-espace vectoriel de A
— un ensemble absorbant : ∀a ∈ A, ∀i ∈ I, ai ∈ I et ia ∈ I
Le noyau d’un morphisme d’algèbre est un idéal.

10.3 Substitution polynomiale, polynômes annulateurs


Substitution : pour A une algèbre et P ∈ K[X], on définit P (A) = pi Ai .
P
Si A = K, on retrouve la fonction polynomiale, si A = K[X], il s’agit de la composition. L’application
P 7→ P (u) est un morphisme d’algèbre

 
K[X] → A
Idéal annulateur : pour u ∈ A, l’idéal annulateur de u est le noyau du morphisme .
P 7→ P (u)
Tout élément de l’idéal annulateur est un polynôme annulateur.
Pour I un idéal de K[X], il existe un unique Π unitaire ou nul tel que I = ΠK[X] (division euclidienne
et minimalité). C’est le générateur unitaire de I.
Si u ∈ A admet un polynôme annulateur non-nul, on définit son polynôme minimal comme le poly-
nôme unitaire générateur de son idéal annulateur. Les polynômes annulateurs sont alors des multiples
de πu
— u ∈ L (E) nilpotent a X n comme annulateur (donc X k comme minimal)
— les projecteurs admettent X 2 − X

Sous-algèbre engendrée : pour u ∈ A, on la note K[u] = {P (u), P ∈ K[X]}. Si u admet un


polynôme minimal de degré d, alors K[u] = Vect(1A , u, . . . , ud−1 ) est de dimension finie. On peut
déterminer P (u) par le reste de la division de P par πu . Sinon K[u] est isomorphe à K[X]

Dimension finie : en dimension finie, tout élément admet un polynôme minimal.

27
Notes Cours Maths MP* Dorian Lesbre

11 Réduction des endomorphismes


E est un K-espace vectoriel de dimension quelconque non nulle, K = R ou C

11.1 Quelques outils


SEV stable : soit u ∈ L (E). Un sous-espace vectoriel F de E est table par u si u(F ) ⊂ F . SI
(ei )i∈I est une famille génératrice de F alors

F est stable par u ⇔ ∀i ∈ I, u(ei ) ∈ F

Si u ◦ v = v ◦ u alors Im(v) et Ker(v) sont stables par u.

Endomorphisme
 induit  : pour u ∈ L (E) et F un SEV stable par u on définit l’endomorphisme
F → F
induit uF : . Ce n’est pas une restriction.
x 7→ u(x)
Im(uF ) = u(F ) et Ker(uF ) = Ker(u) ∩ F
 
A B
Traduction matricielle : dans une base b = b1 ∧b2 adaptée à F , Mb (u) = A = Mb1 (uF ),
0 D
D =LMb2 ((p ◦ u)G ) avec G = Vect(b2 ) et p la projection sur G parallèlement
L à F . Plus généralement
n
si E i=1 Ei , chacun des Ei est stable par u si dans une base adaptée à Ei la matrice de u s’écrit
A1 0 · · · 0 
.. ..
0 A2 . . 
. .. .. 
.. . . 0
0 ··· 0 An

pi X i ∈ K[X], u ∈ L (E) et A ∈ Mn (K), on pose


P
Polynôme
P d’endomorphismes : pour P =
P (u) = pi ui et P (A) = pi Ai
P

Endomorphismes nilpotents : u ∈ L (E) est nilpotent s’il existe k ∈ N tel que uk = 0. L’indice
de nilpotence est le plus petit entier r tel que ur = 0. Si E ̸= 0, u est non injectif et non surjectif et
r ⩾ 1. On définit de même la nilpotence sur les matrices. 
Si u est nilpotent d’indice r et x ∈ E \ Ker(ur−1 ) alors x, u(x), . . . , ur−1 (x) est libre. On en déduit
que r ⩽ dim E.
Il existe une base dans laquelle la matrice de u est triangulaire supérieure stricte. Toute matrice
nilpotente est semblable à une matrice triangulaire supérieure stricte.

Polynôme annulateur et minimaux : en dimension finie, tout endomorphisme/matrice admet


un polynôme annulateur non nul, donc un polynôme minimal.
— si P (u) = 0 et P (0) ̸= 0 alors u est inversible (P = XQ + p0 donc 0 = u ◦ (Q(u)) + p0 In )
— si E ̸= {0} alors deg πu ⩾ 1 avec égalité si et seulement si u est une homothétie
— si F est stable par u et u admet un polynôme minimal, alors uF aussi et πuF divise πu

Lemme de décomposition des noyaux : soit P = ri=1 Pi un polynôme avec (P1 , . . . , Pr )


Q
premier entre eux 2-à-2. Soit u ∈ L (E) un endomorphisme, on a
r
M
 
Ker P (u) = Ker Pi (u)
i=1

28
Dorian Lesbre Notes Cours Maths MP*

Démo par récurrence en utilisant l’assoc de ⊕ et Bézout pour le cas r = 2.


Utile si p est annulateur (Ker(P (u)) = E). On retrouve E = Ker(p−id)⊕Ker(p) pour les projecteurs
ou le résultat sur les suites récurrentes d’ordre 2

11.2 Éléments propres


Valeur propre : soit u ∈ L (E), λ ∈ K est une valeur propre de u s’il existe x ∈ E non-nul tel
que u(x) = λx
On dit que x est un vecteur propre associé à λ. L’ensemble des vecteurs propres d’un λ est un sous-
espace vectoriel de E noté Eλ (u) = Ker(u − λidE ) ̸= {0}

Propriétés :
— Les vecteurs propres associés à λ sont ceux de Eλ (u) \ {0}.
— Si λ ̸= 0 alors Eλ (u) ⊂ Im(u)
— Si (λ1 , . . . , λn ) sont valeurs propres 2-à-2 distinctes alors Eλ1 ⊕. . .⊕Eλn (une famille de vecteur
propre associées à des valeurs distinctes est donc libre).
— Si F est stable par u, si Eλ (u) ∩ F ̸= {0} alors Eλ (uF ) = Eλ (u) ∩ F (sinon λ n’est pas valeur
propre de uF )

P de la dimension finie : si (λ1 , . . . , λn ) sont des valeurs propres de u 2-à-2 distinctes, alors
Cas
dim Eλi (u) ⩽ dim E.
On pose sp(u) l’ensemble des valeurs propres de u. Il contient au plus dim E éléments. (en dim infinie,
c’est l’ensemble de λ tel que u − λidE non bijectif).

Matrices : on définit similairement aux endomorphismes les éléments propres d’une matrice. Pour
A ∈ Mn (K) et u l’endomorphisme de a dans (ei ), on a


x 1
xi ei ∈ Eλ (u) ⇔ X =  ...  ∈ Eλ (A)
X
x=
 
xn

Deux matrices semblables ont même spectre et si A = P BP −1 alors Eλ (A) = P Eλ (B).

Spectre et corps si A ∈ Mn (K′ ) avec K′ sous corps de K, on a spK′ (A) = spK (A) ∩ K′ .
Dans C, λ ∈ spC (A) ⇔ λ ∈ spC (A) car si (X1 , . . . , Xn ) est une base de Eλ (A) alors (X1 , . . . , Xn ) est
libre dans Eλ (A). Donc dim Eλ (A) = dim Eλ (A)

Avec les polynômes annulateurs : pour x ∈ Eλ (u), on a P (u)(x) = P (λ)x pour tout polynôme.
Toute valeur propre est donc racine d’un polynôme annulateur.
(HP) si un endomorphisme admet un polynôme minimal πu , ses valeurs propres sont les racines de
πu (écrire π = (X ∗ µ)Q si µ n’est pas valeur propre, Q(u) = 0...)

Théorème de Cayley-Hamilton : le polynôme caractéristique de u annule u : χu (u) = 0 (c’est


donc un multiple du polynôme minimal)
Si u est une matrice compagnon, χu = πu . Sinon pour x ∈ E, (x, u(x), u2 (x), . . .) est une base du sev
stable par u contenant x dont la matrice est une matrice compagnon.

29
Notes Cours Maths MP* Dorian Lesbre

11.3 Polynôme caractéristique


Définition : pour une A ∈ Mn (K) on appelle polynôme caractéristique l’unique polynôme χA ∈
K[X] tel que :
∀λ ∈ K, χA (λ) = det(λIn − A)
Existe car det est polynomial, unique car K est infini.

Propriétés :
— on peut voir det(XIn − A) comme déterminant d’une matrice de M] (C[X) n
— si A ∈ Mn (R), χA est le même dans R et dans C
— χA (X) = X n − Tr(A)X n−1 + . . . + (−1)n det A (développement du det)

Polynôme caractéristique et spectre :


— le racines de χA sont les valeurs propres de A
— si A est triangulaire de diagonale (a1 , . . . , an ) alors χa = ni=1 (X − ai )
Q
— si K = C ou K = R et n impair, alors A admet au moins une valeur propre.

Polynôme caractéristique d’un endomorphisme : deux matrices semblables ont même poly-
nôme caractéristique. det(XIn − P AP −1 ) = det(P (XIn − A)P −1 ) = det(XIn − A)
On définit le polynôme caractéristique d’un endomorphisme en dim finie comme le
polynôme de sa matrice dans une base. Il vérifie les même propriétées que le matriciel.
De plus, si F stable par u alors χuF divise χu (matrice dans une base adaptée...). Donc
si χu est scindé alors χuF aussi

Multiplicité d’une valeur propre : en dim finie, c’est la multiplicité de λ en tant que
racine de χA . On a
— ∀λ ∈ sp(u), 1 ⩽ dim Eλ (u) ⩽ m(λ)
— si rgu Q par X n−r
= r, alors χu est divisible P Q
— χA = (X − λi ) donc Tr(A) = λi et det(A) = λi

11.4 Diagonalisation
En dimension finie
Définition : soit u ∈ L (E). On dit que u est diagonalisable s’il existe une base b
de E telle que Mb (u) soit diagonale. b est alors appelée base de diagonalisation. Une
matrice est diagonalisable si elle est semblable à une matrice diagonale
Mb (u) est diagonalisable ⇔ u est diagonalisable.
u est diagonalisable s’il existe une base (ei ) de E constituée de vecteurs propres de u,
alors Mb (u) = P DP −1 avec P = [e1 , . . . , en ]

Critère de diagonalisation : si sp(u) = {λ1 , . . . , λp } distincts 2-à-2,


— u est L
diagonalisable
— E= Eλi (u)

30
Dorian Lesbre Notes Cours Maths MP*

P
— dim Eλi (u) = dim E (on a déjà la somme directe sur de vp distinctes)
Prendre une base adaptée à la diagonalisation où aux sous-espaces propres...
— On a les même énoncés sur les matrices.
— Si u admet n vp alors u diagonalisable.
— projecteurs et symétries sont diagonalisables

Avec le polynôme caractéristique :

• χu scindé à racines simples =⇒ u diagonalisable



χu scindé sur K
• ⇐⇒ u diagonalisable
∀λ ∈ sp(u), dim Eλ (u) = m(λ)
on s’intéresse surtout aux valeurs propres multiples, par exemple rg(u − λid)

Avec les polynômes annulateurs : on a les équivalences :


— u est diagonalisable
— u possède un polynôme annulateur scindé à racines simples
— πu est scindé à racines simples
Q
Prendre P = (X − λ) et utiliser la décomposition des noyaux. On en déduit que si
u est diagonalisable et F stable par u, alors uF est diagonalisable.

Projecteur spectraux (HP) : ce sont les projecteurs pλ sur la décomposition E =


λpλ ce qui permet de calculer un
L P
λ Eλ (u) pour u diagonalisable. On a u =
(mieux que la diagonalisation s’il y a des racines multiples...) Ces projecteurs sont des
polynômes en u.

11.5 Trigonalisation
Définition : en dimension finie, un endomorphisme u est trigonalisable s’il existe
une base b tel que Mb (u) soit triangulaire supérieure.
Une matrice est trigonalisable si elle est semblable à une matrice triangulaire supérieure
Ces deux définitions sont équivalentes par l’association matrice-endomorphisme. Dans
la base (ei , . . . , en ) de trigonalisation, les Vect(e1 , . . . , ei ) sont stables par u.

Lemme de récurrence : si u ∈ L (E) possède une  propre λ, alors il existe une


valeur 
λ ∗
base de E dans laquelle sa matrice est de la forme
0 A

Lien avec le polynôme caractéristique : un endomorphisme/une matrice est trigona-


lisable si et seulement si son polynôme caractéristique est scindé.
Toute matrice est donc trigonalisable dans C

31
Notes Cours Maths MP* Dorian Lesbre

Pratique de la trigonalisation : dans M3 (K)h :


a 0 ∗
i
— si sp(A) = (a, b, b) alors dans une base 0 b ∗
0 0 b
— si sp(A) = (a, a, a) alors soit dim Ea (A) = 2 comme ci-dessus, sinon
ha 1 v0=
i A−aIn
est nilpotente d’indice 3 (noyau de dim 1) donc dans une base 0 a 1
0 0 a

Endomorphismes nilpotent : on a les équivalences


— u est nilpotent
— il existe une base dans laquelle la matrice de u est triangulaire supérieure
— le polynôme caractéristique de u est X n

Polynômes annulateurs : si u possède un polynôme annulateur scindé, E peut se


décomposer en une somme directe des SEV stable par sur lesquels u induit la somme
d’une homothétie et d’un endomorphisme nilpotent (et est donc trigonalisable HP).

Application : on peut utiliser les polynômes annulateurs pour résoudre des équations
différentielles ou des suites récurrentes.

12 Espaces préhilbertiens réels et euclidiens


12.1 Définitions
Produit scalaire : un produit scalaire est une fonction de E × E → R bilinéaire
symétrique définie (⟨x, x⟩ = 0 ⇒ x = 0) positive (⟨x, x⟩ ⩾ 0).
Un espace préhilbertien réel est un R-espace vectoriel muni d’un produit
p scalaire. Un
espace euclidien est préhilbertien de dimension finie. On note ∥·∥ = ⟨·, ·⟩ la norme
euclidienne associée au produit scalaire. C’est une norme
— Inégalité de Cauchy-Schwarz : |⟨x, y⟩| ⩽ ∥x∥ ∥y∥
avec égalité ⇔ ∃λ ∈ R+, x = λy ou y = λx
 ∥x + y∥ ⩽ ∥x∥ + ∥y∥
— Inégalité triangulaire : avec égalité ⇔ ∃λ ∈ R+ , x = λy ou y = λx
|∥x∥ − ∥y∥| ⩽ ∥x ± y∥

 2 2 2
 2 ⟨x, y⟩ = ∥x + y∥ − ∥x∥ − ∥y∥
— Formules de polarisation : 2 ⟨x, y⟩ = ∥x∥2 + ∥y∥2 − ∥x − y∥2
4 ⟨x, y⟩ = ∥x + y∥2 − ∥x − y∥2

— Identité du parallélogramme : ∥x + y∥2 + ∥x − y∥2 = 2(∥x∥2 + ∥y∥2

Orthogonalité : on note x ⊥ y ⇔ ⟨x, y⟩ = 0 et A ⊥ B ⇔ ∀(a, b) ∈ A × B, a ⊥ b.


Enfin on définit A⊥ = {x ∈ E / ∀a ∈ A, x ⊥ a}
— A⊥ = Vect(A)⊥ est un SEV fermé de E

32
Dorian Lesbre Notes Cours Maths MP*

— A ⊂ (A⊥ )⊥ avec égalité en dimension finie


— A ⊕ A⊥ (= E en dimension finie)
Une famille est orthogonale si elle est composée de vecteurs 2-à-2 orthogonaux. Elle
est alors libre. Elle est normée si ses vecteurs sont de norme 1.

∀(x, y) ∈ E 2 , x ⊥ y ⇔ ∥x∥2 + ∥y∥2 = ∥x + y∥2 (Pythagore)

∥ei ∥2 = ∥ ei ∥2 .
P P
Plus généralement, pour (ei ) orthogonale

Base orthonormée : tout espace euclidien admet une base orthonormée (e1 , . . . , en ).
2
Pour (x, y) ∈ E on a alors :
X X
x= ⟨x, ei ⟩ ei et ⟨x, y⟩ = x i yi

Lemme de Riesz : pour a ∈ E, on définit φa : x 7→ ⟨a, x⟩. La fonction φ : a 7→ φa


est linéaire injective de E dans E ∗ donc bijective. Pour toute forme linéaire u il existe
donc un unique a ∈ E tel que u = φa
On a en particulier e∗i = φei (l’orthogonalité euclidienne correspond à celle de dualité)

Produit vectoriel (HP) : dans un espace euclidien de dimension n orienté, on définit le


produit mixte par [x1 , . . . , xn ] = detB (x1 , . . . , xn ) ou B est orthonormée directe. Pour
(x1 , . . . , xn−1 ) fixé, f : x 7→ [x1 , . . . , xn−1 , x] est une forme linéaire donc f = ⟨w, ·⟩. w
est alors le produit vectoriel x1 ∧ . . . ∧ xn−1

12.2 Projection orthogonale

Supplémentaire orthogonal : si F admet un supplémentaire orthogonal G tel que


G + F = E et G ⊥ F alors G = F ⊥ et F = (F ⊥ )⊥ .
On peut alors par unicité définir la projection orthogonale sur F parallèlement à F ⊥
noté πF . On a ∀x ∈ E, ∥πF (x)∥ ⩽ ∥x∥.
Si F = Vect(e1 , . . . , en ) est de dimension finie et (ei ) orthonormé, alors πF (x) =
⟨x, ei ⟩ ei . Si E est de dimension finie Si F ⊕ F ⊥ = E alors πF + πF ⊥ = idE
P

Distance à un SEV : si F est un SEV de E préhilbertien réel admettant un supplémen-


taire orthogonal. Alors pour tout x ∈ E, d(x, F ) est atteinte et d(x, F ) = d(x, πF (x)).

Inégalité de Bessel : pour un sev de dimension finie F = Vect(e1 , . . . , en ),


X
∀x ∈ E, ⟨ei , x⟩2 = ∥pF (x)∥2 ⩽ ∥x∥2

33
Notes Cours Maths MP* Dorian Lesbre

Procédé d’orthonormalisation de Schmidt : pour (e1 , . . . , en ) une base, il existe (f1 , . . . , fn )


une base orthonormée telle que ∀p ∈ [[1, n]] , Vect(e1 , . . . , ep ) = Vect(f1 , . . . , fp ). On a
unicité si on impose ⟨ei , fi ⟩ > 0 (récurrence...)
L’énoncé reste vrai pour des familles libre dénombrable en dimension infini.

Suite orthonormée totale : une suite orthonormée (en )n∈N est totale si Vect (en )n∈N =
E.
Si pn désigne la projection orthogonale sur Vect(e1 , . . . , en ), alors pour tout x ∈ E,
pn (x) → x

Égalité de Parseval-Bessel : si (en )n∈N est orthonormée totale alors pour tout x ∈ E,
P 2
la série ⟨x, en ⟩ converge et
+∞
X
⟨en , x⟩2 = ∥x∥
n=0

12.3 Endomorphismes d’un espace euclidien


Endomorphisme symétrique : u ∈ L (E) est symétrique si

∀(x, y) ∈ E 2 , ⟨x, u(y)⟩ = ⟨u(x), y⟩

Pour b une base orthonormée, u est symétrique ⇐⇒ Mb (u) est symétrique. L’espace
S(E) des endomorphismes symétriques est donc dimension n(n+1)
2

un projecteur est orthogonal si et seulement s’il est symétrique

Réduction des endomorphismes symétriques : soit u ∈ S(E)



— si F stable par u alors F est stable par u
— les sous-espaces propres sont donc 2-à-2 orthogonaux
— Si E est un R-espace vectoriel de dimension finie non-nulle, alors il existe un
SEV stable de E de dimension 1 ou 2

Théorème spectral : soit E euclidien et u ∈ S(E)


— E est la somme directe orthogonale des sous-espaces propre de u
— E possède une base orthonormée de vecteurs propres de u
— u est diagonalisable dans une base orthonormée
En version matricielle, on définit les matrices orthogonales comme vérifiant l’une des
propriétés équivalentes suivantes :

• P ∈ Gln (R) et P −1 = tP • P tP = In • t
P P = In
• (C1 (P ), . . . , Cn (P )) orthonormée • (L1 (P ), . . . , Ln (P )) orthonormée

34
Dorian Lesbre Notes Cours Maths MP*

Pour Q une matrice symétrique, il existe alors P ∈ On (R) et D diagonale telle que S =
P DP −1 = P DtP (elle est orthogonalement diagonalisable). Une matrice symétrique
réelle est donc diagonalisable.
Diagonalisation : déterminer le spectre et une base orthonormée des sous-espaces
propres, pour inverser la matrice, il suffit de transposer...

Application (HP) : le plus petit k (norme subordonnée) vérifiant ∀x ∈ E, ∥u(x)∥ ⩽


k ∥x∥ est le rayon spectral de u : maxλ∈sp(u) |λ|

Endomorphisme symétrique positif (HP) : u ∈ S(E) est positif si toutes ses valeurs
propres sont positives, et défini positif si elles sont strictement positives.
Pour u ∈ S(E) positif, il existe un unique endomorphisme v symétrique positif tel
que v 2 = u (existence : avec le théorème spectral, unicité par la restriction de v aux
sous-espaces propres)

Décomposition polaire (HP) : pour M ∈ Gln (R), il existe un unique couple (O, S) ∈
On (R) × Sn (R) tel que M = OS (considérer la racine de tM M )

Automorphismes orthogonaux

Isométrie vectorielle : un endomorphisme u est une isométrie vectorielle si

∀x ∈ E, ∥u(x)∥ = ∥x∥

une isométrie vectorielle est un automorphisme qui conserve le produit scalaire (relation
de polarisation)

Caractérisation des isométries :on a les équivalences


— u est une isométrie vectorielle
— pour B une base orthonormée, u(B) est une base orthonormée
— MB (u) est orthogonale

Automorphismes orthogonaux
 du plan : dans un plan, les automorphisme
 sont soit

cos(θ) − sin(θ) cos(θ) sin(θ)
des rotations R(θ) = ou des symétries S(θ) = .
sin(θ) cos(θ) sin(θ) − cos(θ)
Les isométries vectorielles sans valeurs propres sont donc des rotations d’angle non
multiple de π.

Réduction des automorphismes orthogonaux : pour u ∈ O(E), il existe une base B


telle que MB (u) soit diagonales par bloc avec
— des blocs de taille 1 valant ±1
— des blocs de taille 2 de la forme R(θ)

35
Notes Cours Maths MP* Dorian Lesbre

 
R(θ) 0
En dimension 3, les isométries vectorielles sont de la forme
0 ±1

12.4 Compléments (HP)

Formes bilinéaires symétriques et formes quadratiques : une forme f est bilinéaire


symétrique si ∀(x, y) ∈ E 2 , f (x, y) = f (y, x).
A f on associe la forme quadratique q : x 7→ f (x, x). Les formules de polarisation
donne f en fonction de q : f (x, y) = q(x+y)−q(x)−q(y)
2 .
Matrice d’une forme bilinéaire : il s’agit de la matrice M(ei ) (f ) = (f (ei , ej )) 1⩽i⩽n
1⩽j⩽n

pour u ∈ L (E), φu : (x, y) 7→ ⟨x, u(y)⟩ est


Représentation des formes bilinéaires :
un isomorphisme de L (E) sur BL (E) ou de S(E) sur BLS(E)

Adjoint : pour u ∈ L (E), il existe un unique u∗ ∈ L (E) tel que ∀(x, y) ∈


E 2 , ⟨u(x), y⟩ = ⟨x, u∗ (y)⟩
u symétrique si et seulement si u = u∗ et u orthogonal si et seulement si u−1 = u∗ .
Dans une base b orthonormée, Mb (u∗ ) = tMb (u)

13 Suites et séries de fonctions

13.1 Suites de fonctions

Convergence : soit E et F deux espaces vectoriels normés, A ⊂ E et (fn ) ∈ (F A )N


une suite de fonctions
— (fn ) converge simplement sur A si ∀x ∈ A, fn (x) converge. On pose alors f (x) =
lim fn (x) la limite de fn

∀x ∈ E, ∀ε > 0, ∃n0 ∈ n, ∀n ⩾ n0 , ∥fn (x) − f (x)∥ ⩽ ε

— (fn ) converge uniformément sur A s’il existe f telle que

∀ε > 0, ∃n0 ∈ n, ∀n ⩾ n0 , ∀x ∈ E, ∥fn (x) − f (x)∥ ⩽ ε

(le graphe de fn est compris àpdcr dans l’enveloppe [f − ε, f + ε])

Une suite peut ne converger que sur une partie de son ensemble de définition. La
convergence uniforme implique la convergence simple. Pour montrer la convergence
uniforme, exhiber (αn ) tel que ∀x ∈ A, ∥fn (x) − f (x)∥ ⩽ αn (étude de variation si
A ⊂ R), pour la non-convergence, exhiber (xn ) tel que fn (xn ) ̸→ 0

36
Dorian Lesbre Notes Cours Maths MP*

Opérations algébriques : soit (fn ) et (gn ) deux suites de fonctions


— si fn →
− f et gn →− g alors fn + gn → − f + g et fn gn → − fg
s s s s
— si fn →
− f et gn →− g alors fn + gn → − f +g
u u u
— si fn et gn sont bornées et fn →− f et gn → − g alors fn gn →
− fg
u u u

Pour les fonctions bornées : une suite de fonction (fn ) ∈ B(A, F ) converge uniformé-
ment vers f si et seulement si elle converge dans B(A, F ) muni de N∞

Convergence uniforme locale : (fn ) converge uniformément vers f au voisinage de a


s’il existe V un voisinage de a tel que (fn ) converge uniformément vers f sur V .
(fn ) converge uniformément au voisinage de tout point si ∀a ∈ A, ∃V ∈ Va tel que
(fn ) converge uniformément vers f sur V .

Convergence est continuité : la convergence simple ne conserve pas la continuité, en


revanche, si (fn ) ∈ C (A, F ) converge uniformément au voisinage de a vers f , alors
N

f est continue en a (majorer ∥f (x) − f (a)∥ ⩽ ∥f (x) − fn (x)∥ + ∥fn (x) − fn (a)∥ +
∥fn (a) − f (a)∥)
Ainsi si (fn ) converge uniformément au voisinage de tout point, f est continue.
La convergence simple suffit si toutes les fonctions sont lipschitziennes de même rap-
port.

Lemme des limites : soit a ∈ A (fini ou non) et fn →


− f sur A vérifiant lim fn (x) = ℓn .
u x→a
Si lim f (x) ou lim ℓn existe alors l’autre existe et vérifie :
x→a n → +∞
   
lim lim f (x) = lim lim f (x)
x→a n → +∞ n → +∞ x→a

(majoration triple et convergence uniforme).


Si l’on suppose F de dimension finie, alors on a l’existence de ces limites (ℓn0 − ℓn
bornée donc admet une sous-suite convergente).

13.2 Séries de fonctions


Convergence de série : on définit la convergence simple, uniforme, uniforme au voisi-
nage de... d’une série comme la convergence de ses sommes partielles.
Pour montrer une convergence uniforme, il suffit de montrer la convergence simple puis
la convergence de reste en norme infini vers 0.
P
Limites et continuité :soit (un ) ∈ F(A, F )N une suite de fonction et a ∈ A. Si un
converge uniformément
P+∞ au voisinage de a et pour tout n ∈ N, un est continue en a,
alors la limite n=0 un est continue en a

37
Notes Cours Maths MP* Dorian Lesbre

Intervertion de limite :
P soit (un ) ∈ F(A, F )N avec F de dimension finie. Soit a ∈
A tel que un convergePuniformément sur un voisinage de A et pour tout n ∈
N, lim un (x) = αn , alors αn converge et l’on a :
x→a
+∞
X +∞
X
αn = lim un (x)
x→a
n=0 n=0

P P P
Convergence normale : un converge
P normalement si N (u
∞ n ) converge.
P Si un
converge normalement alors ∀x ∈ A, un (x) converge absolument et un converge
uniformément sur A.
La convergence normale sert donc à montrer la convergence de séries ou de suites via
la série télescopique associée.

13.3 Intégration, dérivation, primitivation d’une limite


Intégration : soit (fn ) : J → K une suite de fonctions continues sur un segment
convergeant uniformément sur J vers f (donc continue), la suite (fn ) converge en
moyenne (norme 1) vers f et l’on a :
Z Z
lim fn = f
n → +∞ J J

P
Si un est une série de fonctions continues qui converge uniformément sur le segment
J, on a alors
+∞ Z
X Z X +∞
un = un
n=0 J J n=0

Primitivation : soit (fn ) une suite de fonctions continues sur I et (gn ) la suite des
primitives de (fn ) s’annulant en a. Si (fn ) converge uniformément sur tout segment de
I vers f (qui est donc continue) alors (gn ) converge uniformément sur tout segment
de I vers la primitive de f s’annulant en a

Dérivation : soit (gn ) ∈ C 1 (I, K)N convergeant simplement vers g tel que (gn′ ) converge
uniformément sur tout segment de I vers f . On a alors (gn ) converge uniformément
sur tout segment de I vers g, g ∈ C 1 (I, K) et g ′ = f

Dérivées n-ièmes : soit (fn ) ∈ C k (I, K) avec k ∈ N∗ vérifiant :


(i) 
— ∀i ∈ [[0, k − 1]] , fn converge simplement sur I vers φi
(k) 
— fn converge uniformément sur I vers φk
Alors f = φ0 est de classe C k et ∀i ∈ [[0, k]] , f (i) = φi

38
Dorian Lesbre Notes Cours Maths MP*

P de fonctions de classe C convergeant simplement


1
P
Cas des séries : soit un une série
sur tout segment
P de I telle que D(un ) converge uniformément sur tout segment de
I. Alors un converge uniformément sur tout segment de I, sa somme est de classe
C et vérifie
1
! +∞
+∞
X X
D un = D(un )
n=0 n=0
P (i)
De même que pour les suites, si un ∈ C k (I, K) tel que un converge simplement si
i < k et uniformément sur tout segment si i = k, !alors la série converge uniformément
+∞
X +∞
X
et sa somme est de classe C avec : D
k (i)
un = D(i) (un )
n=0 n=0

Application à l’étude de fonction : pour trouver un équivalent d’une série aux bornes
de son intervalle de définition, on peut essayer de le deviner puis utiliser l’interversion
de limites. Sinon on peut toujours utiliser une comparaison série-intégrale.

13.4 Approximation des fonctions d’une variable réelle

Approximation uniforme : soit f ∈ B(J, K) et X ⊂ B(J, K), on a les équiva-


lences :
— ∀ε > 0, ∃φ ∈ X, N∞ (f − φ) ⩽ ε
— ∃(φn ) ∈ X N tel que φn →
− f sur J
u
— f ∈X
On dit alors que l’on peut approcher uniformément f par des fonctions de X

Approximation en escalier : on peut approcher uniformément toute fonction continue


sur un segment par des fonctions en escalier (théorème de Heine). On peut généraliser
ces résultats aux fonctions continues par morceaux sur un segment, car elles peuvent
s’écrire comme somme d’une fonction en escalier et d’une fonction continue.

Approximation affine par morceaux continus (HP) : on peut approximer uniformé-


ment toute fonction continue par une fonction affine par morceaux continue

Théorème de Weierstrass : Toute fonction f ∈ C 0 ([a, b]) est limite uniforme


d’une suite de fonctions polynomiales à valeurs dans K

Démo HP, passer par l’approximation affine ou par convolution (dirac...)

39
Notes Cours Maths MP* Dorian Lesbre

14 Convergence dominée et application


14.1 Suites et séries d’intégrales
La convergence uniforme sur une partie bornée implique la convergence intégrale,
il y a d’autres critères plus généraux qui assurent cette convergence.

Théorème de convergence dominée : soit (fn ) ∈ Cpm (I, K) avec I un inter-


valle. On fait les hypothèses suivantes :
— (fn ) →
− f sur I
s
— f continue par morceaux sur I
— ∃φ ∈ Cpm (I, K) intégrable, telle que ∀t ∈ I,Z ∀n ∈ N,
Z |fn (t)| ⩽ φ(t)
Alors les fn et f sont intégrables sur I et lim fn = f
n → +∞ I I

P
Convergence terme à termes : soit un une série de fonctions
P
— un converge simplement sur I
— P ∀n ∈ N, un est continue par morceaux et intégrable sur I
— P+∞ R un est continue par morceaux sur I
n=0
— I un converge
+∞
X +∞
Z X +∞ Z
X
Alors un est intégrable et un = un
n=0 I n=0 n=0 I
On peut développer f continue en série pour calculer son intégrale, la continuité est
alors évidente.
R Si ce théorème ne s’applique pas, on intègre terme à terme en montrant
que lim I Rn = 0

14.2 Intégrales à paramètre


Continuité : soit A une partie non vide d’un EV normé de dimension finie, soit I un
intervalle de R et f : A × I → K. Si
— ∀t ∈ I, x 7→ f (x, t) est continue sur A
— ∀x ∈ A, t 7→ f (x, t) est continue par morceaux sur I
— ∃φI → K R intégrable telle que ∀x ∈ A, ∀t ∈ I, |f (x, t)| ⩽ φ(t)
alors g : x 7→ I f (x, t)dt est bien définie et continue sur A.
Remarque : si pour tout point a ∈ A, f est dominée sur un voisinage V de a, la
conclusion subsiste.

Limites d’intégrales :soit f : A × I → K et a adhérent à A (peut-être infini), si


— ∀x ∈ A, t 7→ f (x, t) est continue par morceaux sur I
— il existe fa : I → K continue par morceaux telle que ∀t ∈ I, lim f (x, t) = fa (t)
x→a
— il existe φ : I → K intégrable telle que ∀x ∈ A, ∀t ∈ I, |f (x, t)| ⩽ φ(t)

40
Dorian Lesbre Notes Cours Maths MP*

Z Z
alors lim f (x, t)dt = fa (t)dt. La encore, la domination au voisinage de A suffit.
x→a I I

Dérivation d’une intégrale : soit f : J × I → K, si


— ∀x ∈ J, t 7→ f (x, t) est intégrable sur I
— ∀t ∈ I, x 7→ f (x, t) est de classe C 1 sur J
— ∀x ∈ J, t 7→ ∂f
∂x (x, t) est continue par morceaux sur I
— il existe φ : I → K intégrable telle que ∀x ∈ J, ∀t ∈ I, ∂f ∂x (x, t) ⩽ φ(t)
Z Z
∂f
Alors g(x) : f (x, t)dt est de classe C 1 sur J et de dérivée g ′ (x) = (x, t)dt
I I ∂x
On a le même théorème pour la classe C n en exigeant que
∂[
— ∀k ∈ [[0, n − 1]], ∀x ∈ J, t 7→ ∂k ]f x(x, t) est intégrable sur I
— ∀t ∈ I, x 7→ f (x, t) est de classe C n sur J
∂[
— ∀x ∈ J, t 7→ ∂n ]f x(x, t) est continue par morceaux sur I
∂[
— il existe φ : I → K intégrable telle que ∀x ∈ J, ∀t ∈ I, ∂n ]f x(x, t) ⩽ φ(t)
Là encore, la domination au voisinage de tout point ou sur tout segment suffit.

15 Fonction vectorielle d’une variable réelle


On considère les fonctions de I intervalle de R dans E de dimension finie. On note pi
les projecteurs sur une base et qi : t 7→ tei . Ainsi on obtient les fonctions composantes
X
f i = pi ◦ f f= q i ◦ fi

15.1 Dérivation
Définition : la fonction f est dérivable en a si le taux d’accroissement f (t)−f
t−a
(a)
admet
une limite ℓ ∈ E en a. Cette limite est la dérivée.
C’est équivalent à ∃ℓ ∈ E, f (t) = f (a) + ℓ(t − a) + o(t − a)
— si f est dérivable en a, alors elle y est continue
— on peut définir la dérivée à droite et à gauche comme limites droites et gauches
du taux d’accroissement. f est dérivable en a ssi elle l’est à droite et à gauche
avec même dérivée, sauf si a est une borne de I
— la dérivabilité à gauche entraine la continuité à gauche.
f est continûment dérivable (classe C 1 ) si elle est dérivable sur I et f ′ continue sur I.

Propriétés :
— pour T : E → F linéaire et f dérivable, T ◦ f est dérivable de dérivée T ◦ f ′
— f est de classe C 1 ou dérivable si et seulement si ses fonctions coordonnées dans
une base le sont. Les fonctions coordonnées de f ′ sont alors les dérivées de celles
de f (conséquence de ci-dessus, car pi linéaire)

41
Notes Cours Maths MP* Dorian Lesbre

— D est linéaire : D(λf + µg) = λD(f ) + µD(g)


— D(I, E) et C 1 (I, E) sont des sev de C (I, E)

Dérivée d’un produit : soit f : I → E, g : I → F et b : E × F → G bilinéaire.

f ∈ C 1 et g ∈ C 1 ⇒ B(f, g) ∈ C 1 et (B(f, g))′ = B(f ′ , g) + B(f, g ′ )

Résultat qui se généralise à une fonction p-linéaire (notamment le déterminant)

Dérivée d’une composée : soit φ : I → J dérivable en t0 et f : J → E dérivable en


φ(t0 ), alors f ◦ φ est dérivable en t0 et (f ◦ φ)′ (t0 ) = φ′ (t0 )f ′ (φ(t0 )) (prolonger le taux
d’accroissement)

Inégalité des accroissements finis : I = [a, b], f : I → E et φ : I → R telles que


— f et φ sont continues sur [a, b]
— f et φ sont dérivables sur ]a, b[
— ∀t ∈]a, b[, ∥f ′ (t)∥ ⩽ φ′ (t)
alors ∥f (b) − f (a)∥ ⩽ φ(b) − φ(a).
On en déduit que si ∥f ′ ∥ ⩽ M alors f est M -lipschitzienne et que si f ′ = 0 alors f
est constante.

Classe C k : on la définit comme sur R : f est n fois dérivable s’il existe (φ0 , . . . , φn ) ∈
F(I, K) n+1
telles que φ0 = f et φk+1 = φ′k , il y a alors unicité d’une telle liste.
— C k (I, E) et Dk (I, E) sont des SEVs de C (I, E).
— composition par une application linéaire T : (T (f ))(k) = T (f (k) )
— f ∈ C k ⇔ ∀i, fi ∈ C k ((f (k) )i = (fi )(k) )
— si f et g sont de classe C k et B est bilinéaire, alors t 7→ B(f, g) ∈ C k et
k  
X k
B(f, g)(k) = B(f (i) , g (k−i) )
i
i=1

— si φ ∈ C k (I, J) et f ∈ C k (J, E) alors f ◦ φ ∈ C k (I, E) (récurrence sur k)

15.2 Intégration
Définition
Z : soit f continue par morceaux sur [a, b], il existe
Z Z  de E,
un uniqueélément
noté f tel que pour toute forme linéaire φ, on ait φ◦f =φ f
[a,b] [a,b] [a,b]
En effet φ 7→ [a,b] φ ◦ f est une forme linéaire de E ∗ , or (E ∗ )∗ en bijection avec E
R
Z X Z 
On a alors f= fi ei (définition du programme)
[a,b] [a,b]

42
Dorian Lesbre Notes Cours Maths MP*

Propriétés :
— l’intégrale est linéaire
R R
— pour T linéaire, T ( [a,b] f ) = [a,b] T ◦ f
R R R
— relation de Chasles : [a,b] f = [a,c] f + [c,b] f
f 7→ [a,b] f est continue sur Cpm ([a, b], E) (linéarité, normes équivalentes et
R

fonctions composantes)

Inégalité triangulaire :le SEV des fonctions en escalier est dense dans Cpm ([a, b], E),
on en déduit par densité l’inégalité triangulaire :
Z Z
f ⩽ ∥f ∥
[a,b] [a,b]
R
Corollaire : [a,b] f ⩽ (b − a)N∞ (f )

Sommes de Riemann : pour (u0 , . . . , un ) une subdivision de [a, b] et (v1 , . . . , vn ) tel


que vi ∈ [ui−1 , ui ], on appelle somme de Riemann la quantité
n
X
σ(f, u, v) = (ui − ui−1 )f (vi )
i=1

Si f est continue par morceaux, alors pour tout ε > 0, il existe η > 0 tel que si le pas
R
de u est inférieur à η, alors [a,b] f − σ(u, v, f ) ⩽ ε

15.3 Primitivation et intégration


On définit l’intégrale orientée comme pour les réels, elle vérifie Chasles et l’inégalité
triangulaire.

Primitive : g est une primitive de f si elle est dérivable et g ′ = f . Deux primitives


diffèrent d’une constante si I est un intervalle.
Rx
Théorème fondamental : soit f ∈ Cpm (I, E) et a ∈ I, on pose ga = a f (t)dt.
— ga est dérivable à droite en tout point de x ̸= sup I avec (ga )′d (x) = f (x+ )
— ga est dérivable à gauche en tout point x ̸= inf I avec (ga )′g (x) = f (x− )
Donc g est continue sur I et dérivable en tout point ou f est Rcontinue. C’est l’unique
β
primitive de f qui s’annule en a. Pour tout (α, β) ∈ I 2 , on a α f = g(β) − g(α)

Intégration par parties : soit f : I → E, g : I → F et b : E × F → G bilinéaire, pour


2
(a, b) ∈ I on a :
Z b Z b
B(f ′ (t), g(t))dt = [B(f (t), g(t)]ba − B(f (t), g ′ (t))dt
a a

43
Notes Cours Maths MP* Dorian Lesbre

Changement de variable : soit φ ∈ C 1 (J, I) et f continue sur I, on a pour (a, b) ∈ J 2


Z φ(b) Z b
f (x)dx = φ′ (t)f (φ(t))dt
φ(a) a

Intégrales généralisées (HP) :


Ron la définit de même que Rpour les réels, ainsi que
R la
R absolue. Si I f converge et T linéaire, alors I T ◦ f converge et i T ◦
convergence
f = T ( I f ). La convergence est donc équivalente à la convergence des fonctions
composantes. La convergence absolue implique donc la convergence.

15.4 Formules de Taylor


Taylor reste intégral : soit f ∈ C n+1 (I, E), on a pour (a, b) ∈ I 2
n Z b
X (b − a)k (k) (b − t)n (n+1)
f (b) − f (a) = f (t)dt
k! a n!
k=0
Z 1
(1 − x)n (n+1)
= (b − a)n+1 f ((b − a)x + a)dx
0 n!

Formule de Taylor-Lagrange : pour f ∈ C n+1 (I, E), (a, b) ∈ I 2 et Mn+1 un majorant


de f (n+1) sur [a, b], on a
n
X (b − a)k Mn+1
f (b) − f (k) (a) ⩽ (b − a)n+1
k! (n + 1)!
k=0

Formule de Taylor-Young : soit f : I → E une fonction n − 1 fois dérivable sur I et


n fois dérivable en a ∈ I (classe C n dans le programme). Alors f admet un DLn (a)
donné par
n
X (x − a)k (k)
f (a) + o (x − a)n

f (x) =
k! x→a
k=0

15.5 Intégration, dérivation, primitivation d’une limite


Intégration : soit (fn ) continues
R convergeant
R P J vers f .
uniformément sur le segment
Alors f est continue et lim J fn = J f . EN termes de séries, si un converge
n → +∞
uniformément
R P∞ sur J Ret les un sont continues alors la série des intégrales converge et
P +∞
J n=0 un = n=0 J un

Primitivation : si (fn ) est une suite de fonctions continues sur I convergeant unifor-
mément sur tout segment vers f (alors continue), et (gn ) est la suite des primitives des
fn s’annulant en a ∈ I, alors cette suite converge uniformément sur tout segment vers
la primitive de f nulle en a. (proposition ci-dessus et théorème fondamental)

44
Dorian Lesbre Notes Cours Maths MP*

Dérivation : soit (gn ) ∈ C 1 (I, E)N convergeant simplement vers g sur I telle que (gn′ )
converge uniformément sur tout segment vers f . Alors g est de classe C 1 et g ′ = f et
(gn ) converge uniformément sur tout segment.
On obtient par récurrence immédiate la version C k (convergence simple de toutes les
dérivés et uniforme de la k-ième)

16 Familles sommables
16.1 Famille sommable de réels positifs
Définition : soit I un ensemble et (ai )i∈I ∈ RI+ une famille de réels positifs. On
note ( )
X X
ai = sup ai , J fini ⊂ I ∈ R+
i∈I i∈J

On dit que (ai ) est sommable si sa somme est finie

Propriétés :
— une famille finie est sommable etPsa somme correspond àPsa somme P
— une suite (un ) est sommable ⇔ un converge et alors n∈N un = +∞ n=0 un
— la somme d’une famille de réelsPpositifs est le plus petit M tel que pour toute
sous famille finie J de I on ait J ai ⩽ M
— la somme est nulle si et seulement si la familleP est nulle P
— pour deux familles (ai , bi ), si ∀i, ai ⩽ bi alors i∈I ai ⩽ i∈I bi donc (bi ) som-
mable ⇒ (ai ) sommable.

Changement d’indice : soit σ : J → I bijective et (ai ) ∈ RI+ .


X X
ai = aσ(j)
i∈I j∈J

On en déduit la commutativité (si σ est une permutation)

Linéarité : soit (ai ) et (bi ) deux familles sommables de P et λ ∈ R


Préels positif P + . Les
familles (ai + bi ) et (λai ) sont sommables de sommes i∈I ai + i∈I bi et λ i∈I ai
(démo par la série dans le cas dénombrable (au programme))
P P
Sommation par paquets : si J ⊂ I, on a i∈J aj ⩽ i∈I ai donc la sommabilité sur
I implique celle sur J.
Pour deux ensembles disjoints I et J et (ai )i∈I∪J ∈ RI∪J
+ on a
X X X
ai + ai = ai
i∈I i∈J i∈I∪J

45
Notes Cours Maths MP* Dorian Lesbre

Plus généralement, si (Iλ )λ∈Λ est une partition de I (contenant éventuellement des
I
ensembles vides) et (ai ) ∈ R+ , on a
!
X X X
ai = ai
i∈I λ∈Λ i∈Iλ

P
Au programme : partition (In )n∈N , (ai )i∈In sommable noté σn et σn converge.

16.2 Familles sommables de nombres complexes

Définition : (ai ) ∈ CI est sommable si la famille (|ai |) ∈ CI estP


sommable.P
+
Pour les réels on définit la somme d’une famille sommable par i∈I ai = i∈I a i −
− + −
P
i∈I ai avec ai = max(ai , 0) et ai = max(−ai , 0). Cela prolonge la définition sur
R+ . P P P
Pour les complexes, on la définit par i∈I ai = i∈I Re(ai ) + i i∈I Im(ai )

Propriétés :
— la sommabilité correspond à l’absolue convergence des séries et les sommes sont
alors égales P P
— la somme vérifie l’inégalité triangulaire : i∈I a i ⩽ i∈I |ai |
— on a le même théorème de changement d’indice
— l’espace des familles sommable est un EV sur lequel la somme est une forme
linéaire
— sommation par paquets : si (ai )i∈I est sommable alors pour (Iλ ) une partition,
∀λ, (ai )i∈Iλ est sommable notée σλ et (σλ ) est sommable avec
!
X X X X
ai = σλ = ai
i∈I λ∈Λ λ∈Λ i∈Iλ

Extension aux espaces vectoriels de dimension finie : une famille (ai ) ∈ E I estP
som-
P (∥ai ∥) l’est.
mable si la famille de réels positifs

P Il existe alors unPunique élément I ai
tel que pour tout φ ∈ E , φ( I ai ) = φ(ai ) (car φ 7→ I φ(ai est une forme
linéaire du dual...) P P
On obtient alors pour T linéaire, (T (ai )) sommable et T ( I ai ) = I T (ai ) (d’où
l’équivalence sommabilité, sommabilité des composants dans une base)
On conserve les propriétés de changements d’indice, sommation par paquets et corres-
pondance avec une somme finie ou de série.

46
Dorian Lesbre Notes Cours Maths MP*

16.3 Applications

Théorème de Fubini : repose sur les partitions


[ [ [
N2 = {p} × N = N × {q} = (p, q) ∈ N2 / p + q = n
p∈N q∈N n∈N

Pour (ap,q ) une famille on a les équivalences :


— (ap,q ) est sommable
X XX ∞
— ∀p ∈ N, ∥ap,q ∥ converge et ∥ap,q ∥ converge
q p q=0
X ∞
XX
— ∀q ∈ N, ∥ap,q ∥ converge et ∥ap,q ∥ converge
p q p=0
X X
— ∥ap,q ∥ converge
n p+q=n
X +∞ X
X +∞ +∞ X
X +∞ +∞ X
X
Dans ce cas : ap,q = ap,q = ap,q = ap,q
(p,q)∈N2 p=0 q=0 q=0 p=0 n=0 p+q=n

Produit de Cauchy : soit (ai )i∈I et (bj )j∈J deux familles d’une algèbre munie d’une
norme sous-multiplicative. Si elles sont sommables alors (ai bj ) l’est également et
! 
X X X
ai b j = ai  aj 
(i,j)∈I×J i∈I j∈J

P P X X
Pour an et bn absolument convergent, ap bq est la série produit de Cau-
p+q=n
+∞
X +∞
X +∞
X X
P P
chy de an et bn . Elle converge absolument et vérifie an bn = an ap bq
n=0 n=0 n=0 p+q=n

16.4 Exponentielle dans une algèbre de dimension finie


n
Définition : pour a ∈ A, la famille an! est sommable. On note sa somme exp(a). La
convergence étant normale sur toute boule fermée, exp est continue. Enfin ea : t 7→
exp(ta) est C ∞ sur R et vérifie e′a = a × ea = ea × a.
Pour φ un isomorphisme d’algèbre, on a exp(φ(a)) = φ(exp(a)). On en déduit que
dans une algèbre, si ab = ba alors exp(a + b) = exp(a) exp(b). Donc pour tout a,
exp(a) est inversible d’inverse exp(−a)

47
Notes Cours Maths MP* Dorian Lesbre

17 Séries entières
17.1 Rayon de convergence d’une série entière
Définitions : une série entière est une série de fonctions de terme général (an z n ).
L’ensemble de convergence est l’ensemble de z ∈ C pour lesquels elle converge.

Lemme d’Abel et rayon de convergence : pour z0 ∈ C tel que (an z0n ) est borné, on a
an z n converge absolument.
P
pour tout z tel que |z| < |z0 |, P
On appelle rayon de convergence R de la série entière an zn la borne supérieur
n
P Rn+ de {r ∈ R+ / (an r ) bornée}. OnP
dans a alors pour tout z ∈ C, |z| < R ⇒
an z converge absolument et |z| > R ⇒ an z n diverge grossièrement. On n’a pas
d’information si |z| = R.
On appelle disque ouvert de convergence la boule Bo (0, R) et intervalle ouvert de
convergence ] − R, R[.

an z n et an bn deux séries entières de rayons res-


P P
Comparaison de rayons : soit
pectifs Ra et Rb .
— si ∀n, an ⩽ bn alors Rb ⩽ Ra
— si an = O (bn ) alors Rb ⩽ Ra
— si an ∼ bn alors Rb = Ra
an z n et nan z n ont même rayon de convergence.
P P
Enfin les séries

Règle de d’Alembert : on peut s’en servir sur les séries pour déterminer l’absolue
convergence (donc |z| < R et l’absolue divergence |z| ⩾ R. Pour cela, si an ne s’annule
z n+1
pas APDCR et an+1 an zn −−−−→ ℓ < 1 il y a absolue convergence et si ℓ > 1 non.
n→∞

an z n converge normalement sur toute boule


P
Continuité de la somme : la fonction
Bf (0, r) avec r < R,Pelle est donc continue sur Bo (0, R).
La fonction f (z) = +∞ n
n=0 an z admet un DL à tout ordre n en 0 donné par ses sommes
partielles.
an z n est une série entière de rayon de convergence R < ∞ et que |an | Rn
P P
Si
converge, alors il y a convergence normale sur le disque fermé Bf (0, R) donc continuité
sur ce disque.

Opérations sur les séries : soit an z n et bn z n sont des séries entières de rayons de
convergence Ra et Rb
— somme : Ra+b ⩾ min {Ra , Rb } avec égalitéP
si Ra ̸= Rb P
— décalage d’indice pour p ∈ N, les séries an z n+p et n⩾p an z n−p ont même
rayon de convergence Ra .

48
Dorian Lesbre Notes Cours Maths MP*

PP
— produit : p+q=n ap bq zn a pour rayon de convergence Rab ⩾ min {Ra , Rb } et
si |z| < min {Ra , Rb } alors

+∞
! +∞
! +∞
!
X X X X
ap bq zn = an an
n=0 p+q=n n=0 n=0

17.2 Série entières d’une variable réelle

Série dérivée :si an xn est une série entière de rayon


P de convergence R > 0, alors sa
n−1
somme est dérivable sur [−R, R] avec pour dérivée nan x
n n
Comme nan x a même rayon de convergence que an x , on en déduit que la somme est
C ∞ avec
∞ ∞
!
p
 
d X
n
X n
∀p ∈ N, p an x = p! xn−p
dx p
n=0 n=p

Série de Taylor : pour f ∈ C ∞ (I, K) avec 0 ∈ I on appelle série de Taylor de f la


P f (n) (0) n
série entière n! x . Une série entière de rayon de convergence strictement positive
est la série de Taylor de sa somme.
Par unicité, si deux séries entières de rayon de convergence strictement positive ont
une somme qui coïncide sur un intervalle voisinage de 0, elles sont égales.

P P∞
Dérivabilité en 1 (HP) : soit (an ) positive telle que a n converge. f : x 7→ n=0 an xn
P
est dérivable en 1 si et seulement si nan converge. (⇐ convergence dominée, ⇒ par
divergence de la dérivée vers +∞ (contraposée))

an n+1
an x n
P P
Primitivation : est une primitive sur ] − R, R[ de
n+1 x
On ne peut intégrer que sur les segments de ] − R, R[ dans le cas général

Formule de Cauchy (HP) : à partir de f la somme d’une série entière an z n , on peut


retrouver les an car pour r < R et n ∈ N on a (intégration termes à termes)
Z 2π
1
an = f (reiθ )e−inθ dθ
2πrn 0

49
Notes Cours Maths MP* Dorian Lesbre

17.3 Fonction développable en série entière


Définition : soit P R > 0, une fonction f est développable en série entière sur ]−R, R[
s’il existe une série an xn d rayon de convergence R′ ⩾ R telle que

X
∀h ∈] − R, R[, f (h) = an hn
n=0

Elle est développable en série entière s’il existe un tel R. On dit qu’elle est développable
en série entière au voisinage de x0 si h 7→ f (x0 + h) est développable en série entière.
f est analytique si elle est développable en série entière au voisinage de tout point.

Lien avec la série de Taylor :


— f est développable en série entière sur ]−R, R[⇔ f ∈ C ∞ et ∀x ∈]−R, R[, f (x) =
P∞ f (n) (0) n
n=0 n! x
— f est développable en série entière sur ] − R, R[⇔ le reste de Taylor de f (̸=
reste de la série de Taylor) converge simplement vers 0 (majoration de Taylor-
Lagrange ou Taylor reste intégral)

Fonctions usuelles : on peut utiliser dérivée, primitive, somme et produit de Cauchy


pour trouver les séries :
+∞
X
z 1 n
• ∀x ∈ C, e = z
n=0
n!

1 X 1 1
• ∀ |z| < 1, = z 2 puis par primitivation de et
1−z n=0
1+z 1 + z2
+∞ n +∞
X
n−1 z
X
nx2n+1
• ∀x ∈] − 1, 1[, ln(1 + x) = (−1) et Arctan(x) = (−2)
n=0
n n=0
2n + 1
+∞
eix + e−ix X x2n
• cos x = = (−1)n et de même pour sin, sh, ch
2 n=0
(2n)!
+∞
X α  
• (1 + z)α = zn
n
n=0

Les fractions rationnelles à pôles non nulles sont décomposables en série entière sur
D(0, R) avec R le module minimal de leurs pôles.

Méthode de l’équation différentielle :en connaissant un équa diff vérifiée par f :


— si l’on sait que f admet un DESE, on cherche une relation sur les coeffs en
utilisant l’équation puis on conclut par unicité de du DESE

50
Dorian Lesbre Notes Cours Maths MP*

— si l’on veut le montrer, on trouve une SE solution et on exploite l’unicité des


solutions de l’équation différentielle.

18 Espaces probabilisés
18.1 Espaces probabilisés
Tribu : soit Ω un univers, et A ⊂ P(Ω), A est une tribu si
— Ω∈A
— ∀A ∈ A, A ∈ A [
— pour I dénombrable et ∀(Ai )i∈I ∈ AI , Ai ∈ A
i∈I

Une tribu est alors stable par intersection au plus dénombrable, par union finie et par
soustraction ensembliste. P(Ω) est la plus grande tribu possible. Une intersection de
tribus est une tribu, donc pour tout F ⊂ P(Ω), il existe σ(F) une plus petite tribu
contenant F.
Un couple (Ω, A) est un espace probabilisable, Ω est l’univers et les éléments de A
sont les évènements.

Probabilité : soit (Ω, A) un espace probabilisable. Une probabilité P : A → [0, 1]


doit vérifier :
— P(Ω) = 1
— pour (An )n∈N deux-à-deux incompatibles, on a
!
[ X
P An = P(An )
n∈N n∈N

Un triplet (Ω, A, P) est un espace probabilisé

Une probabilité vérifie alors :


— P(∅) = 0
— pour A1 , . . . , An incompatibles, P(A1 + . . . + An = P(A1 ) + . . . + P(An )
— pour A ⊂ B, P(B \ A) = P(B) − P rob(A) donc P(A) ⩽ P(B)
— P(A + B) = P(A) + P(B) − P(A ∩ B) (formule du crible)
Un évènement est négligeable s’il est de probabilité nulle et presque sûr s’il est de
probabilité 1.

Système complet d’évènements : c’est une famille (Ai ) au plus dénombrable d’évène-
ments deux-à-deux disjoints et d’union Ω.
La famille (P(Ai )) est alors sommable de somme 1, et pour tout évènement B, (P(B ∩
Ai )) est sommable de somme P(B)

51
Notes Cours Maths MP* Dorian Lesbre

Continuité monotone : pour (An ) une suite d’évènements de A croissants (An ⊂


An+1 ), on a !
[
P = lim P(An )
n → +∞
n∈N

de même pour l’intersection d’une suite d’évènements croissants (démo : poser Bn =


An \ An−1 )
On en déduit notamment P( n∈N An ) = lim P( N
S S
n=0 An ) pour toute suite d’événe-
N →∞
ments.

Inégalité de Boole : pour (A1 , . . . , An , . . .) des évènements :


n
! n +∞
! +∞
[ X [ X
P Ap ⩽ P(Ap ) et P Ap ⩽ P(Ap )
p=0 p=0 p=0 p=0

Probabilité sur un univers dénombrable : on peut prendre P(Ω) comme tribu et


caractériser une probabilité par la suite (pω )ω∈Ω de réels positif sommable de somme
1.

Probabilité sur un univers au plus dénombrable : on peut avoir tous les évènements
élémentaires de probabilité nulle (pile ou face infini), on prendra souvent pour tribu
différente de P(Ω)

Probabilité image (HP) : pour (Ω, A, P) un espace probabilisé et f : Ω → Ω′ , on a


A′ = Y ∈ Ω′ / f −1 (Y ) ∈ A est une tribu et Y 7→ P(f −1 (Y )) est une probabilité sur


Ω′

18.2 Probabilité conditionnelle


P(B ∩ A)
Définition : Pour A non-négligeable, on pose PA : B 7→ . C’est une
P(A)
probabilité.
— Probabilités composées : pour (A1 , . . . , An ) non négligeables, on a :

P(A1 ∩ . . . ∩ An ) = P(A1 ) × PA1 (A2 ) × . . . × PA1 ∩...∩An−1 (An )

— Probabilités totales, pour (Ai ) un système complets d’événements tous non-


négligeables :
X X
∀B ∈ A, P(B) = P(A ∩ B) = P(A)PA (B)
P(A)
— Formules de Bayes : pour A et B non négligeables PB (A) = PA (B) × P(B)

52
Dorian Lesbre Notes Cours Maths MP*

Indépendance d’événements : soit (Ai )i∈I une famille quelconque d’événements, on


dit que les (Ai ) sont indépendants
— 2-à-2 si ∀(i, j) ∈ I 2 , i ̸= j ⇒ P(Ai ∩ Aj! ) = P(Ai )P(Aj )
\ Y
— mutuellement si ∀J ⊂ I fini, P Ai = P(Ai )
i∈J i∈J
l’indépendance mutuelle implique la 2-à-2 (réciproque fausse). L’indépendance ne dé-
pende pas de l’ordre des Ai et reste vraie pour toute sous-famille ou famille constituée
des complémentaires.

19 Variables aléatoires
19.1 Variable aléatoires discrètes
Définition : soit (Ω, A, P) un espace probabilisé et X : Ω → E. X est une variable
aléatoire discrète si :
— X(Ω) est au plus dénombrable
— ∀x ∈ X, X −1 ({x}) est un événement noté {X = x}
Alors, pour tout A ⊂ X(Ω), {X ∈ A} = X −1 (A) est un événement
 
P(X(Ω) → [0, 1]
Loi d’une variable aléatoire discrète : PX : est une
A 7→ P({X ∈ A})
probabilité, appelé loi de la variable aléatoire X, sur l’univers au plus dénombrable
X(Ω),
— on peut aussi la voir comme loi sur (E, P(E) en posant PX ({ω}) = 0 pour
ω ∈ E \ X(Ω)
— s’il existe a ∈ X(Ω), P({X = a}) = 1 on dit que X est presque surement
constante
— ({X = x})x∈X(Ω) est un système complet d’événement dont les probabilités ca-
ractérisent la loi de X
— X ∼ Y si PX = PY (on dit qu’elles ont même loi), i.e. si X(Ω) = Y (Ω) et
∀x ∈ X(Ω), P({X = x}) = P({Y = x})

Propriétés :
— pour E au plus dénombrable et (pe ) une famille de réels positifs de somme 1, il
existe (Ω, A, P) et X : Ω → E tel que PX ({e}) = pe
— pour X un VA et f : X(Ω) → G, f ◦ X est une variable aléatoire notée f (X)

19.2 Lois usuelles


Loi géométrique : X ∼ G(p) avec p ∈]0, 1[ si X(Ω) = N∗ et
∀n ∈ N∗ , P({X = n}) = qpn−1 q =1−p

53
Notes Cours Maths MP* Dorian Lesbre

Elle sert à modéliser le premier succès dans une répétition infinie d’épreuves de Ber-
noulli.
— P({X > n}) = q n
∀(n, ℓ) ∈ (N∗ )2 , P{X>ℓ} ({X > n + ℓ}) = P({X > k})

— ∃p ∈]0, 1[, X ∼ G(p) ⇔
∀n ∈ N∗ , P({X = n}) > 0

λk −λ
Loi de Poisson : X ∼ P(λ) avec λ > 0 si X est à valeurs dans N et P(X = k) = e
k!
— pour (Xn )n∈N une suite de VA telle que Xn ∼ B(n, pn ) et npn → λ > 0, alors
k
P(Xn = k) −−−−→ λk! e−λ (convergence en loi)
n→∞
— si X suit une loi binomiale de paramètre (n, p) avec n grand, elle suit approxi-
mativement une loi de Poisson.
— cette loi permet de décrire le nombre d’évènements d’un certain type se produi-
sant pendant une période T

19.3 Couples de variables aléatoires

Définition : pour X et Y deux variables aléatoire discrète à valeurs dans E et E ′ , le


couple (X, Y ) : ω 7→ (X(ω), Y (ω)) est une variable aléatoire discrète.
Réciproquement, pour X une variable aléatoire discrète à valeur dans un produit
cartésien, les coordonnées de X sont des variables aléatoires discrètes.
({X = x} ∩ {Y = y})(x,y)∈X(Ω)×Y (Ω) est le système complet d’évènement associé au
couple (X, XY ). On en déduit que
— P({X = x} ∩ {Y = y}) = 1
(x,y)∈X(Ω)×Y (Ω)
— si E est un espace vectoriel ou une algèbre, alors l’ensemble des variables aléa-
toires réelles discrètes sur E l’est aussi (somme : image du couple par une appli-
cation)
Ces notions se généralisent facilement au n-uplets, et les théorèmes suivants restent
vrais.


Loi conjointe : c’est la loi du couple, elle est déterminée par P({X = x}∩{Y = y}) (x,y)∈X(Ω)×
De même pour E et E ′ au plus dénombrable et une famille (px,y ) de réels positifs de
somme 1, il existe X, Y de variable aléatoire telle que P(X = x, Y = y) = px,y

Loi marginale : ce sont les lois des coordonnées, elles s’obtiennent à partir de la loi
conjointe :
X
P(X = x) = P(X = x, Y = y)
y∈Y (Ω)

54
Dorian Lesbre Notes Cours Maths MP*

Lois conditionnelles : pour y ∈ Y (Ω) non négligeable, on définit la loi de X sachant


{Y = y}, c’est la loi de X sur (Ω, A, P{Y =y} )
— P(X = x, Y = y) = P(Y = y)P{Y =y} (X = x)
X
— donc P(X = x) = P(Y = y)P{Y =y} (X = x)
y∈Y (Ω), P(Y =y)̸=0

19.4 Indépendance de variables aléatoires


Définition : deux variables aléatoires discrètes X et Y sont indépendantes si :

∀x ∈ X(Ω), ∀y ∈ Y (Ω), P(X = x, Y = y) = P(X = x)P(Y = y)

X1 , . . . , Xn sont indépendantes 2-à-2 si elles sont indépendantes 2-à-2 et sont mutuel-


lement indépendante si
Y n
Y
∀(x1 , . . . , xn ) ∈ Xi (Ω), P(X1 = x1, . . . , Xn = xn ) = P(Xi = xi )
i=1

— l’indépendance de deux VA équivaut à la loi conjointe de la forme P(X = x, Y =


y) = φ(x)ψ(y)
— si X, Y sont indépendants à valeurs dans E et F et A ⊂ E, B ⊂ F alors
P({X ∈ A} ∩ {Y ∈ B}) = P(X ∈ A)P(Y ∈ B)
— pour f : E → E ′ et g : F → F ′ , f (X) et g(Y ) sont indépendantes

Caractérisation de l’indépendance : pour X, Y deux variables aléatoires discrètes, on


a les équivalences
— X et Y sont indépendantes
— ∀y ∈ Y (Ω), si P(Y = y) ̸= 0 alors P(X = x) = P{Y =y} (X = x)
(la loi conditionnelle est la même que la conjointe)
— ∀x ∈ X(Ω), si P(X = x) ̸= 0 alors P(Y = y) = P{X=x} (Y = y)

Loi de la somme : soit X, Y deux variables aléatoires indépendantes à valeurs dans


N ou Z, on a
X
∀n ∈ N ou Z, P(X + Y = n) = P(X = p)P(Y = q)
p+q=n

ces sommes sont infinies dans le cas Z

Propriétés de n-uplets :soit (X1 , . . . , Xn ) mutuellement indépendantes


— toute sous-famille (Xi )i∈I avec I ⊂ [[1, n]] est mutuellement indépendante
— l’indépendance mutuelle implique l’indépendance 2-à-2

55
Notes Cours Maths MP* Dorian Lesbre

— l’indépendance équivaut à l’existence


Q de fonctions φi telles que
P(X1 = x1 , . . . , Xn = xn ) = φi (xi )
— (f1 (X1 ), . . . , fn (Xn )) sont indépendantes
— lemme des coalitions : f (X1 , . . . , Xp ) et g(Xp+1 , . . . , Xn ) sont indépendantes.

Suite de variable aléatoire indépendantes :(Xn )n∈N est une suite de VA mutuelle-
ment indépendante si pour tout I ⊂ N fini, les variables (Xi )i∈I sont mutuellement
indépendantes

Théorème de Kolmogorov : pour (Pn )n∈N une suite de loi de probabilités


discrètes. Il existe un espace probabilisé (Ω, A, P) et une suite (Xn )n∈N de variables
aléatoires telles que PXn = Pn

19.5 Espérance
Définition soit X un variable aléatoire discrète
X réelle :
— si X(Ω) ⊂ R+ , on définit l’espérance par xP({X = x}) ∈ R+
x∈X(Ω)
— si (P({X = x}))x∈X(Ω) est sommable, on la définit de même
Certaines variables aléatoires réelles n’ont donc pas d’espérance

Loi usuelle : la loi géométrique de paramètre p ∈]0, 1[ a pour espérance p1 , la loi de


Poisson de paramètre λ a pour espérance λ

Théorème de transfert : pour X une variable aléatoire réelle et f : X(Ω) → R,


f (X) est d’espérance finie si et seulement si (f (x)P({X = x}))x∈X(Ω) est sommable
X
et E (f (X)) = f (x)P(X = x)
x∈X(Ω)

Linéarité et croissance de l’espérance :


— pour X d’espérance finie et λ ∈ R, E(λX) = λE(X)
— pour X et Y positives, on a X + Y d’espérance finie si et seulement si X et Y
sont d’espérance finie et E(X + Y ) = E(X) + E(Y )
— pour X et Y d’espérance finie, X + Y est d’espérance finie et E(X + Y ) =
E(X) + E(Y )
— pour X positive, E(X) ⩾ 0 et E(X) = 0 ⇒ P(X = 0) = 1
— pour Y ⩾ X on a E(X) ⩾ E(Y )
— X est d’espérance finie si et seulement si |X| l’est et |E(X)| = E(|X|)
Donc si |X| ⩽ Y et Y d’espérance fini, alors E(X) existe et |E(X)| ⩽ E(Y ).
Toute variable aléatoire bornée est donc d’espérance finie.
L’ensemble des VA d’espérance fini est un sev noté L1 (Ω, A, P)

56
Dorian Lesbre Notes Cours Maths MP*

Inégalité de Markov : pour X une variable aléatoire discrète positive, on a


E(X)
∀a > 0, P(X ⩾ a) ⩽
a

Moment d’ordre : on dit que X admet un moment d’ordre r ∈ N lorsque E(X r ) est
finie. On note Lr (Ω, A, P) l’ensemble des VA discrètes admettant un moment d’ordre
r, c’est un espace vectoriel. SI X admet un moment d’ordre r, elle admet tous les
moments inférieurs (HP sauf le cas r = 2)

Produit de variables aléatoires :


XXY est d’espérance finie si (xyP(X = x, Y = y))
est sommable et E(XY ) = xyP(X = x, Y = y).
x∈X(Ω),y∈Y (Ω)
Si X et Y sont indépendantes et d’espérance finie, alors XY est d’espérance finie et
E(XY ) = E(X)E(Y ).
Si X et Y admettent un moment d’ordre 2, E(XY ) est finie et

E(XY )2 ⩽ E(X 2 )E(Y 2 ) Cauchy-Schwarz

Variance : Pour X d’espérance finie telle


 que X −E(X) admettent un moment d’ordre
deux, on pose V(X) = E (X − E(X))2 la variance de X.
— On a V(X) = E(X 2 ) − E(X)2 = E(X ∗ (X − 1)) + E(X) − E(X 2 ) (Koenig-
Huygens).
— La variance d’une loi géométrique est 1−pp2 et celle d’une loi de Poisson est λ
— aX + b admet un moment d’ordre 2 et V(aX + b) = a2 V(X)
— Bienaymé-Tchebychev : soit X une VA admettant un moment d’ordre 2,
V(X)
∀ε > 0, P(|X − E(X)| ⩾ ε) ⩽
ε2
p
On pose σ(X) = V(X) l’écart-type. Une VA telle que E(X) = 0 est centrée et
σ(X) = 1 et réduite. Pour X non presque surement constante, X−E(X)
σ(X) est la variable
centrée réduite associée.

Covariance : si (X − E(X))(Y − E(Y )) admet une espérance, on l’appelle covariance


du couple (X, Y ).
— Cov(X, Y ) = E(XY ) − E(X)E(Y ) (Koenig-Huygens)
— Cov(X, X) = V(X)
— (X, Y ) 7→ Cov(X, Y ) est bilinéaire symétrique positive (Cauchy-Schwarz)
— si X et Y sont indépendantes et d’espérance finie, alors Cov(X, Y ) existe et est
nul.

57
Notes Cours Maths MP* Dorian Lesbre

Variance d’une somme : pour X1 , . . . , Xn des VA admettant un moment d’ordre 2 :


X n X
V(X1 + . . . + Xn ) = V(Xi ) + 2 Cov(Xi , Xj )
i=1 1⩽i<j⩽n

en cas de va 2-à-2 non corrélées, la somme des covariances est nulle.

Loi faible des grands nombres :soit (Xn )n∈N une suite de variable aléatoires 2-à-2
indépendantes de même loi. On note Sn = X1 + . . . + Xn et m = E(X1 ), on a
 
Sn
∀ε > 0, P − m ⩾ ε −−−−−→ 0
n n → +∞

Sn
On dit que n converge en probabilité vers la variable aléatoire constante m.

19.6 Fonctions génératrices


Définition : pour X une variable aléatoire discrète à valeurs dans N on pose :
+∞
X
GX (t) = P(X = n)tn = E(tX )
n=0

C’est une série entière qui converge normalement sur Bf (0, 1) donc est continue sur
[−1, 1]
— la loi d’une variable est déterminée de manière unique par GX : P(X = n) =
n!G(n) (0)
— X est d’espérance finie si et seulement si GX est dérivable en 1 et G′X (1) = E(X)
— X admet un moment d’ordre 2 si et seulement si GX est 2 fois dérivable en 1
— pour X et Y indépendantes à valeurs dans N, on a ∀t tel que GX (t) et GY (t)
converge absolument, GX+Y converge et GX+Y (t) = GX (t)GY (t)

20 Groupe, anneaux, arithmétiques


20.1 Anneaux et corps
Anneau intègre : un anneau est intègre si
∀(a, b) ∈ A2 , ab = 0 ⇔ a = 0 ou b = 0
Tout élément non nul a est alors régulier, on a ax = ay ⇔ x = y

Sous-anneaux : soit A un anneau, B est un sous-anneau de A si


— (B, +) est un sous-groupe de A
— B est stable par produit et contient 1A
Un sous-anneau est un anneau. Un sous-corps est un sous-anneau qui est un corps.

58
Dorian Lesbre Notes Cours Maths MP*

Morphisme d’anneau : φ : A → B est un morphisme d’anneau si


2
— ∀(x, y) ∈ A , φ(x + y) = φ(x) + φ(y)
— ∀(x, y) ∈ A2 , φ(xy) = φ(x)φ(y)
— φ(1A ) = 1B
L’image directe ou réciproque d’un sous-anneau par un morphisme est un sous-anneau.
Si φ est un isomorphisme, il en est de même pour φ−1 . Le noyau d’un morphisme est
un idéal. Un morphisme est injectif si et seulement si son noyau est réduit à 0.

Anneau produit : pour A, B deux anneaux on définit l’anneau produit A × B muni


de (a1 , b1 ) + (a2 , b2 ) = (a1 + a2 , b1 + b2 ) et (a1 , b1 ) × (a2 , b2 ) = (a1 a2 , b1 b2 ). C’est un
anneau, mais rarement intègre ((0, 1)(1, 0) = (0, 0)).

Idéaux d’un anneau commutatif : un idéal I est un sous-groupe vérifiant ∀x ∈ A, ∀a ∈


I, ax = xa ∈ I. Toute intersection d’idéaux est un idéal et A est évidemment un idéal
donc on peut définir le plus petit idéal engendré par une partie.
Pour I1 et I2 deux idéaux, I1 + I2 est un idéal (celui engendré par I1 et I2 )

Congruence modulo un idéal : pour I un idéal de A, on peut définir l’anneau A/I


des classes d’équivalences de la relation x ≡ I mod I ⇔ x − y ∈ I car cette relation
est compatible avec les opérations (x ≡ x′ et y ≡ y ′ ⇒ x + y ≡ x′ + y ′ et xy ≡ x′ y ′ )

20.2 Divisibilité dans un anneau intègre


Relation divise : pour A intègre et (x, y) ∈ A2 on définit la relation “divise” par
x | y ⇔ ∃z ∈ Axz = y.
C’est une relation transitive et réflexive, mais ni symétrique ni antisymétrique.

Relation d’association : on dit que x et y sont associés s’ils vérifient l’une des propo-
sitions équivalentes suivantes :
— x | y et y | x
— ∃u ∈ U(A), x = yu

Éléments irréductibles : x ∈ A et dit irréductible si x ∈


/ U(A) et tout diviseur de x
est soit une unité, soit associé à x. On a l’équivalence :

x∈/ U(A)
x irréductible ⇔
∀(b, c) ∈ A2 , bc = x ⇒ b ∈ U(A) ou c ∈ U(A)

Éléments premiers entre eux : deux éléments sont premiers entre eux si leurs seuls
diviseurs communs sont des unités de A.
— deux irréductibles non-associés sont premiers entre eux

59
Notes Cours Maths MP* Dorian Lesbre

— si p irréductible et a quelconque, on a p | a xor p et a sont premiers entre eux.

Lien avec les idéaux : on a l’équivalence :


x | y ⇔ yA ⊂ xA
D’où l’intérêt des idéaux engendré par un élément, ou idéaux principaux. Un anneau
principal est un anneau dont tous les idéaux sont principaux. C’est le cas de Z et K[X]
(division euclidienne)

20.3 Arithmétique dans un anneau principal


PGCD et PPCM : pour (a, b) ∈ A2 on définit :
— les pgcd de a et b sont les nombres générateurs de l’idéal aA + bA
 
d est un pgcd de a et b ⇔ ∀x ∈ A, x | b et x | a ⇔ x | d
— les ppcm de a et b sont les nombres générateurs de l’idéal aA ∩ bA
 
m est un ppcm de a et b ⇔ ∀x ∈ A, a | x et b | x ⇔ m | x
On a le théorème de Bézout : pour d un pgcd de a et b ∃(u, v) ∈ A2 , d = au + bv
(équivalence si d = 1)
Deux éléments sont premiers entre eux s’ils admettent 1 pour pgcd.
(a∧b)(a∨b) associé à ab Démonstration : caractérisation de la divisibilité par inclusions
d’idéaux.

Algorithme d’Euclide : si a = bq + r alors a ∧ b = b ∧ r et b ∧ 0 = b. Dans un anneau


muni d’une division euclidienne (Z ou K[X]) on a alors l’algorithme d’Euclide pour
déterminer le pgcd.

Théorème de Gauss : si a | bc et a ∧ b = 1 alors a | c. On en déduit les corollaires


suivants (et les généralisations aux produits de n termes) :
— a | x, b | x et a ∧ b = 1 ⇒ ab | x
— si p irréductible et p | ab alors p | a ou p | b (non-divisibilité ⇒ premier entre
eux pour un irréductible)
— a ∧ b = 1 et a ∧ c = 1 ⇒ a ∧ bc = 1

Décomposition en facteur irréductible :tout élément a non-nul et non-inversible d’un


anneau principal se décompose comme produit de facteurs irréductibles. Pour un sys-
tème P de représentants des irréductibles associés
Y (positif pour Z et unitaire pour
K[X]), a s’écrit de manière unique comme a = u pαp avec u inversible et αp ∈ N
p∈P
Pour a = upα1 1. . . pαnn et b = vpβ1 1 . . . pβnn on a l’équivalence a | b ⇔ ∀i, αi ⩽ βi .
min(α1 ,β1 ) min(α ,β ) max(α1 ,β1 ) max(αn ,βn )
Donc a ∧ b = p1 . . . pn n n et a ∨ b = p1 . . . pn

60
Dorian Lesbre Notes Cours Maths MP*

20.4 L’anneau Z/nZ


la classe de k est inversible si et seulement si k est premier avec
Éléments inversibles :
n (Bézout). On en déduit les équivalences

Z/nZ est un corps ⇔ Z/nZ est intègre ⇔ n est premier

Théorème chinois : si m et n sont premiers entre eux alors Z/mnZ est isomorphe à
(Z/mZ) × (Z/nZ) par l’isomorphisme k 7→ ([k]n , [k]m ).
Soit (m, n) premier entre eux et (a, b) ∈ Z2 , il existe k0 une solution du système

k ≡ a [n]
et l’ensemble solution et l’ensemble de k ≡ k0 [mn]
k ≡ b [m]

N∗ → N

Indicatrice d’Euler : φ: Elle vérifie pour
n 7→ # {p ∈ [[1, n − 1]] / p ∧ n = 1}
tout p ∈ P, φ(p) = p − 1 donc φ(pk ) = pk − pk−1 Par ailleurs, pour m ∧ n = 1 on a
φ(mn) = φ(m)φ(n) d’après le théorème chinois.
Y Y 1

α1 αr αi αi −1 α1 αr
φ(p1 . . . pr ) = (pi − pi ) = p1 . . . pr 1−
pi
Enfin n = d|n φ(d) par dénombrement de En = nx , . . . x ∈ [[0, n − 1]] en revenant
P 

aux quotients de nombre premier entre eux Fd = kd , k ∈ [[0, d − 1]] , k ∧ d = 1 .




20.5 Groupes
Automorphisme intérieur : c’est un automorphisme de la forme x 7→ gxg −1 où g ∈ G.
Deux éléments sont dits conjugué si l’un est l’image par un automorphisme intérieur
de l’autre.
En notant φg : x 7→ gxg −1 , l’application g 7→ φg est un morphisme de g dans Gl(G)
Un automorphisme intérieur conserve les propriétés algébriques (liées à la loi du
groupe) et géométriques (liées aux actions de groupe).

Générateurs de groupes : une intersection de sous-groupes est un sous-groupe. On


peut donc définir le plus petit sous-groupe engendré par une partie A noté ⟨A⟩.
A est une partie génératrice si ⟨A⟩ = G.
⟨A⟩ est l’ensemble des produits finis d’éléments de A et de leurs inverses.

Sous-groupe engendré par un élément : ⟨a⟩ = {an , n ∈ Z}.


Soit n 7→ an est injective, auquel cas ⟨a⟩ est isomorphe à Z, sinon son noyau est un
sous-groupe de Z donc nZ et alors ⟨a⟩ est isomorphe à Z/nZ. Les générateurs de Z/nZ
sont les nombres premiers avec n, il y en a φ(n).

61
Notes Cours Maths MP* Dorian Lesbre

Un groupe engendré par un seul élément est dit monogène. Il est cyclique s’il est de
plus fini.

Ordre d’un élément : c’est le cardinal de ⟨a⟩, c’est-à-dire le plus petit entier (pour
l’ordre naturel et la divisibilité) p non-nul tel que ap = e.

Théorème de Lagrange (HP) : soit H un sous-groupe, on définit la relation d’équiva-


−1
lence xRy ⇔ x y ∈ H. Ses classes d’équivalences sont les xH = {xh, h ∈ H} tous
en bijection avec H. On en déduit que #H diviser #G

21 Équations différentielles linéaires


21.1 Introduction
Notion d’équation différentielle : équation dont l’inconnue est une fonction, faisant
intervenir cette fonction et ses dérivés au même point (pas de y ′ () = y(t + 1)). Les
fonctions sont d’une seule variable (pas de dérivées partielles).
Une équation différentielle est de la forme F (t, y(t), . . . , y (n) (t)) = 0 ou F est défini
sur D ⊂ R×Kn+1 . Une solution est un couple (I, f ) où I est un intervalle de définition
et f : I → K est n fois dérivable.

Équation linéaire : F = a0 (t)y + . . . + an y (n) − b(t) = 0


Les (ai ) sont les coefficients et b est le second membre. L’équation sans seconde membre
est l’équation homogène associée.
L’ensemble des solutions sur un intervalle I d’une équation homogène est un sous-
espace vectoriel. Il est affine dirigé par celui des solutions homogènes ou vide s’il y a
un second membre.
P
Principe de superposition : si
P b(t) = λi bi (t) et yi une solution de l’équation linéaire
de second membre bi , alors λi yi est solution de l’équation de second membre b

Équation résolue d’ordre n : de la forme y (n) = Ψ(t, y(t), . . . , y (n−1) (t)).


Au premier ordre, elle s’écrit y ′ = Ψ(t, y(t)). Une condition initiale est un couple (t0 , y0 )
et un problème de Cauchy est une équation du premier ordre muni d’une condition
initiale.
A l’ordre k, une condition initiale est une liste (t0 , y0 , . . . , yn−1 )

Équation linéaire scalaire : y ′ = a(t)y + b(t) avec a et b continue sur I. Une solution
est a priori définie sur J ⊂ I, mais est en pratique prolongeable sur I. Si a et b sont de
classe C k , alors on montre par récurrence que toute solution est de classe C k+1 . Cette

62
Dorian Lesbre Notes Cours Maths MP*

définition se généralise à l’ordre n, pour y : I → E où E est un espace vectoriel.


L’équation d’ordre 1 associée à y (n) = Ψ(t, y(t), . . . , y (n−1) (t)) en définissant Φ par :
 
   z1
z0 ..
.
 
Φ t, .
. =
.
     

zn−1
zn−1
 
Ψ(t, z0 , . . . , zn−1 )

l’équation se réécrit alors Z ′ = Φ(t, Z)

Forme intégrale : soit D ⊂ R × E et Φ : D → E continue. On considère l’équation



y = Φ(t, y) avec condition initiale (t0 , y0 ) ∈ D. Si (I, f ) est une solution, alors f est
de classe C 1 Z t
y(t) = y0 + Φ(t, y)dt
t0
équation qui est équivalente à l’équation initiale.

21.2 Cas d’une résolution explicite


Équation linéaire scalaire d’ordre 1 : notons (E) : a(t)y ′ + b(t)y = c(t) avec (a, b, c)
continues sur I et que a ne s’annule pas. Notons (E0 ) l’équation homogène associée.
— l’ensemble solution de E0 sur I est une droite vectorielle sur K. Il existe une
fonction ne s’annulant pas sur I telle que E0 = Vect(yh )
— il existe une solution yp de (E) sur I. Les solutions de E sont alors yp + Vect(yh )
— tout problème de Cauchy associé admet une unique solution définie sur I
Si a s’annule, on commence par résoudre sur les domaines où a ne s’annule pas, puis
on raisonne par CN/CS.

de la forme y ′ = ay+b(t) ou a est constante


Équation linéaire à coefficients constants :
sur I. Pour a ∈ L (E) et b ∈ C 0 (I, E) On considère les trois équations et leurs
équivalents matriciels :
(E) y ′ = ay + b(t) X ′ = AX + B(t) avec X : I → Kn
(E0 ) y ′ = ay X ′ = AX avec X : I → Kn
(E0 ) u′ = a ◦ u U ′ = AU avec U : I → Mn (K)

R → L (E)
 ′
u =a◦u
La fonction u0 : est solution du problème de Cauchy
t 7→ exp(ta) u(0) = idE
Pour tout t, u0 (t) est inversible. Les solutions de (E0 ) sont les u0 × y0 pour y0 ∈ E.
Plus généralement, y(t) = exp((t − t0 )a)y0 est l’unique solution sur I contenant t0 du

problème de Cauchy y = ayy(t0 ) = y0 L’espace vectoriel des solutions de (E0 ) est
donc isomorphe à E (par y 7→ y(t0 ))

63
Notes Cours Maths MP* Dorian Lesbre

Résolution pratique : calculer exp(tA) nécessite de réduire A. En pratique, cette


réduction peut suffire :
— A diagonalisable, pour V un vecteur propre de valeur associé λ, φV : t 7→ eλt V
X ′ = AX
est solution de
X(0) = V
Il existe une base de vecteurs propres, donc une base de φV (même dimension)
qui donne toutes les solutions...
— A diagonalisable dans C et non R. On trouve une base de vecteurs propres dans
C vérifiant
— si λ ∈ R alors V ∈ Rn
— si λ ∈ / R alors on forme des couples V, V (pour λ et λ
on change les couples de fonctions (eλt V, eλt V ) = (φ, φ) en (Re(φ), Im(φ))
— A trigonalisable : A = P T P −1 , on pose Y = P −1 X on a Y ′ = T Y , système
triangulaire que l’on résout ligne par ligne, puis on revient à X grâce à X = P Y

Équation totale : y ′ = a.y + b(t) où b ∈ C 0 (I, E), alors :


— il existe une solution y1 de E sur I ( variation de la constante)
— la solution de E sont y1 + exp(ta).Λ avec Λ ∈ E (SEA de dim 1...)
— tout problème de Cauchy associé à E sur I possède un unique solution sur I
On en déduit que deux solutions distinctes sont distinctes en tout point (ordonnée
dans le cas réel)

Équation linéaire scalaire à coefficient constant : y (n) = a1 y (n−1) + . . . + an y + b(t) où


(aj )j∈[[1, n]] ∈ Kn et b ∈ C 0 (I, E).
En se ramenant à une équation vectorielle d’ordre 1, on sait que les solutions de E
sont un SEA de dimension n orienté par le SEV des solutions de l’équation homogène.
— toute solution de (E0 ) est C ∞
— si D est la dérivation et P = X n − n−1 i
P
i=0 an−i X alors les solutions sont les
éléments du noyau de P (D)
— si λ est racine de P d’ordre r alors ∀Q ∈ Kr−1 [X], t 7→ Q(t)eλt est solution de
(E0 )
Y
Résolution : si P = (X − λi )ri , les solutions de (E0 ) sont de la forme
X
y= Qi (t)eλi t

avec Qi ∈ Kri −1 [X] Q


Dans le cas réel P = (X − λi )ri ((X − αi )2 + βi2 )si , alors
Q
X X
Qi (t)eλi t +

y= exp(αi t) Ri (t) cos(βi t) + Si (t) sin(βi t)

obtenue à partir de la solution complexe


64
Dorian Lesbre Notes Cours Maths MP*

Solution particulière :si b(t) = Q(t)eαt on trouve une solution de la forme tr eαt R(t)
avec deg R = deg Q et r est l’ordre de multiplicité de α comme racine de P .

21.3 Cas général

Pas de méthode générale de résolution pour résoudre une équation différentielle


linéaire qui n’est ni à coefficients constants (vectoriel ou scalaire) d’ordre 1

Théorème de Cauchy-linéaire : soit I un intervalle, a ∈ C 0 (I, L (E)), b ∈ C 0 (I, E).


Soit t0 ∈ I et y0 ∈ E. On s’intéresse au problème de Cauchy :
 ′ Z t
y = a(t)[y] + b(t)  
⇔ y = y0 + a(u)[y(u)] + b(u) du
y(t0 ) = y0 t0
Rt
ON démontre que si (zn ) ∈ C 0 (I, E)N vérifie zn+1 (t) = t0 a(u)[zn (u)]du alors
P
zn
Rt
Pnormalement sur tout segment, puis que si h(t) = t0 a(u)[h(u)]du alors
converge
h = 0 ( h converge).

Théorème de Cauchy-linéaire : Le problème de Cauchy

y ′ = a(t)[y] + b(t) avec y(t0 ) = y0

admet une unique solution sur E


Rt
Existence cvu de yn+1 = y0 + t0 a(u)[yn (u)] + b(u)du. Unicité, nullité de h ci-dessus.
On en déduit que toute solution sur J ⊂ I d’un problème de Cauchy se prolonge de
manière unique sur I.

Structure de l’ensemble des solutions pour une équation d’ordre 1 : l’ensemble E0 des
solutions de l’équation homogène sur I est un K-espace vectoriel et pour t0 ∈ I, y 7→
y(t0 ) est un isomorphisme de ε0 dans E.
L’ensemble E des solutions de l’équation totale est un sous-espace affine de C 1 (I, E)
dirigé par E0 . Donc E, E0 et E ont même dimension.

Système fondamental : c’est une base de l’ensemble des solutions de l’équation ho-
mogène. Pour en trouver il suffit de trouver φ1 , . . . , φn telles que
— soit φi soit solution et la (φ1 , . . . , φn ) est libre
— soit (φ1 , . . . , φn ) est génératrice de E0
Et de conclure par un argument de dimension.

65
Notes Cours Maths MP* Dorian Lesbre

Wronskien : pour (y1 , . . . , yn ) des solutions de E0 et B une base de E on appelle ma-


trice wronskienne de (y1 , . . . , yn ) dans la base B la fonction W : t 7→ MB (y1 (t), . . . , yn (t)).
On appelle wronskien la fonction w : t 7→ det(W (t)). On a alors les équivalences
— (y1 , . . . , yn ) est un système fondamental
— ∃t ∈ I, w(t) ̸= 0
— ∀t ∈ I, w(t) ̸= 0

Recherche d’une solution particulière :méthode de la variation des constantes à partir


de la forme d’une équation homogène (combinaison linéaire d’un système fondamental).

Équation différentielle linéaire scalaire d’ordre n = 2 : de la forme an (t)y (n) + . . . +


a0 (t)y = b(t) avec les (ai ) et b continues sur I et (an ) ne s’annulant pas sur I. L’en-
semble des solutions est un sous-espace affine de C n (I, K)
Pour l’ordre 2, ∀t0 ∈ I, ∀(a, b) ∈ K2 , ∃!y ∈ S, y(t0 ) = a et y ′ (t0 ) = b
Pour (y1 , y2 ) deux solutions de l’équation homogène d’ordre 2, on appelle wronskien
de (y1 , y2 ) la fonction
y (t) y2 (t)
t 7→ 1′
y1 (t) y2′ (t)
Sa non-nullité caractérise l’indépendance de (y1 , y2 ). Il vérifie l’équation aw′ + bw = 0
(pour ay ′′ + by ′ + cy = 0). On en déduit que le wronskien de deux solutions d’une
équation du type y ′′ + qy = 0 est constant sur I.

21.4 Étude qualitative des solutions d’une équation différentielle


Lemme de Gronwall (HP) : soit a, b ∈ C 0 (I, R+ ) et A la primitive de a s’annulant
en t0 ∈ I. Soit y de classe C 1 sur I vérifiant
∥y ′ ∥ ⩽ b(t) + a(t) ∥y∥
Z t
alors ∥y∥ ⩽ ∥y(t0 )∥ eA(t)
+e A(t)
b(s)e−A(s) ds.
Rt t0
Démo : poser F (t) = t0 b(s) + a(s) ∥y(s)∥ ds et établir F ′ − aF ⩽ b + a(t) ∥y(t0 )∥
puis intégrer en multipliant par e−A(t)

22 Calcul différentiel
22.1 Différentiabilité
Rappels : fonction de plusieurs variables et fonctions partielles (dans une base de
l’espace de départ) (continuité ⇒ continuité partielle, mais PAS la réciproque). Ne
pas confondre avec fonction composante (dans une base de l’espace d’arrivée) où la
continuité et dérivabilité est équivalente à celle de toutes les fonctions composantes

66
Dorian Lesbre Notes Cours Maths MP*

Dérivée selon un vecteur : soit U ⊂ E un ouvert et f : U → F . Soit a ∈ U et h ∈ E


on dit que f est dérivable selon le vecteur h en a si t 7→ f (a + th) est dérivable en 0.
Sa dérivée est notée Dh f (a)

Dérivée partielle : lorsque E = Rp , les dérivées selon les vecteurs de la base canoniques
∂f
s’appellent les dérivées partielles et se note Dj f (a) ou ∂x i
(a)

Applications tangentes et comparaisons : pour u ∈ L (E, F ) avec E de dimension


finie.
— u continue sur E et u(h) = O (h) au voisinage de 0
— u = 0 ⇔ u(h) = o(h)
f et g dites tangentes en a ∈ U si f (a + h) − g(a + h) = o(h). Cette notion est un cas
particulier du contact d’ordre k, donné par o(∥h∥k )

Différentielle en un point : on dit que f est différentiable en a ∈ U s’il existe


une application affine tangente à f en a, c’est-à-dire :

∃u ∈ L (E, F ), ∀h ∈ E f (a + h) = f (a) + u(h) + o (h)


h→a

Propriété de la différentielle :
— Contrairement aux dérivées partielles, la différentiabilité implique la continuité.
— L’application u est alors unique, on la note df (a) et on l’appelle différentielle de
f en a.
— si f est différentiable en a ∈ U alors elle admet une dérivée selon tout vecteur
h ∈ E et Dh f (a) = df (a)[h]
— on en déduit que pour h = (h1 , . . . , hn ) dans une base de E fixée, on a
n n
X X ∂f
df (a)[h] = Dh f (a) = hj ∂j f (a) = hj (a)
j=1 j=1
∂xj

Opérations sur les fonctions différentiables : f est différentiable sur U si elle l’est en
U → L (E, F )

tout point de u. Sa différentielle est alors la fonction df : .
x 7→ df (x)
Soit f, g : U → F différentiables en a,
— alors λf + µg l’est également et d(λf + µg)(a) = λdf (a) + µdg(a)
— soit T ∈ L (E F ), T ◦ f est différentiable en a et d(T ◦ f )(a) = T (df (a))
— pour S bilinéaire, S(f, g) est différentiable en a et

∀h ∈ E d(S(f, g))(a).h = S(df (a).h, g(a)) + S(f (a), dg(a).h)

67
Notes Cours Maths MP* Dorian Lesbre

— composition : si f : U → V est différentiable en a ∈ U et g : V → F différen-


tiable en b = f (a), alors g ◦ f est différentiable en a et
d(g ◦ f )(a) = dg(f (a)) ◦ df (a) = h 7→ dg(f (a))[df (a)[h]]

— inverse : si f réelle ne s’annule pas, alors f1 différentiable en a et d( f1 )(a) = − df (a)


f 2 (a)
Ces opérations se généralisent aux fonctions différentiables sur U

Fonction composante : f est différentiable si et seulement si ses fonctions composantes


dans une base de F le sont. Dans ce cas les composantes de la différentielle sont les
différentielles des composantes

Dérivés d’une fonction d’une variable : soit I un intervalle ouvert de R. φ : I → F


est dérivable en t0 ∈ I si et seulement si elle y est différentiable.
Sa différentielle en t0 est alors t 7→ tφ′ (t0 )
Si φ : I → U est dérivable en t0 et f : U → F est différentiable en a = φ(t0 ) alors
f ◦ φ est différentiable/dérivable en t0 et d(f ◦ φ)(t0 ) = df (a) ◦ dφ(t0 )
Cas particulier : φ = a + th, on retrouve la dérivée selon le vecteur h

Dérivés d’une fonction à plusieurs variables : si E = Rp et f : U → F est différen-


tiable sur U alors pour toute application x1 , . . . , xp : I → Rp dérivable, f (x1 , . . . , xp )
dérivable et
p
df (x1 , . . . , xp ) X dxi df
∀t ∈ I, = (t) (x1 (t), . . . , xp (t))
dt i=1
dt dxi

Règle de la chaine : soit U ouvert de Rp et V ouvert de Rn , f : U → V et g :


V → G deux applications différentiables. Alors g ◦ f est différentiable sur U et ses
dérivées partielles vérifient :
p
∂g ◦ f X ∂fi ∂g
(x) = (x) (f (x))
∂xj i=1
∂xj ∂fi

Matrice jacobienne : on prend E de dim p muni d’une base BE et F de dim n muni


de BF . Soit f : U → F différentiable en a, alors
 
∂fi
MBE ,BF (df (a)) = ∈ Mn,p (K)
∂xj 1⩽i⩽n
1⩽j⩽p
 
∂f1 , . . . , fp
C’est la matrice jacobienne, notée . Sa j-ème colonne est les coordon-
∂x1 , . . . , xn
∂f
nées de ∂x j
(a) dans la base de F , sa i-ième ligne est la matrice de dfi (a) dans la base

68
Dorian Lesbre Notes Cours Maths MP*

de Rp .
Ces matrices sont compatibles avec la règle de la chaine :
     
∂(g ◦ f )1 , . . . , (g ◦ f )p ∂g1 , . . . , gp ∂f1 , . . . , fq
(a) = (f (a)) (a)
∂x1 , . . . , xn ∂y1 , . . . , yq ∂x1 , . . . , xn

Difféomorphismes (HP) : un difféomorphisme est une bijection différentiable dont la


réciproque est différentiable. Les différentielles sont alors réciproques l’une de l’autre
(et donc dim E = dim F ). Si E = F = Rn les jacobiennes sont alors en tout point
inverses l’une de l’autre
R \] − ∞, 0] × {0} → R∗+ ×] − π, π[
 2 
C’est un changement de variable (par exemple :
(x, y) 7→ (r, θ)

Théorème d’inversion locale (HP) : si f ∈ C 1 (U, F ) admet une différentielle bijective


en a ∈ U , alors elle induit un difféomorphisme d’un voisinage de a dans un voisinage
de f (a)

Théorème d’inversion globale (HP) : si f ∈ C 1 (U, F ) est injective et a une matrice


jacobienne inversible en tout point de U , alors V = f (U ) est un ouvert de F et f un
difféomorphisme de U dans V .

22.2 Fonctions numériques


Gradient : d’après le Lemme de Riez, pour f : U → R différentiable en a ∈ U où U
est un ouvert d’un espace euclidien, il existe un unique vecteur ∇f (a) tel que

∀x ∈ E, ⟨∇f (a), x⟩ = df (a).x

Si le gradient de f en a est non-nul, il est colinéaire et de même sens que le vecteur


unitaire selon lequel la dérivée est maximale.
Dans une base orthonormée, le gradient s’exprime en fonction des dérivées partielles :
X ∂f
∇f (a) = (a) · ei
∂xi

Extremum local : soit a ∈ U on dit que c’est un


— minimum local s’il existe η > 0 tel que ∀x ∈ B(a, η), f (x) ⩽ f (a)
— maximum local s’il existe η > 0 tel que ∀x ∈ B(a, η), f (x) ⩾ f (a)
— extremum local si c’est un maximum où un minimum
Un point critique de f est un point a ∈ Å tel que f soit différentiable de différentielle
nulle en a.
Tout point intérieur a où f admet un minimum local et est différentiable est un point
critique

69
Notes Cours Maths MP* Dorian Lesbre

22.3 Fonctions de classe C k


Classe C 1 : une fonction est continûment différentiable sur U , ou C 1 si elle est diffé-
rentiable sur U et que sa différentielle est continue sur U .
Les fonctions linéaires et affines sont C 1 . On déduit des opérations sur les fonctions
différentiables que toute combinaison linéaire, produit, composée, et inverse de fonc-
tions C 1 est C 1 .
Une fonction est C 1 si et seulement si toutes ses composantes sont C 1

Théorème fondamental : si E est de dimension finie p et que dans une base de


E, toutes les dérivées partielles de f sont continues sur U , alors f est C 1 sur U

Lien avec l’intégration : pour φ : I → U dérivable et f : U → F de classe C 1 , on a


Z b Z b

df (φ(t)) φ′ (t) dt
 
f (φ(b)) − f (φ(a)) = (f ◦ φ) (t)dt =
a a

Donc sur un ouvert U connexe par arc, f : U → E est constante si et seulement si, sa
différentielle est nulle.

Dérivées partielles successives :


 soit (i1 , . . . , ik ) ∈ [[1, p]]k , lorsqu’elle existe, la fonc-
tion ∂i1 ∂i2 (. . . ∂ik ) est appelée dérivé partielle de f selon (i1 , . . . , ik ).
On appelle dérivées partielles d’ordre k les dérivés par rapport à toutes les listes d’in-
dices de longueur k.

Classe C k : une fonction f : U → F est de classe C k si toutes se dérivées partielles


d’ordre k existent et sont continues sur U .
— si f est de classe C k , alors elle est C i pour tout i ⩽ k
— f est de classe C k ⇔ elle admet de dérivées partielles d’ordre 1 toute de classe
C k−1
Une fonction est de classe C ∞ si elle est C k pour tout k ∈ N

Opération sur les fonctions C k : C k (U, F ) est un R espace vectoriel sur lequel la diffé-
rentielle est une fonction linéaire. La composition de fonctions C k par une application
linéaire, bilinéaire ou C k reste C k .
Une fonction est donc C k si et seulement si toutes ses composantes le sont.
Pour montrer qu’une fonction f est C k , on peut exhiber S un ensemble de fonctions
continues stable par dérivée partielle contenant f .

Dérivées successives selon des vecteurs : on la définit de même que pour les dérivées
partielles.
Une fonction est de classe C k si et seulement si elle admet une dérivée k-ième selon

70
Dorian Lesbre Notes Cours Maths MP*

toute famille de vecteurs et si ces dérivées sont continues.


On peut donc étendre la définition de Rn au cas où E est ev de dimension finie
(indépendant de la base)

Théorème de Schwarz : soit f : U → F de classe C 2 , on a

∀(h, k) ∈ E 2 , Dh Dk f = Dk Dh f



Champs de vecteurs dérivant d’un potentiel : soit E euclidien de dimension p, et V un


champ de vecteurs U → E. On dit que V dérive d’un potentiel s’il existe f : U → R

− →

telle que V = ∇f . SI V est de classe C 1 alors
∂Vi ∂Vj
∀(i, j) ∈ [[1, p]]2 , =
∂xj ∂xi

22.4 Applications

Arc paramétré : un arc paramétré de classe C k est un couple (I, f ) où I est un


intervalle de R d’intérieur non-vide et f : I → E est de classe C k . f (I) est le support
de (I, f ), ou sa courbe dans E.

Tangente à un arc : si f ̸= f (t0 ) au voisinage de t̸=


0 on dit qu’elle admet une tangente
lorsque la droite M (t)M (t0 ) admet une limite (i.e. son vecteur directeur admet une
y(t) − y(t0 )
limite). Pour un arc plan f = (x(t), y(t)), si lim = m ∈ R ∪ {∞} alors
t → 0 x(t) − x(t0 )
elle admet une tangente au point m.

Point régulier :pour un arc C k avec k ⩾ 1, un point M (t0 ) est régulier si f ′ (t0 ) ̸= 0.
L’arc admet alors en M (t0 ) une tangente orientée par f ′ (t0 )

Vecteurs tangents : un vecteur v0 est tangent à une partie X en a s’il existe γ :


[−ε, ε] → X dérivable en 0 tel que γ(0) = a et γ ′ (0) = v0

Description de courbe et de plan :


 
— paramétré : Γ =  x(t), y(t) , t ∈ I = f (I)
S = x(t, u), y(t, u), z(t, u) , (t, u) ∈ A
— implicite : Γ = (x, y) ∈ R2 / f (x, y) = 0 = f −1 ({0})
S = (x, y, z) ∈ R2 , f (x, y, z) = 0
— graphe : Γ = {(x, f (x)), x ∈ I} et S = {(x, y, f (x, y)), (x, y) ∈ A}

71
Notes Cours Maths MP* Dorian Lesbre

 C , l’ensemble
1
Pour un plan défini par un graphe  f de
avec classe  des vecteurs tangents
1 0


à z = f (x, y) en a est P = Vect  0  ,  1 
∂f ∂f
∂x (a) ∂y (a)

Théorème de fonctions implicites (HP) : F ∈ C 1 (U, R) avec U un ouvert de R3 et


a ∈ U tel que F (a) = 0 et ∂F ̸ 0. Alors on a un paramétrage au voisinage de
∂x (a) =
a = (x0 , y0 , z0 ) :
F (x, y, z) =⇔ z = f (x, y)
où f est C 1 d’un voisinage de (x0 , y0 ) dans R

Lien avec le gradient : Soit F ∈ C 1 (U, R) avec U un ouvert de R3 et a ∈ U tel que


F (a) = 0 et ∇F (a) ̸= 0, l’ensemble des vecteurs tangents à F −1 (0) en a est le plan
orthogonal à ∇F (a)

Résumé : T = {vecteurs tangents à S en a}. On a alors selon la définition de S


   
1 0
— graphe : C 1 , alors T = Vect  0  ,  1 
∂f ∂f
∂x (a) ∂y (a)
— implicite : T ⊂ {⟨∇F (a), x⟩ = 0}
— paramétré : Vect( ∂M ∂M
∂u (a), ∂v (a)) ⊂ T

72

Vous aimerez peut-être aussi