Cours d'Analyse et Probabilités MP*
Cours d'Analyse et Probabilités MP*
A.CHABCHI
Le 11/03/2024
1.6 Densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.7 Valeur d’adhérence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.8 Compact . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.9 Continuité des applications . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.10 Convergence des suites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.11 Connexité par arcs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1
4 Séries Entières 15
5 Intégration : 17
6 Dérivation et différentiabilité : 22
6.1 Dérivation : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.2 Différentiabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
6.3 Dérivations des fonctions complexes : holomorphie (Hors programme) . . . . . . . 27
7 Equations différentielle 28
7.1 Les ABC de la MPSI . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
7.2 Equation scalaire d’ordre 2 : . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
7.3 Systèmes différentiels linéaires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
8 Probabilité 30
8.1 Espace de probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
8.2 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
8.3 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
8.4 Variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
8.5 Espérance : cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
8.6 Moment - variance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
8.7 Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.8 Approximation et limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.9 Variable à densité (CNC) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
8.10 Convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
Résumé
Ce résumé est illustré par de nombreux exemples pour faciliter son usage. Les exemples utilisent toutes
les notions du programme et peuvent-être laissé à une seconde lecture.
Bon courage
2
1 Espaces vectoriels normés
1.1 Normes
1. Norme = Toute application N : E −→ R+ vérifiant :
(a) N (x) = 0 ⇐⇒ x = 0
(b) N (λx) = |λ| N (x)
(c) N (x + y) ≤ N (x) + N (y)
2. Exemples :
n
X
(a) Dans Kn : kxk∞ = max |xk | ; et kxk1 = |xk | ; où x = (x1 , ..., xn ) .
1≤k≤n
k=1
Z b
(b) Dans E = C 0 ([a, b] , K) , kf k1 = |f (t)| dt et kf k∞ = max |f (t)| .
a a≤t≤b
3. Une classe de norme très importante p est celle de norme issue d’un produit scalaire : Si
h., .i un produit scalaire sur E, alors kxk = hx, xi est une norme. En plus de l’inégalité triangulaire,
cette norme vérifie aussi l’inégalité de Cauchy-Schwarz : |hx, yi| ≤ kxk kyk, avec égalité ssi (x, y) liée.
Et kx + yk = kxk + kyk ssi (x, y) positivement liée
v
u n
uX
n
(a) Dans R : kxk = t |xk |2 = t XX est la norme euclidienne usuelle associée à : hx, yi =
k=1
n
X
xi yi = t XY. , Cauchy-Schwarz donne :
i=1
v v
n
u n u n
X uX uX
2
x k yk ≤t |xk | t |yk |2 avec égalité ssi (x, y) liés.
k=1 k=1 k=1
et kx + yk = kxk + kyk ssi (x, y) positivement liés
v
u n X n
uX
|mij |2 = T race (t M M ); associée à hM, N i = T race t M N .
p
(b) Dans Mn (R) : kM k = t
i=1 j=1
sZ
b Z b
(c) Dans E = C 0 ([a, b] , R) , kf k2 = |f (t)|2 dt; associée à hf, gi = f (t) g (t) dt. Cauchy-
a a
sZ sZ
Z b b b
Schwarz : f (t) g (t) dt ≤ |f (t)|2 dt |g (t)|2 dt avec égalité ssi (f, g) liés.
a a a
rZ Z
(d) Dans E = L2C
(I, R) , kf k2 = |f (t)|2 dt; associée à hf, gi = f (t) g (t) dt. Cauchy-Schwarz :
Z rZ IZ
r I
2 2
f (t) g (t) dt ≤ |f (t)| dt |g (t)| dt avec égalite ssi f et g.sont liés.
I I I
Restent valables pour K = C en remplaçant dans h., .i : x par son conjugué x dans (a), M par
M dans (b) et f par f dans (c) . on obtient alors :
n
X Z b
t n t
hx, yi = xi yi = XY dans C ; hM, N i = T race M N dans Mn (C) et hf, gi = f (t)g (t) dt
i=1 a
dans C 0 ([a, b] , C) .
3
4. Norme de matrice ou d’endomorphisme : Lorsqu’on travaille dans une algèbre comme Mn (K)
ou L (E) : il est pratique de choisir des normes d’algèbre (sous-multiplicatives) : kABk ≤ kAk kBk
ou ku ◦ vk ≤ kuk kvk . Ces normes vérifient kAp k ≤ kAkp .
1. Inégalité triangulaire :
(a) Pour 2 éléments : kx + yk ≤ kxk + kyk .
Xn Xn
(b) Pour un nombre fini : xk ≤ kxk k
k=1 k=1
+∞
X +∞
X
(c) Pour une série Absolument Cv : xk ≤ kxk k
k=0 k=0
4
(c) L’ensemble des matrices triangulaires sup est fermé car la limite d’une suite de matrices triangu-
laires sup est aussi triangulaire sup.
6. F fermé (relatif) de E ⇐⇒ F = f −1 (f ermé simple de E 0 ) , avec f : E → E 0 continue sur E.
7. O ouvert (relatif) de E ⇐⇒ O = f −1 (Ouvert simple de E 0 ) , avec f : f : E → E 0 continue sur E.
Exemples :
(a) F = (x, y) ∈ R2 / xy ≥ 1 = f −1 ([1, +∞[), où f (x, y) = xy continue car polynômiale et
1.6 Densité
1. A est dense dans E si Ā = E : Tout élément de E est limite d’une suite d’élément de A ou encore
toute boule de rayon non nul contient un élément de A.
2. Deux fonctions continues coincidant sur une partie dense sont partout égales.
3. Pour établir une propriété, on pourra commencer par l’établir sur une sous partie dense.
Exemple : GLn (K) est un ouvert dense de Mn (K) , et comme application par exemple les produits
M N et N M ont le même polynôme caractéristique. ou encore Com(M N ) = Com(M )Com(N ) Dans
les deux cas on commence par le cas inversible, puis on généralise par densité.
5
1.8 Compact
1. A compact si toute suite de A admet une valeur d’adhérence dans A.
2. Compact =⇒ fermé-borné
3. En dimension finie : Compact = fermé et borné.
4. Un produit cartésien fini de compact est compact
5. L’image continue d’un compact est un compact.
6. Théorème des bornes atteintes : Toute fonction continue sur un compact est bornée et
atteint ses bornes. Pour montrer qu’une fonction est bornée ou atteint ses bornes penser à utiliser
ce résultat.
Exemples :
(a) f ∈ C 0 ([a, b] , R) , alors ∃ c ∈ [a, b] , f (c) = sup f (t), car f est continue sur le compact [a, b] .
a≤t≤b
(b) A ∈ Mn (K) , alors ∃ Y ∈ Mn,1 (K) , kY k = 1 et kAY k = sup kAXk , car
kXk=1
X 7−→ AX est continue sur la sphère unité qui est compact.
(c) La distance à un compact (non vide) est atteinte : Si A compact, ∀ x ∈ E, ∃ a ∈ A : d (x, A) =
kx − ak
(d) Lemme coercif : Si f : E → F continue avec limkxk→+∞ f (x) = +∞, f est minorée sur E et
atteint sa borne inférieure : En effet la borne inférieure est atteinte sur un compact.
6
1.10 Convergence des suites
1. lim un = l ⇐⇒ lim kun − lk = 0
n→+∞ n→+∞
2. Si kun − lk ≤ αn avec lim αn = 0, alors lim un = l.
n→+∞ n→+∞
3. En dimension finie , une suite converge ssi ses coordonnées dans une base converge vers les coordonnées
de la limite
Exemples :
(a) lim (xp , yp ) = lim xp , lim yp
p→+∞ p→+∞ p→+∞
(b) Une suite de matrice Ap = (aij (p)) converge vers A = (aij ) ssi ∀ (i, j) : lim aij (p) = aij . Par
p→+∞
In
exemple lim A + = A.
p→+∞ p
4. Suites de Cauchy : ∀ ε > 0, ∃ N ∈ N, ∀ p ≥ N, ∀ q ≥ N, kup − uq k ≤ ε.
— En dimension finie : Une suite est convergente si et seulement si elle est de Cauchy. Ce critère est
théorique et ne fournit aucune idée sur la limite , il est à utiliser en dernier lieu.
— En dimension infinie : Les suites de Cauchy convergent dans les espaces dits Complets. ou de
Banach
— Un complet est fermé. En particulier tout s-ev de dimension finie d’un evn est fermé.
7
X X enx
2. Divergence grossière : lim un 6= 0 =⇒ un diverge grossièrement. Par exemple
n→+∞ n
n≥0 n≥1
diverge grossièrement pour x > 0.
n
X +∞
X
3. Reste et somme partielle : Sn = uk et Rn = S − Sn = uk → 0 quand n → +∞.
k=0 k=n+1
4. Série de références
X
(a) Série géométriques : u ∈ K, La série un converge ssi |u| < 1. dans ce cas :
n≥0
+∞
X 1
i. S = un = .
1−u
n=0
+∞ +∞
X un X e−2x
ii. uk = . Par exemple pour x > 0, e−kx = .
1−u 1 − e−x
k=n k=2
1. Le D’Alembert : ∀ n ≥ 0, un > 0
un+1 P
(a) Si lim < 1, alors un converge
n→+∞ un
un+1 P
(b) Si lim > 1, alors un diverge grossièrement.
n→+∞ un
un+1
(c) Si lim = 1, Cas douteux ! !
n→+∞ un
P
Dans un evn il s’applique à la série kun k pour donner la CvA qui donne la Cv : la série
z 3(n+1)
(−1)n+1
X z 3n (n + 1)! |z|3
(−1)n CvA pour tout z ∈ C∗ , car lim 3n = lim = 0 < 1.
n! n→+∞ n z n→+∞ n + 1
(−1)
n!
2. Comparaison :
P P
(a) Domination : |un | = O (αn ) ou o (αn ) et αn converge, alors un CvA donc Cv.
Exemples :
1 P 1
n2 e−n converge car n2 e−n = o
P
i. La série et converge.
n2 n2
8
P 1 1 1
ii. Pour α > 1, la série de Bertrand β
converge car β
=o , où γ ∈ ]1, α[ .
α
n ln n α
n ln n nγ
P P
(b) Equivalence : un ∼ vn avec ∀ n, vn ≥ 0, alors un converge ⇐⇒ vn converge.
Exemples :
P 1 1 1 P 1
i. La série 1 − cos converge car 1 − cos ∼ 2 et converge à terme ≥ 0.
n n 2n 2n2
1 −n 1 −n e−1 P e−1
P 1 1
ii. La série √ 1+ diverge car √ 1+ ∼ √ et √ converge à terme
n n n n n n
≥ 0.
3. Suite se ramenant à une série : Il est parfois pratique ( lorsque le terme de la suite est une
somme, ou un produit ) de ramener l’étude d’une suite à celle d’une série par téléscoppage
X : Soit (un )
suite, on pose v0 = u0 et vn+1 = un+1 − un , alors la suite (un ) converge ssi la série vn converge..
n≥0
Exemples :
1 1 1
(a) Montrer que la suite un = 1 + + ... + − ln n est convergente : En effet un+1 − un ∼ − 2 ,
2 n 2n
X 1 X
avec − 2 converge et garde un signe constant, donc la série (un+1 − un ) et donc la suite
2n
(un ) convege vers un réel γ dit la constante d’Euler
1
(b) Même question pour vn = n!e−n nn+ 2 dans ce cas on se ramène à une somme en considérant
vn+1
ln (vn ) . On cherche un équivalent de ln (vn+1 ) − ln (vn ) = ln , on conclut que la série
X vn
(ln (vn+1 ) − ln (vn )) converge, puis on conclut que les suites (ln vn ), puis (vn ) convergent.
4. Comparaison avec une intégrale
0
P f ∈ C M ([a, +∞[ , R) une fonction continue par morceaux, positive et décroissante.
Théorème : Soit
Alors la série n≥n0 f (n) converge ssi la fonction f est intégrable au V (+∞) . dans ce cas
Z +∞ Z +∞
f (t) dt ≤ Rn ≤ f (t) dt
n+1 n
Z n
et Sn ∼ f (t) dt en cas de divergence
a
Très utile pour chercher des équivalents de restes, de sommes partielles ou de sommations.
Exemple :
n
X 1
(a) Montrer que Hn = est équivalente à ln (n)
k
k=1
+∞
X 1 1
(b) Pour α > 1, montrer que le reste de Riemann Rn = α
est équivalente à .
k (α − 1) nα−1
k=n+1
9
5. Transformation d’Abel (Hors programme mais classique) Soit (εn )n une suite réelle décroissante
de
limitennulleet (un ) une suite à terme dans un evn de dimension finie E, dont la somme partielle
P P
An = uk est bornée. Alors la série εn un est convergente.
k=0 n
n
X
On montre que sa somme partielle Sn = εk uk vérifie le critère de Cauchy, en écrivant un =
k=0
An − An−1 .
X sin (nθ) X cos (nθ)
Exemple : Pour α ∈ ]0, 1] , les séries et ( θ 6= 0 [2π])
nα nα
6. Série de matrice ou d’endomorphisme.
+∞
Ak = (In − A)−1 .
X X
(a) Si |||A||| < 1, alors la série géométrique de matrice Ak CvA et de somme
k≥0 k=0
En particulier la matrice (In − A) est inversible.
X Ak
(b) ∀ A ∈ Mn (K) , alors la série exponentielle CvA et de somme exp (A) .
k!
7. Produit de Cauchy :
n
!
X X X X
(a) un × vn = uk vn−k .
n≥0 n≥0 n≥0 k=0
n +∞ +∞
!
X X X X X X
(b) Si un et vn CvA, alors le produit uk vn−k CvA aussi et on a un × vn =
n≥0 n≥0 n≥0 k=0 n=0 n=0
+∞ X n
!
X
uk vn−k .
n=0 k=0
+∞
X +∞
X
P
(a) Si αn est convergente et un ∼ αn alors uk ∼ αk
k=n k=n
n
X n
X
P
(b) Si αn est divergente et un ∼ αn alors uk ∼ αk
k=0 k=0
10
Pratique : En général, en cas de convergence la relation de comparaison se transmet aux restes
et en cas de divergence elle se transmet aux sommes partielles.
1 P n
Exemple : (un ) ∈ E N , lim un = l, montrons que la moyenne uk converge aussi vers l : On a
n n + 1 k=0
n
n
P P P
un − l = o (1) , avec 1 divergent et à terme positif, donc (uk − l) = o 1 = o (n + 1) . D’où
n k=0 k=0
1 P
uk − l = o (1) .
n + 1 k=0
2.4 Sommabilité
1. Ensemble dénombrable : En bijection avec N, donc on peut le ranger en une suite {xn / n ∈ N}
— Un produit cartésien fini d’ensemble dénombrable est dénombrable
— Une réunion fini ou dénombrable d’ensemble dénombrable est dénombrable.
— Z, N × N, Q sont dénombrables ainsi que leurs sous-parties infinies.
— R et ses sous-intervalles non réduit à un singleton sont non dénombrables
2. Sommabilité :
(a) Sommabilité : I dénombrable et (xi )i∈I ∈ KI est dite sommable si la famille à terme ! positif
X
des modules (|xi |)i∈I est sommable : les sommes partielles finies |xi | , J ⊂ I, J fini sont
i∈J
majorées. Dans ce cas sa somme ne dépend pas de l’ordre de la sommation.
P
(b) Cas d’une suite (xn )n∈N : Elle est sommable si et seulement si la série xn est absolument
n∈N
convergente.
(c) Sommation par paquet : Soit (In )n∈N une partition de I. La famille (xi )i∈I !est sommable si et
X P
seulement si, ∀n ∈ N, la famille (xi )i∈In est sommable et la série |xi | est convergente.
n≥0 i∈In
Dans ce cas
+∞
!
X X X
xi = xi
i∈I n=0 i∈In
(d) Sommabilité des suites doubles qui permet d’échanger l’ordre de deux sommations
infinies (Fubini)
Théorème fondamental : Interversion des sommations
Soit u = (up,q )(p,q)∈N2 une suite double de réels ou de complexes, les propriètés suivantes sont équivalentes :
— u est sommable.
X X X +∞
— Pour tout q ∈ N fixé, la série up,q est absolument convergente et la série |up,q | est
p∈N q∈N p=0
convergente.
X X X+∞
— Pour tout p ∈ N fixé, la série up,q est absolument convergente et la série |up,q | est
q∈N p∈N q=0
convergente.
Dans ce cas, on a :
+∞
X +∞
X +∞
X +∞
X
s (u) = up,q = up,q .
p=0 q=0 q=0 p=0
Dans la pratique, on commence par la sommation la plus facile ( Géométrique, téléscopique,...) : C’est le
point fort du théorème ! !
11
+∞ +∞
X X 1
Exemple1 : Montrer que (ζ (k) − 1) = 1, où ζ (k) = désigne la fonction Zêta de Riemann.
nk
k=2 n=1
+∞ X+∞
X 1 1
Réponse : Cela revient à montrer que : k
= 1. On considére la suite double , on fixe
n nk n≥2,k≥2
k=2 n=2
X 1 k 1
n ≥ 2, la série est géométrique de raison < 1, donc converge et de somme
n n
k≥2
+∞
1 k
X 1 1 1 X 1 1
= 2 = et aussi est convergente, ainsi est sommable
n n 1 n (n − 1) n (n − 1) nk n≥2,k≥2
k=2 1− n≥2
n
et par suite :
+∞ +∞ X
+∞ +∞ X
+∞ +∞ +∞
X X 1 X 1 X 1 X 1 1
(ζ (k) − 1) = = = = − =1
nk nk n (n − 1) n−1 n
k=2 k=2 n=2 n=2 k=2 n=2 n=2
Exemple2 : Si X et Y sont deux variables aléatoires discrètes à valeurs entières admettant des espérances,
montrer que E (X + Y ) = E (X)+E (Y ). Si de plus X et Y sont indépendantes, montrer alors que E (XY ) =
E (X) E (Y ) X XX
Ecrire E (X) = kP (X = k) = kP (X = k) P (Y = k 0 ) et
k∈N k ∈N 0
X Xk∈N
E (Y ) = 0 0
k P (Y = k ) P (X = k) . Ces familles étant sommables, on choisit la partition (An )n∈N de
k0 ∈N k∈N
N2 avec An = (k, k 0 ) ∈ N2 / k + k 0 = n , alors
X X X
E (X) + E (Y ) = n P (X = k) P Y = k 0 = nP (X + Y = n) = E (X + Y )
n∈N (k,k0 )∈An n∈N
1. La convergence simple : La suite de fonctions (fn )n CvS sur la partie A vers la fonction f si :
∀ x ∈ A, lim fn (x) = f (x) .
n→+∞
Exemples :
2
(a) La suite de fonctions fn (x) = nxe−nx CvS sur R vers la fonction nulle
x n
(b) La suite de fonctions fn (x) = 1 + CvS sur R vers la fonction f : x 7−→ ex
n
2. La convergence
uniforme : La suite de fonctions (fn )n CvU sur la partie A vers la fonction f si :
lim sup |fn (x) − f (x)| = 0. Remplacer le module par la norme en cas de fonctions à valeurs
n→+∞ x∈A
vectorielles
Pour montrer la convergence uniforme, on peut dominer uniformément la différence |fn (x) − f (x)|
par une suite de limite nulle.
Exemples :
12
2
e−nx 1
(a) La suite de fonctions fn (x) = CvS sur R vers la fonction nulle car ∀ x ∈ R, |fn (x)| ≤ → 0
n n
x n
(b) La suite de fonctions fn (x) = 1 + ne Cv pas Uniformément sur R vers la fonction f : x 7−→
x n n
n
e car |fn (n) − f (n)| = e − 2 9 0.
Tout d’abord, Il est à noter que la convergence simple ne permet pas de transmettre les
propriètés des fn à la limite f.
1. Continuité de la limite : A partie de E, fn : A −→ F .(E et E evn de dim < +∞)
∀ n ∈ N, fn continue sur A partie d’un evn de dimension finie
Si ,
La suite (fn ) CvU sur tout compact C de A, vers f
alors f est continue sur A.
Si A ⊂ R, choisir C = [a, b] segment de A.
Pratique :
Si A ⊂ E evn, choisir C = Bf (a, r) boule fermée de A
2. Dérivabilité de la limite : J intervalle de R, fn : J −→ F evn de dim < +∞
∀ n ∈ N, fn de classe C 1 sur J
Si La suite (fn ) CvS sur J vers f
La suite (fn0 ) CvU sur tout segment [a, b] de J
0
1
alors f est C sur J et lim fn = 0 lim fn .
n→+∞ n→+∞
(k)
Extension C k : Se généralise aux fonctions de classes C k sous la CvU de fn sur les segments
n
et la CvS des autres dérivées.
Pratique : S’utilise pour les fonctions à plusieurs variables en passant par les dérivées partielles
3. Théorème de Stone-Weierstrass : Toute fonction continue sur un segment [a, b] est limite uni-
forme sur [a, b] d’une suite de polynôme : kPn − f k[a,b]
∞ −→ 0 quand n −→ +∞.
Z b
0
Application : Si f ∈ C ([a, b] , K) vérifiant pour tout n ∈ N, xn f (x) dx = 0, alors f = 0.
a
Commencer par les fonctions polynômes et généraliser par densité
13
kfn kA
P P
— fn CvN si la série numérique ∞ converge. P
— Majoration uniforme : Si ∀ x ∈ A, |fn (x)| ≤ α n avec αn converge, alors la série numérique
P A P
kfn k∞ converge, donc fn CvN sur A et donc CvU sur A. Attention αn ne dépend pas de
x.
Exemples :
X cos (nx) cos (nx) 1 X 1
(a) CvU sur R car ≤ avec Cv.
n2 n2 n2 n2
X 1 1 1 X 1
(b) Pour a > 1, x
CvU sur [a, +∞[ car x ≤ a avec Cv.
n n n na
X Ak
(c) A ∈ Mn (K) , la série exponentielle CvN sur tout compact de Mn (K) : Sur toute boule
k!
Ak rk P rk
B (0, r) , pour une norme d’algèbre ≤ et Cv
k! k! k!
X
4. Cas des séries alternées : Si ∀ x ∈ A, la série (−1)n fn (x) est alternée vérifiant le CSSA et
X
lim sup |fn (x)| = 0 alors (−1)n fn CvU sur A car |Rn (x)| ≤ |fn+1 (x)| ≤ kfn+1 k∞ → 0.
n→+∞ x∈A
Exemples :
X xn xn+1 1
(a) La série (−1)n CvU sur [0, 1] car |Rn (x)| ≤ ≤ → 0.
n n+1 n+1
X n
x x x a
(b) La série (−1) ln 1 + CvU sur [0, a] car |Rn (x)| ≤ ln 1 + ≤ ≤ →
n n+1 n+1 n+1
0.
14
4 Séries Entières
X
an z n , comme z n ou nz 2n dite lacunaire
P P
De la forme
an z n de rayon R, alors
P
2. Cas complexe : Soit
an z n CvA sur D (0, R)
P
P n
P an zn CvU sur tout D (0, r) ⊂ D (0, R)
an z diverge grossiérement pour |z| > R
En |z| = R, on ne peut rien dire en général
Erreur à éviter : En général pas de CvU sur ]−R, R[ ou sur D (0, R) tout entier.
15
an Rn CvA, alors an z n CvN sur D (0, R) .
P P
3. Cas favorable sur le bord : Si
En absence de convergence ABSOLUE, on pourra utiliser le résultat suivant :
an z n de rayon R et de somme S. Si la série an Rn converge,
P P
4. Théorème d’Abel radial : Soir
+∞
an Rn
P
alors lim S(x) =
x7→R −
n=0
n
n n ak bn−k z n et
P P P P
5. Produit de Cauchy : an z bn z =
n≥0 n≥0 n≥0 k=0
+∞ +∞ +∞
n
n n ak bn−k z n
P P P P
si |z| < min (Ra , Rb ) , alors an z bn z =
n=0 n=0 n=0 k=0
16
Fonction DSE
+∞ n
X x
exp(x) ; R = +∞
n!
n=0
+∞
X x2n
cos(x) (−1)n ; R = +∞
(2n)!
n=0
+∞
X x2n+1
sin(x) (−1)n ; R = +∞
(2n + 1)!
n=0
+∞
X x2n
ch(x) ; R = +∞
(2n)!
n=0
+∞
X x2n+1
sh(x) ; R = +∞
(2n + 1)!
n=0
+∞
X α (α − 1) ... (α − n + 1)
(1 + x)α , α ∈
/N 1+ xn ; R = 1
n!
n=1
+∞
1 X
xn ; R = 1
(1 − x)
n=0
+∞
X xn
ln(1 + x) (−1)n+1 ; R=1
n
n=1
+∞ n
X x
ln(1 − x) − ; R=1
n
n=1
+∞
X x2n+1
arctan(x) (−1)n
2n + 1
n=0
+∞ 2n+1
X x
argth(x) ; R=1
2n + 1
n=0
+∞
1 X
(−1)n xn ; R = 1
1+x
n=0
5 Intégration :
Soit I un intervalle quelconque de R.On note L1 (I, K) ( respectivement L2 (I, K) ) l’espace vectoriel formé
des fonctions C 0 M et intégrables ( respectivement de carrés intégrables) sur I à valeurs dans K. On note
aussi L1c (I, K) ( respectivement L2c (I, K) ) celui des fonctions de L1 (I, K) ( respectivement L2 (I, K)) qui
sont de plus continues sur I.
Pour étudier l’intégrabilité de f ∈ F (I, K) sur I, on commencera par chercher les points de I où f n’est
pas continue par morceaux, union éventuellement les extrémités infinies de l’intervalle I, puis on étudiera
l’intégrabilité de f au voisinage de chacun de ces points en divisant l’intervalle d’intégration en plusieurs
sous-intervalles.
convergente (en b) si lim f (t) dt existe dans K. dans ce cas f (t) dt = lim f (t) dt.
x→b− a a x→b− a
17
Z b Z b
— Sur un intervalle de type ]a, b] , b ∈ R , a ∈ R∪ {−∞} , on a f (t) dt = lim f (t) dt
a x→a+ x
Z b Z y
— Sur un intervalle de type ]a, b[ , a ∈ R∪ {−∞} , b ∈ R∪ {+∞} on a f (t) dt = lim f (t) dt
a x→a+ x
y→b−
Z x
1. Reste et somme partielle : (Par analogie aux séries) Pour I = [a, b[ , f (t) dt se comporte
Z b a Z x
alors comme une somme partielle et f (t) dt comme un reste. En particulier lim f (t) dt = 0 :
x x→b a
le reste tend vers 0 en cas de convergence.
— Définition analogue si b ∈ R , a ∈ R∪ {−∞} et f ∈ C 0 M (]a, b] , K) .
— Si a ∈ R∪ {−∞} , b ∈ R∪ {+∞} et f ∈ C 0 M (]a, b[ , K) , on divise l’intégrale par la relation de
Charles en deux intégrales
sin (t)
L’hypothèse de positivité est nécessaire pour le retour : voir l’exemple classique de t 7−→ sur
t
[1, +∞[ .
Dans le cas non réel positif ou complexe : f ∈ C 0 M ([a, b[ , K) , on a uniquement :
Z x Z b Z x
f intégrable sur [a, b[ =⇒ lim f (t) dt existe. Dans ce cas f (t) dt = lim f (t) dt
x→b− a a x→b− a
3. Majoration : f ∈ C 0M (I, K) , g ∈ C 0M (I, R+ ) . Si |f | ≤ g alors l’intégrabilité de g sur I entraı̂ne
celle de f.
4. Domination : f ∈ C 0 M ([a, b[ , K) , g ∈ C 0 M ([a, b[ , R+ ) .
Si f =b− O (g) (ou f =b− o (g)) alors l’intégrabilité de g sur [a, b[ entraı̂ne celle f .
Exemples :
√
2 − t 1 1
(a) f (t) = t e est intégrable sur [0, +∞[ car continue et f (t) = o 2 , avec 2 intégrable en
t t
+∞ car Riemann pour α = 2 > 1
ln2 t
1 1
(b) f (t) = 2 est intégrable sur [2, +∞[ car continue et f (t) = o 3/2 , avec 3/2 intégrable en
t t t
+∞ car Riemann pour α = 3/2 > 1
5. Equivalence : f, g ∈ C 0 M ([a, b[ , K) .
Si f ∼b− g alors l’intégrabilité de g sur [a, b[ est équivalente à celle f .
Exemples :
sin (t) 1 1
(a) f (t) = x
est intégrable sur ]0, 1] ssi x < 2, car continue et f (t) ∼ x−1 , avec x−1 intégrable
t t t
en 0 ssi x − 1 < 1 car Riemann en 0.
18
πi i 1 1
(b) f (t) = ln (sin t) est intégrable sur 0, , car continue et f (t) ∼ ln (t) = o √ , avec √
2 t t
1
intégrable en 0 car α = < 1 Riemann en 0.
2
6. Borne finie : f ∈ C 0 M ([a, b[ , K), si la borne b est finie et lim f (x) existe dans K, alors f est
x→b−
intégrable sur [a, b[ .
Exemples :
sin (t)
(a) f (t) = intégrable en 0 car admet une limite finie en ce point = 1.
t
ln 1 − t2
1
(b) f (t) = intégrable en 0 car admet une limite finie en ce point = − .
2t2 2
1 1
(c) C’est faut en ±∞ : lim = 0, mais non intégrable en +∞ : Riemann α = 1.
t→+∞ t t
7. Comparaison avec une série :
(a) Si f ∈ C 0 M ([0, +∞[ , R) , positive et décroissante, alors
P
f (n) converge ssi f intégrable en +∞.
Dans ce cas
Z +∞ Z +∞ Z n
f (t) dt ≤ Rn ≤ f (t) dt. et en cas de divergnce Sn ∼ f (t) dt.
n+1 n 0
(b) Exemples :
Z +∞ +∞ Z +∞
1 1 X 1 1 1 1
i. Pour f (t) = 2 , on a 2
dt ≤ Rn = 2
≤ 2
dt càd ≤ Rn ≤
t n+1 t k n t n+1 n
k=n+1
1
en particulier Rn ∼ .
n
n Z n
1 X 1 dt
ii. Pour f (t) = , on a Sn = ∼ = ln (n) .
t k 1 t
k=1
iii. Chaque fois que vous voulez un équivalent de somme partielle , de somme ou de
reste pensez à ce résultat.
8. Exemples de références :
1
(a) t 7−→ est intégrable au voisinage de +∞ ssi α > 1.
tα
1
(b) t 7−→ α est intégrable au voisinage de 0+ ssi α < 1
t
1
(c) t 7−→ est intégrable au voisinage de a+ ssi α < 1.
(t − a)α
1
(d) t 7−→ est intégrable au voisinage de +∞ ssi (α > 1) ou α = 1 et β > 1.
t lnβ (t)
α
Z +∞ +∞ Z
X
P
fn = fn .
I n=0 n=0 I
Exemples :
19
+∞ +∞
+∞
te−t
Z
tdt X 1 t X
(a) Montrer que = , On a = = te−nt et
0 et − 1 n2 et − 1 1 − e−t
n=1 n=1
Z +∞ Z +∞ Z +∞
1 X 1 tdt
un = te−nt dt = te−nt dt = 2 (IP P ) , avec 2
converge, donc t
=
0 0 n n 0 e −1
+∞
X 1 π2
= .
n2 6
n=1
1 +∞ +∞
(−1)n+1
Z
ln(t) X ln (t) X
(b) Montrer que 2
dt = 2
, On a 2
= (−1)n t2n ln (t) et
0 1 + t (2n + 1) 1 + t
n=0 n=0
Z 1 Z 1
1 X 1
un = t2n ln (t) dt = − t2n ln (t) dt = 2 (IP P ) , avec converge, donc
0 0 (2n + 1) (2n + 1)2
Z 1 +∞ Z 1 +∞
ln(t) X n 2n
X (−1)n+1
2
du = (−1) t ln (t) dt .
0 1+t (2n + 1)2
n=0 0 n=0
N X
2. Cas d’un segment : On suppose (fn )n ∈ C 0 [a, b] , K , et fn CvU sur [a, b]. Alors on a :
Z +∞ +∞ Z
X
P
fn = fn .
I n=0 n=0 I
+∞
xX +∞ Z x
tn tn tn
Z X X
Exemple : Soit x ∈ R, montrer que dt = dt car est
0 n=1 (2n − 1)! 0 (2n − 1)! (2n − 1)!
n=1 n≥1
une série entière de rayon +∞, donc CvU sur tout segment [0, x] .
Exemples :
n
+∞
t n
Z
t 1
(a) Montrer que : lim 1− cos (t) dt = : On a fn (t) = 1 − cos (t) CvS sur
n→+∞ 0 n 2 n
t
!
n n ln 1−
t n ≤ e−t = φ (t) qui est
R+ vers f (t) = e−t cos (t) et |fn (t)| = 1 − cos (t) ≤ e
n
t n
Z +∞ Z +∞
1
+
intégrable sur R , donc lim 1− cos (t) dt = e−t cos (t) dt = (2 IPP ou
n→+∞ 0 n 0 2
passer aux complexes).
Z +∞
+
(b) Si f intégrable sur R , alors lim f (t) e−nt dt = 0 car f (t) e−nt ≤ |f (t)| qui est intégrable
n→+∞ 0
Z +∞ Z +∞ Z +∞
+
sur R , donc lim −nt
f (t) e dt = −nt
lim f (t) e dt = 0dt = 0.
n→+∞ 0 0 n→+∞ 0
20
Z 1
1 + nx
(c) S’applique sur un segment en dominant par une constante : lim dx =
n→+∞ 0 (1 + x)n
Z 1
1 + nx 1 + nx
lim n
dx = 0 car ≤ 1 intégrable sur [0, 1] .
0 n→+∞ (1 + x) (1 + x)n
Extension de la convergence dominée :
J
On suppose (fλ )λ∈J ∈ C 0 M (I, K) , a ∈ J, (éventuellement ± ∞), avec (∀ x ∈ I) , lim fλ (x) =
λ→a
f (x) , C 0 M sur I et qu’il existe
φ ∈ C 0 M (I, R+ ) intégrable sur I indépendante de λ , vérifiant
∀ λ ∈ J, ∀t ∈ I; |fλ (t)| ≤ φ (t) ( Hypothèse de domination ). Alors f est intégrable sur I et on
a: Z Z
lim fλ (t) dt = lim fλ (t) dt .
I λ→a λ→a I
+∞
e−xt e−xt
Z
1
Exemple : lim dt = 0 car ≤ intégrable sur R+ .
x→+∞ 0 1 + t2 1 + t2 1 + t2
continue sur R car (x, t) 7−→ f (t)e−ixt est C 0 sur R2 et f (t)e−ixt ≤ |f (t)| qui est intégrable sur
R. Z +∞
(b) La transformée de Laplace Lf (x) = f (t)e−xt dt d’une fonction C 0 et avec f (t) e−xt intégrable
0
sur R+ , est continue sur ]0, +∞[ car (x, t) 7−→ f (t)e−xt est C 0 sur ]0, +∞[ × R+ et ∀ x ∈ [a, b] ⊂
]0, +∞[ , f (t)e−xt ≤ |f (t)| e−at qui est intégrable sur R.
2. Théorème de dérivabilité sous l’intégrale : J intervalle de R.
J × I −→ K ∂f
On suppose f : C 0 /x sur J et C 0 M /t sur I, existe est soit C 0 /x sur J et
(x, t) 7−→ f (x, t) ∂x
C 0 M /t sur I, pour tout x ∈ J, la fonction t 7−→ f (x, t) intégrable sur I et que pour toute segment
[a, b] de J , il existe φ ∈ C 0 M (I, R+ ) intégrable sur I indépendante de x, vérifiant
∂f
∀ x ∈ [a, b] , ∀t ∈ I; (x, t) ≤ φ (t)
∂x
(Hypothèse de domination).
Z
Alors la fonction g : x 7−→ f (x, t) dt est de classe C 1 sur J et on a :
I
Z
∂f
∀ x ∈ J, g 0 (x) = (x, t) dt. Formule de Leibniz
I ∂x
21
Z +∞
∂f
Exemple : la fonction Γ (x) = tx−1 e−t dt est C 1 sur ]0, +∞[ car f : (x, t) 7−→ tx−1 e−t et
0 ∂x
sont C 0 sur (]0, +∞[)2 et ∀ x ∈ [a, b] ⊂ ]0, +∞[ , ∀t > 0;
∂f −t a−1 b−1
1
(x, t) ≤ φ (t) = |ln (t)| e max t , t intégrable sur ]0, +∞[ car φ (t) =0+ o α avec
∂x t
1
α ∈ ]1 − a, 1[ et φ (t) =+∞ o 2 .
t
3. Cas d’un segment : Lorsque I = [a, b] ; et
Z
g : x 7−→ f (x, t) dt. Alors les thérèmes (2) et (3) ci-dessus restent valables sans avoir besoins des
[a,b]
∂f
dominations, sous la continuité de f et sur J × I.
∂x
4. S’utilise pour une fonction g à plusieurs variable, en passant par les dérivées partielles.
∂kf
5. Se généralise pour les fonctions de classe C k , en dominant sur tout segment de J.
∂xk
6 Dérivation et différentiabilité :
6.1 Dérivation :
1. Formules de dérivation :
0 1
(a) (f ◦ g)0 = g 0 .f 0 ◦ g et f −1 =
f0 ◦ f −1
Z x Z x
d
(b) Si f continue alors ses primitives x 7−→ f (t) dt est C1 et f (t) dt = f (x) .
a dx a
!
Z v(x)
d
(c) Si f continue, u et v dérivables, alors f (t) dt = v 0 (x) × f ◦ v (x) − u0 (x) × f ◦ u (x)
dx u(x)
2. Formules de Taylor
(a) Rolle : f C 0 sur [a, b] , dérivable sur ]a, b[ à valeurs réelles, alors f (a) = f (b) =⇒ ∃c ∈
]a, b[ , f 0 (c) = 0
22
(b) ACF : f C 0 sur [a, b] , dérivable sur ]a, b[ à valeurs réelles, alors ∃c ∈ ]a, b[ , f (b) − f (a) =
(b − a) f 0 (c) .
Exemples : cos est 1-lipschitziennes : |cos (b) − cos (a)| = |(b − a) cos0 (c)| ≤ |b − a|
(c) Formules des accroissements finis dans un evn :
Soit f : [a, b] −→ F continue sur [a, b] , de classe C 1 sur ]a, b[ . On suppose ∃ M > 0, ∀ t ∈
]a, b[ , kf 0 (t)k ≤ M, alors kf (b) − f (a)k ≤ M (b − a) .
La version réelle f (b) − f (a) = (b − a) f 0 (c) n’est plus valable pour les fonctions vectorielles :
f (t) = eit .
(d) Taylor avec reste intégrale : f ∈ C n+1 ([a, b] , K) , alors
n
(b − a)k (k) (b − t)n (n+1)
X Z b
f (b) = f (a) + f (t) dt. Pour b = x et a = 0, on obtient
k! a n!
k=0
n
(x − t)n (n+1)
Z x
X xk (k)
f (x) = f (0) + f (t) dt.
k! 0 n!
k=0
(e) Inégalité de Taylor Lagrange : f ∈ C n+1 ([a, b] , K) , alors
n
X (b − a)k (k) |b − a|n+1
f (b) − f (a) ≤ sup f (n+1) (t) dt.
k! (n + 1)! a≤t≤b
k=0
(f) DL : Si f ∈ C n (]α, β[ , K) , alors
n
X xk (k)
f (x) = f (0) + o (xn ) : DL d’ordre n en 0.
k!
k=0
3. Applications constantes :
f dérivable sur un intervalle I, f constante sur I ⇐⇒ f 0 = 0 sur I.
4. Extemums sur un ouvert
Si f dérivable sur I et admet un extremum en a ∈ ˚
I, alors f 0 (a) = 0 ( Attention a doit-être dans
l’intérieur de I)
6.2 Différentiabilité
1. Différentielle en un point
E et F deux R − evn de dimensions finies. U un ouvert de E.
(a) Définition : f ∈ F (U, F ) est dite différentiable en a ∈ U s’il existe une application linéaire
u ∈ L (E, F ) telle que
f (a + h) = f (a) + u (h) + o (khk)
Dans ce cas u est unique et s’appelle la différentielle (ou l’application linéaire tangente) de f au
point a et se note df (a) ou dfa ou Df (a) .
Ainsi dfa ∈ L (E, F ) est une application linéaire de E sur F.
Proposition : Toute fonction différentiable en a est en particulier continue. La réciproque est
fausse en général.
Cas où E = R : Lien avec la dérivation : On suppose ici E = R, et f ∈ F (I, F ) , alors f est
différentiable en a ∈ I si et seulement si f est dérivable en a. Dans ce cas
R −→ F
dfa : . En particulier f 0 (a) = dfa (1)
h 7−→ h.f 0 (a)
23
(b) Différentielle d’applications linéaire et bilinéaire
Proposition :
i. Soit u ∈ L (E, F ) une application linéaire sur E, alors u est différentiable en tout point x de
E et on a dux = u
ii. Soit f ∈ F (E × F, G) une application bilinéaire sur E × F, alors f est différentiable en tout
point (x, y) de E × F et on a
∀ (h, k) ∈ E × F, df(x,y) (h, k) = f (x, k) + f (h, y)
2. Dérivée selon un vecteur (dérivée directionnelle)
Définition : Soit i ∈ {1, ..., n} , on appelle ième dérivée partielle de f au point a que l’on note
∂f
(a) , la dérivée de f au point a selon le vecteur ei , Ainsi
∂xi
∂f f (a + tei ) − f (a)
(a) = lim
∂xi t−→0 t
∂f
Dans la pratique, pour calculer (a) , on fixe toutes les variables et on dérive de manière normale
∂xi
par rapport à la ième variable.
3. Application de classe C 1 :
(a) Définition : f est dite de classe C 1 sur U si f est différentiable sur U et sa différentielle est
U −→ L (E, F )
continue sur U : càd l’application est continue sur U. On notera f ∈
x 7−→ df (x)
C 1 (U, F )
∂f ∂f
(b) Théorème fondamental : Si f admet des dérivée partiellees , ..., continues sur U ,
∂x1 ∂xn
1
alors f est différentiable en tout point de U. En outre f est de classe C sur U et on a
n n
X X ∂f
∀h= hi ei ∈ E, ∀ a ∈ U, dfa (h) = hi (a)
∂xi
i=1 i=1
Ce théorème est très pratique car il ramène la différentiabilité d’une fonction de plusieurs variable
∂f
f á la dérivation de fonction d’une seule variable grâce aux dérivées partielles qui se calculent
∂xi
facilement en général.
Exemples :
24
i. Montrer que f : (x, y) 7−→ xey + y 2 sin (x) est de classe C 1 sur R2 et donner sa différentielle.
1
ii. Soit E = Rn euclidien et f (x) = , Montrer que f est C 1 sur E \ {0} et donner sa
kxk2
différentielle.
iii. f (M ) = det (M ) . Montrer que f est de classe C 1 sur Mn (R) et que dfM (H) = tr t com (M ) H
U ⊂ Rn → R
4. Application C : f :k est de classe C k sur U ssi ∀i1 , ..., ik ∈ {1, ..., n} ,
(x1 , ..., xn ) 7−→ f (x1 , ..., xn )
∂kf
est continue sur U.
∂xi1 ...∂xik
Exemples :
(a) Toute fonction polynômiale est C ∞ sur Rn : f (x, y) = xy − x2 + xy 3 C ∞ sur R2
(b) Toute fonction rationnelle est C ∞ sur son domaine de définition :
1
f (x1 , ..., xn ) = 2 est C ∞ sur Rn \ {(0, ..., 0)} .
x1 + ... + x2n
∂2f ∂2f
5. Schwarz : Si f est C 2 alors =
∂xi ∂xj ∂xj ∂xi
(a) Vecteur gradient
n
X
On suppose ici que E = Rn euclidien canonique : muni de hx, yi = xi yi
k=1
25
ii. Utile pour la résolution EDP.
(c) Cas général de Composée : Théorème (tres important) : Si f est de classe C 1 sur U et
g de classe C 1 sur V, alors la composée g ◦ f est de classe C 1 sur U et on a, ∀ a ∈ U :
p
∂ (g ◦ f ) X ∂g ∂fk
∀i ∈ [1, n] , (a) = (f (a)) (a)
∂xi ∂yk ∂xi
k=1
∂2f
7. Matrice Hessienne de f : On suppose f ∈ C 2 (U, R) , alors la matrice symétrique (a) de
∂xi ∂yj 1≤i,j≤n
Mn (R) est dite la matrice Hessienne de f au point a. Elle se note Hf (a).
8. Formule de Taylor à l’ordre 2
n
Théorème : On suppose f de classe C 2 sur l’ouvert U, soit a ∈ U et h =
P
hi ei ∈ E tel que
i=1
a + h ∈ U. Alors on a :
n n n
X ∂f 1 XX ∂2f
f (a + h) = f (a) + hi (a) + hi hj (a) + o khk2
∂xi 2 ∂xi ∂yj
i=1 i=1 j=1
— Dans les deux cas, on dit que f admet en a un extrémum local ou relatif.
— Cet extremum est dit global ou absolu lorsque V = U.
(c) Condition nécessaire d’extrémum :
Proposition1 : On suppose f ∈ F (U, R) différentiable en a, avec a ∈ Ů = U. Si f admet en a
un extrémum local alors dfa = 0 : les extérmums de f dans l’ouvert U sont parmis les points
critiques.
En général, les extrémums sont parmis :
i. Les points critiques
ii. Les points frontières : L’étude des extrémums sur la frontière se fait en général de manière
manuelle à l’aide d’un paramétrage du bord.
Proposition2 : On suppose f ∈ C 2 (U, R) et soit a ∈ Ů = U. Si f admet en a un minimum local
(respectivement un maximum local)alors dfa = 0 et Hf (a) ∈ Sn+ (R) (respectivement dfa = 0 et
Hf (a) ∈ Sn− (R).
26
(d) Condition nécessaire et suffisante d’extrémum :
f ∈ C 2 (U, R)
2 a ∈ Ů= U
Théorème IMPORTANT : On suppose , alors
∂ f
Hf (a) = (a) est inversible
∂xi ∂yj 1≤i,j≤n
alors f admet un minimum local (respectivement maximum local) en a si et seulement si dfa = 0
et la matrice Hessienne Hf (a) de f au point a est définie positive (respectivement df( a) = 0 et
définie négative).
Théorème : Cas particulier de deux variables Soit (a, b) est un point critique en lequel la
matrice Hessienne de f en (a, b) est inversible ). Alors f admet en (a, b) un minimum local (respec-
tivement maximum local) si et seulement si det(Hf (a, b)) > 0 et Tr(Hf (a, b) > 0. (respectivement
det(Hf (a, b)) > 0 et Tr(Hf (a, b) < 0.
10. Optimisation sous une contrainte :
Théorème Soient f, g ∈ C 1 (U, R et a ∈ U vérifiant g(a) = 0 et dg(a) 6= 0. Si f admet en a un
extrémum local sous la contraine g(x) = 0, alors il existe un scalaire λ tel que df (a) = λdg(a).
11. Vecteur tangent à une partie :
— Si X une partie d’un evn E et x ∈ X, un vecteur v de E est dit tangent à X en x s’il existe ε > 0
et un arc γ : ]−ε, ε[ −→ X, dérivable en 0 tels que γ (0) = x et γ 0 (0) = v. Notation Tx X
— Théorème Si g ∈ C 1 (U, R), X la partie : g(x) = 0 et a ∈ X tel que dg(a) 6= 0, alors Ta X =
ker(dg(a)).
— Cas où X est une surface (S) définie de manière implicite f (x, y, z) = 0 : Si A (a, b, c) ∈ (S)
−−−→
un point non critique : Grad (f (A)) 6= 0, alors la normale à (S) en A est portée par le gradient.
L’ensemble des vecteurs tangents à (S) en A est alors le plan affine (P ) :
−−→ −−−→
M ∈ (P ) ⇐⇒ AM .Grad (f (A)) = 0
∂ f˜ ∂ f˜
f 0 (z0 ) = (x0 , y0 ) = −i (x0 , y0 )
∂x ∂y
f est holomorphe sur U si et seulement si f˜ est différentiable sur U et vérifie sur U, les conditions de
∂ f˜ ∂ f˜
Cauchy-Riemann : +i = 0.
∂x ∂y
2. Fonctions analytiques
— Analytique sur U c’est DSE au voisinage de tout point de U. Il s’agit ici de généraliser la notion
de fonction développable en série entière pour la variable complexe
— Résultat fondamental : Il y’a équivalence entre analytique et holomorphe.
3. Zéro isolé : Les zéros fonction non nulle analytique sur un ouvert de C connexe par arcs sont isolés
27
4. Prolongement analytique : Deux fonctions analytiques sur un ouvert U de C connexe par arcs
coı̈ncidant sur partie contenant un point non isolé sont égales sur U.
+∞
!2 +∞
!2
X z 2n X z 2n + 1
Exemple : − = 1 car analytique sur l’ouvert convexe C et coı̈ncident
(2n)! (2n + 1)!
n=0 n=0
sur R
7 Equations différentielle
7.1 Les ABC de la MPSI
Avant toute étude détaillée des équations différentielles, il faut absolument connaı̂tre les deux cas parti-
culiers suivants
1. Equation différentielle linéaire scalaire d’ordre 2 à coefficients constants
De la forme : (H) : ay 00 (t) + by 0 (t) + cy (t) = 0, avec a, b et c réels ne dépendent pas de t. Dans ce
cas et uniquement dans ce cas, on considère l’équation caractéristique
(1) : ar2 + br + c = 0
(a) Si ∆ = b2 − 4ac > 0, alors (1) admet 2 racines réelles distinctes r1 et r2 : Les solutions réelles de
(H) sont t 7−→ Aer1 t + Ber2 t avec A, B réels.
(b) Si ∆ = b2 − 4ac = 0, alors (1) admet une racine réelle double r : Les solutions réelles de (H) sont
t 7−→ (At + B) ert avec A, B réels.
(c) Si ∆ = b2 − 4ac < 0, alors (1) admet 2 racines complexes conjugués r = α + iβ et r̄ = α − iβ :
Les solutions réelles de (H) sont t 7−→ (A cos (βt) + B sin (βt)) eαt avec A, B réels.
Exemples :
(a) Les solutions de y 00 + 1 = 0 sont t 7−→ A cos (t) + B sin (t) avec A, B réels.
(b) Les solutions de y 00 − 1 = 0 sont t 7−→ Aet + Be−t avec A, B réels.
2. Equation différentielle linéaire scalaire d’ordre 1 :
(E) : a (t) y 0 + b (t) y + c (t) = 0
De la forme : , où a, b et c sont des fonctions continues sur un
(H) : a (t) y 0 + b (t) y = 0
intervalle I de R à valeurs dans K (scalaire).
Théorème : Losque a ne s’annule jamais sur I, alors SH (I) est un K−espace vectoriel de
R b(t)
− dt
dimension 1 engendré par t 7−→ e a(t)
et SE (I) = yp + SH (I) où yp ∈ SE (I) une solution particulière de (E) : Ainsi la solution générale
de (E) est
R b(t)
− dt
t 7−→ yp (t) + λe a(t) ; où λ ∈ K et yp une solution particulière de (E)
Avec de la forme yp (t) = λ (t) yH (t) obtenue à l’aide de la méthode de variation de la constante ; où
yH solution non nulle de (H) .
28
(E) : a (t) y 00 + b (t) y 0 + c (t) y + d (t) = 0
, où a, b, c et d sont des fonctions continues sur un inter-
(H) : a (t) y 00 + b (t) y 0 + c (t) y = 0
valle I de R à valeurs dans K (scalaire).
Losque a ne s’annule jamais sur I, alors SH (I) est un K−espace vectoriel de dimension 2.
et SE (I) = yp + SH (I) où yp ∈ SE (I) une solution particulière de (E)
Remarque : Si a s’annule en t0 ∈ I, on cherche alors les solutions à droite et à gauche de t0 et on
essaye de recoller ( ou raccorder ou prolonger) ces solutions au point t0 .
Variation des constantes : Ici on va se contenter de chercher une solution particulière :
On suppose a ne s’annule jamais sur I, soit (y1 , y2 ) une base de solutions de (H) ( système
fondamental de solutions), alors (E) admet une solution particulière sous la forme :
y (t) = λ1 (t) y1 (t) + λ2 (t) y2 (t) vérifiant λ01 (t) y1 (t) + λ02 (t) y2 (t) = 0
Dite obtenue par variation des constantes.
y1 (t) y2 (t)
2. Wronskien : soit (y1 , y2 ) de solutions de (H), la fonction W (t) = dite le wronskien
y10 (t) y20 (t)
du système (y1 , y2 ) . La particularité du wronskien est qu’il est partout nul sur I ou bien ne s’annule
jamais sur I. Dans ce dernier cas (y1 , y2 ) base de solutions de (H) .
Exemple : Le Wronskien d’une équation de type : y 00 (x) + a(x)y(x) = 0 est constant.
1. Forme générale :
De la forme (E) : X 0 (t) = A (t) X (t) + B (t) et (H) : X 0 (t) = A (t) X (t) systéme homogène.
Avec A : I −→ Mn (K) et B : I −→ Mn,1 (K) continues sur l’intervalle I.
29
8 Probabilité
8.1 Espace de probabilité
1. Tribu (ou σ-algèbre) : Soit Ω un univers : ensemble des issues d’une expérience aléatoire
T contient Ω
— Définition : Tribu = Ensemble T de partie de Ω qui vérifie : T stable par réunion dénombrable
T stable par complémentaire
— Une tribu contient ∅, stable par réunion et intersection finie ou dénombrable.
— Evénement = Elément de la tribu
— Opération ensembliste sur les événement :
Ω Evénement certain
∅ Evénement impossible
A Evénement contraire de A
A∩B =∅ A et B disjoint ou incompatible
T
An Tous les An sont réalisés
n∈N
S
An Au moins l’un des An réalisé
n∈N
T S
Ak un nombre infini des An réalisé
n∈N k≥n
S T
Ak Tous les An réalisés sauf un nombre fini
n∈N k≥n
2. Exemple de tribu :
— Lorsque Ω est fini ou dénombrable, on choisit toujours T = P (Ω) la tribu complète.
— Lorsque Ω = R, on choisit la tribu engendré par les intervalles du type ]−∞, x] , x ∈ R dite la
tribu Borélienne, elle contient tous les ouverts, les fermés et presque toutes les parties de R.
3. Exemple d’événement : On lance une pièce de monnaie infiniment. Soit An l’événement ” obtenir
au moins un PILE aux n premiers lancers”, alors ∪n≥1 An ”obtenir au moins un PILE” et ∩n≥1 An ”
Ne jamais avoir de PILE”
4. Probabilité : (Ω, T ) un couple univers-tribu est dit espace probabilisable.
(a) Définition : Une probabilité sur (Ω, T ) est une application P : T −→ R vérifiant les 3 axiomes :
Axiome1 : P est à valeurs positives ( en faites à valeurs dans [0, 1])
Axiome2 : P (Ω) = 1
+∞ +∞
S P
Axiome3 : Pour toute suite (An )n d’événement 2 à 2 disjoints : P An = P (An ) .
n=0 n=0
La 3ème axiome est dite la σ-additivité, elle prouve, lorsque les événement sont 2 à 2 disjoints
+∞
P
que la série P (An ) est toujours convergente et de somme ≤ 1.
n=0
(b) Cas d’un univers discret : Lorsque Ω est fini ou dénombrable, une probabilité sur (Ω, P (Ω))
est entièrement déterminée
P par la donnée d’une suite (pω )ω∈Ω de nombres positifs sommable
de somme 1 : pω = 1, pω ≥ 0. En effet
ω∈Ω
X
P ({ω}) = pω et P (A) = P ({ω}) .
ω∈A
30
1
ii. Distribution U (n) uniforme sur un univers fini : Ω = {1, ..., n} , P (k) = : Modélise
n
le succés d’un événement parmis n équipropable.
iii. Distribution B (n, p) binômiale de paramètre (n, p) ∈ N∗ ×]0, 1[ : Ω = {0, 1, ..., n} , P (k) =
Cnk pk (1 − p)n−k : Modélise le nombre de succés d’une suite de n Bernoulli indépendantes. Ou
encore, si une urne contient en poucentage p boules blanches et (1 − p) boules noires, alors
P (k) est la probabilité de tirer k boules blanches et (n − k) boules noires lors d’un tirage
successif de n boules avec remise.
iv. Distribution G (p) géométrique de paramètre p ∈ ]0, 1[ : Ω = N∗ , P (k) = p (1 − p)k−1 :
Modélise le premier succés d’une suite de k Bernoulli indépendantes.
λk
v. Distribution P (λ) de poisson de paramètre λ ∈ R+∗ : Ω = N, P (k) = e−λ , modélise
k!
des événements rares.
+∞
S
(c) Continuité monotone : Si (An )n∈N est une suite croissante d’événement, alors P An =
+∞ n=0
T
lim P (An ) . De même pour une suite décroissante (Bn )n∈N , on a : P Bn = lim P (Bn ) .
n→+∞ n=0 n→+∞
Exemple : On lance une pièce truqué infiniment, quelle la probabilté de A ”Avoir au moins
deux PILE consécutifs” ? Soit An l’énénement ” Obtenir au moins deux PILE consécutifs aux
n premiers lancers”, alors les An sont croissant, A leur réunion, donc P (A) = lim P (An ) = 1.
n→+∞
Voir la suite de ce résumé
(d) Autres propriètés
— P A = 1 − P (A) ;
— P (A ∪ B) = P (A) + P (B) − P (A ∩ B) . Se généralise à l’aide de la formule de Poincarré du
crible.
+∞ +∞
S P
— P An ≤ P (An ) la somme éventuellement infinie. Comme application une réunion
n=0 n=0
au plus dénombrables d’événements négligeables (P (An ) = 0) est négligeable. De même par
passage au complémentaire une intersection d’événement presque-sûr (P (An ) = 1) est presque-
sûr.
(e) Système complet d’événement : I au plus dénombrable ; le système
(A
i )i∈IXest dit complet
S S
lorsque les Ai sont deux à deux disjoints et Ai = Ω. Dans ce P Ai = P (Ai ) = 1 et
i∈I i∈I i∈I
X
pour tout B ∈ T : P (B) = P (B ∩ Ai ) . En particulier le système A, A est toujours complet.
i∈I
31
Exemple : Reprenons l’exemple ci-dessus, et notons : P (P ILE) = p, pn = P (An ), avec A n ”
Obtenir au moins deux PILES consécutifs aux n premiers lancers”
(n ≥ 2) . Le système A n , An est
complet, donc P (An+1 ) = P (An+1 |An ) P (An ) + P An+1 An P An , donc
pn+1 = pn + (1 − p) p2 (1 − pn−2 )
(Pour la dernière on a forcément Pas de réussite avant (n − 2) FACE PILE PILE ), (pn )n est
alors croissante majorée, donc converge vers 1.
4. Probabilité composée : Si P (A1 ∩ ... ∩ An−1 ) > 0, alors
P (A1 ∩ ... ∩ An ) = P (A1 ) P (A2 |A1 ) P (A3 |A1 ∩ A2 ) ...P (An |A1 ∩ ...An−1 ) .
5. Formule de Bayes : Si (Ai )i∈I un système au plus dénombrable complet avec les P (Ai ) > 0, alors
P (B |Aj ) P (Aj )
∀ B ∈ T, ∀ j ∈ I; P (Aj |B ) = X
P (B |Ai ) P (Ai )
i∈I
En particulier
P (B |A ) P (A)
P (A |B ) =
P (B |A ) P (A) + P B A P A
1
Exemple : Un lot de 100 dés contient 25 truqués qui donnent 6 avec un probabilité . On choisit au
2
hasard un dé. On lance ce dé, on obtient 6, quelle est la probablité qu’il soit truqué ? On le relance,
on obtient encore 6, quelle est la probabilité qu’il soit truqué ?
1 1
Soit A ” dé truqué ” , B ”on obtient 6” et C ” on obtient un double 6” . On a P (A) = , P (B |A ) = ,
4 2
P (B |A ) P (A) 1/2 × 1/4 1
donc P (A |B ) = = = et
P (B |A ) P (A) + P B A P A 1/2 × 1/4 + 1/6 × 3/4 2
P (C |A ) P (A) 1/4 × 1/4 3
P (A |C ) = = =
P (C |A ) P (A) + P C A P A 1/4 × 1/4 + 1/36 × 3/4 4
8.3 Indépendance
1. Deux événement sont dits indépendants lorsque la réalisation de l’un n’influe pas celle de l’autre : A
et B indépendant lorsque P (A ∩ B) = P (A) P (B) ( Càd P (A |B ) = P (A), P (B |A ) = P (B) )
2. A et B indépendants =⇒ A et B , A et B , A et B sont aussi indépendants.
Attention : Ne pas confondre indépendant et (disjoint ou incompatible)
3. Indépendance mutuelle : (Ai )i∈I sont mutuellement indépendant si
4. L’indépendance mutuelle entraı̂ne l’indépendance deux à deux, mais la réciproque est fausse.
32
La notion de variable aléatoire permet de transférer l’étude probabiliste de l’ensemble (Ω, T ) souvent
théorique et peu connu à l’ensemble X (Ω) des réalisations de X mieux connu ( souvent une partie
de R ou de Rn ).
2. Variable aléatoire réelle (non forcément discrète) : Une variable aléatoire réelle X est une
application : Ω −→ R, vérifiant ∀x ∈ R, (X ≤ x) ∈ T
3. Loi de probabilité d’une
v.a. discrète : Soit X : Ω −→ E une v.a.d. On appelle loi de probabilité
P (X(Ω)) −→ [0, 1]
de X, la fonction PX : . Ainsi PX est une probabilité sur X (Ω) .
A 7−→ PX (A) = P (X ∈ A)
Cas discret : Ici X (Ω) en bijecton avec une partie de N, alors la loi de X est entièrement déterminée
par : P (X = x) , x ∈ X(Ω) .
∀ (i, j) ∈ I × J : P (X = xi , Y = yj ) = pij ,
33
8.5 Espérance : cas discret
L’espérance d’une variable aléatoire généralise la notion de moyenne pondérée ( ou de centre de masse en
mécanique), et représente le comportement moyen de la variable aléatoire.
1. Définition : Si X une v.a. discrète, on dit que X admet une espérance si la suite (xP (X = x))x∈X(Ω)
est sommable ; Dans ce cas X
E (X) = xP (X = x)
x∈X(Ω)
+∞
λk X λk
(e) Poisson P (λ) : X (Ω) = N, P (X = k) = e−λ , alors E (X) = ke−λ = λ.
k! k!
k=0
Exercices :
P
(a) Si X une v.a.d., alors E (X) existe si et seulement si la série P (X > n) converge. dans ce cas
+∞
X +∞
X
E (X) = P (X > n) : Ecrire P (X > n) = P (X = k) et utiliser la sommabilité
n=0 k=n+1
(b) X une v.a.d., si P (X = a) = 1, alors E (X) = a. En effet P (X 6= a) = 0, donc par définition de
E (X) = a : En particulier valable pour une variable constante.
(c) Si A un événement, alors E (1A ) = P (A) .
2. Linéarité : Si X et Y sont deux v.a.d. admettant une espérance, alors aX + bY admet aussi une
espérance et
E (aX + bY ) = aE (X) + bE (Y )
34
4. Théorème de transfert : Soit f une fonction définit sur Ω, X une v.a.d., alors la v.a.d. f (X)
admet une espérance si et seulement si la suite (f (x) P (X = x))x∈X(Ω) est sommable ; Dans ce cas
X
E (f (X)) = f (x) P (X = x)
x∈X(Ω)
+∞
X
Si en particulier X (Ω) = N, alors E (f (X)) = f (k) P (X = k) .
k=0
Exemple Soit X une une v.a.d à valeurs entières, montrer φX (t) = E eitX est continue sur R :
+∞
X
En effet selon la formule du transfert E eitX = eitk P (X = k) , or eitk P (X = k) = P (X = k)
P k=0
avec P (X = k) converge car les événement (X = k) sont deux à deux disjoints. donc la série de
fonction CvN, CvU sur R, la somme φX est alors continue.
5. Produit de variables indépendantes : si X et Y indépendantes ayant des espérances, alors
E (XY ) = E (X) E (Y )
6. Variable centrée : E (X) = 0, toujours Y = X − E (X) est centrée.
Egalité si et seulement si (X, Y ) liés presque surement : ∃ α, β non tous nuls, P (αX + βY = 0) = 1
2. Variance : Si X admet un moment d’ordre 2, alors X admet une variance
V (X) = E X 2 − (E (X))2 = E X − E (X)2
(a) La variance est facteur de dispersion, il mesure l’écart de la variable aléatoire autour de son
espérance (sa moyenne)
p
(b) Ecart type : σ (X) = V (X) est dit l’écart type. (variable réelle)
(c) V (aX + b) = a2 V (X) .
X − E (X)
(d) Variable réduite : V (X) = 1 : si V (X) 6= 0, alors Y = est une variable centrée-
σ (X)
réduite
3. Covariance : Cov (X, Y ) = E (XY ) − E (X) E (Y ) = E (X − E (X)) E (X − E (Y ))
(a) V (X + Y ) = V (X) + 2Cov (X, Y ) + V (Y ) ( se généralise pour une somme finie comme le carré
d’une norme)
(b) Si X et Y indépendantes alors Cov (X, Y ) = 0 et V (X + Y ) = V (X) + V (Y ) . Se généralise pour
une somme finie de v.a. deux à deux indépendantes.
(c) On note L2 (Ω) l’ensemble des v.a.d. réelles ayant un moment d’ordre 2, alors L2 (Ω) est espace
vectoriel réel et (X, Y ) → Cov(X, Y ) est une forme bilinéaire symétrique positive et presque
définie positive
35
8.7 Fonction génératrice
+∞
X
1. X à valeurs entières : GX (t) = E tX = P (X = k) tk c’est série entière de rayon R ≥ 1. son
k=0
utilité GX caractérise la loi de X
2. E (X) existe si et seulement si G0X (1) existe. Dans ce cas E (X) = G0X (1) : peut-être pratique pour
le calcul de E (X)
00
3. V (X) existe si et seulement si G00X (1) existe. Dans ce cas V (X) = GX (1) + G0X (1) − [G0X (1)]2 :
peut-être pratique pour le calcul de V (X)
4. X et Y indépendantes =⇒ GX+Y = GX GY .
5. X1 , ..., Xn mutuellement indépendantes =⇒ GX1 +...+Xn = GX1 ...GXn .
Exemple
(a) Bernoulli B (p) : GX (t) = 1 − p + pt, E (X) = p, V (X) = p (1 − p)
(b) Binômiale B (n, p) : GX (t) = (1 − p + pt)n , E (X) = np , V (X) = np (1 − p) ( somme de n
Bernoulli indépendantes)
pt 1 1−p
(c) Géométrique G (p) : GX (t) = , E (X) = , V (X) =
1 − (1 − p) t p p2
(d) Poisson P (λ) : GX (t) = eλ(t−1) , E (X) = V (X) = λ.
FX (x) = P (X ≤ x) , x ∈ R
36
(d) lim FX (x) = 1 et lim FX (x) = 0
x→+∞ x→−∞
(e) P (X = x) = FX (x) − FX (x− )
2. Variable à densité : Une v.a.r. X est dite à densité (ou continue ou parfois absolument continue)
si sa fonction de répartition FX est continue sur R, de classe C 1 sur R sauf en un nombre fini de
point. Dans ce cas 0
FX (t) si FX dérivable en t
fX (t) =
0 si FX non dérivable en t
s’appelle la densité de probabilité de la v.a. X.
Pour une v.a. X de densité de probabilité fX on a :
Z +∞
(a) fX est positive, continue sauf en un nombre fini de point et intégrable sur R avec fX (t) dt = 1
−∞
(b) Intuitivement fX (t) dt ≈ P (t ≤ X ≤ t + dt) est la probabilité de présence dans l’intervalle infi-
nitésimale [t, t + dt]
Z x
(c) P (X ≤ x) = P (x < x) = fX (t) dt
−∞
Z b
(d) P (a ≤ X ≤ b) = P (a < X < b) = P (a ≤ X < b) = P (a < X ≤ b) = fX (t) dt
a
Z +∞
(e) P (X ≥ x) = P (X > x) = 1 − FX (x) = fX (t) dt
x
(f) P (X = x) = 0
3. Loi classique à densité
(a) Loi uniforme sur [a, b] : U ([a, b]) : X suit la loi uniforme sur [a, b] si sa densité est
1
si a < t < b
fX (t) = b−a
0 sinon
(b) Loi exponentielle de paramètre α > 0 : E (α) : X suit la loi E (α) si sa densité est
αe−αt si t > 0
fX (t) =
0 sinon
(c) Loi gamma de paramètre (α, λ) , α, λ > 0 : Γ (α, λ) : X suit la loi Γ (α, λ) si sa densité est
α α−1 −tλ
λ t e
si t > 0
fX (t) = Γ (α)
0 sinon
37
(d) Loi normale ou loi de Gauss de paramètre m, σ 2 : N m, σ 2 : X suit la loi normale N m, σ 2
si sa densité est
1 (x−m)2
−
fX (t) = √ e 2σ2
σ 2π
4. Variable indépendante :
(a) Lorsque P (X1 ≤ x1 , ..., Xn ≤ xn ) = P (X1 ≤ x1 ) ...P (Xn ≤ xn )
(b) Le théorème de l’indépendance héritée est encore valable.
5. Somme de deux v.a. indépendantes
(a) Si X1 et X2 indépendantes de densité fX1 et fX2 , alors la somme X = X1 + X2 est une v.a. de
densité fX :
Z +∞
fX (x) = (fX1 ∗ fX2 ) (x) = fX1 (t) fX2 (x − t) dt = (fX2 ∗ fX1 ) (x) Produit de convolution
−∞
38
8.10 Convergence
1. Inégalités classiques : Les inégalités de Markov et de Bienaymé-Tchebechev sont valables pour les
v.a. à densité
2. Convergence en probabilité :
(a) (Xn )n converge vers X en probabilité si ∀ ε > 0, lim P (|Xn − X| ≥ ε) = 0.
n→+∞
(b) Si (Xn ) converge presque sûrement vers X, alors il y’a convergence en probabilité.
(c) Si Xn −X ≥ 0 et lim E (Xn − X) = 0, alors il y’a convergence en probabilité (Inégalité de Markov)
1 Pn
Exemple : La moyenne Mn = Xk d’une suite de v.a. indépendantes et de même loi converge
n k=1
en probabilité vers leur espérance commune.
3. Convergence en loi :
(a) (Xn )n converge vers X en loi si lim FXn (x) = FX (x) , en tout point x de continuité de FX .
n→+∞
(b) Lorsque les Xn et X sont discrètes à valeurs entières, la convergence en loi est équivalent à
lim P (Xn = k) = P (X = k) , ∀k ∈ N.
n→+∞
(c) La convergence en probabilté entraı̂ne la convergence en loi ( Réciproque fausse)
Exemple : Soit Xn de loi B (n, pn ) avec n assez grand et pn assez petit de façon que lim npn =
n→+∞
λ > 0, alors la suite (Xn ) converge en loi vers une v.a. discrète X suivant la loi P (λ) . Ce qui
justifie le fait que loi de Poisson est associée aux événements rares.
4. Loi faible des grand nombre : Soit (Xn ) une suite de v.a. indépendantes de même loi, soit µ leur
n
2 1X
espérance et σ leur variance , si Mn = Xk leur moyenne, alors (Mn ) converge en probabilité
n
k=1
vers la consante µ (variable presque sûr)
5. Théorème de la limite centrale : Soit (Xn ) une suite de v.a. indépendantes de même loi, soit µ
Pn
Xk − nµ
2 k=1
leur espérance et σ leur variance, alors la variable centrée-réduite Sn = √ converge en loi
σ n
vers une v.a. X suivant la lo normale centrée-réduité N (0, 1) .
Ce qui justifie le caractère universel de la loi normale
39