Probabilité MP
Probabilité MP
CNC/CNAEM : https://www.facebook.com/cnc.marco.33
Concours National Commun – Session 2017 – Filière MP
Partie I
Quelques propriétés de la fonction génératrice et quelques exemples
1. Montrer que la fonction génératrice GX est au moins définie sur l’intervalle [-1,1].
(k)
2. Montrer que pour tout k ∈ N, GX (0) = k!P (X = k).
3. Donner l’expression de GX , en précisant le domaine de définition, dans chaque cas suivant :
a) X suit la loi de Bernoulli de paramètre p, notée B(p), où p ∈ [0, 1].
b) X suit la loi binomiale de paramètre n, p, notée B(n, p), où n ∈ N∗ , p ∈ [0, 1].
c) X suit la loi géométrique de paramètre p, notée G(p), où p ∈]0, 1[.
4. Montrer que la variable aléatoire X admet une espérance si, et seulement si, GX est dérivable en
1 et dans ce cas G0X (1) = E(X).
5. Montrer que la variable aléatoire X admet un moment d’ordre 2 si, et seulement si, GX est deux
fois dérivable en 1 et dans ce cas V (X) = G00X (1) + G0X (1) − (G0X (1))2 .
6. En déduire l’espérance et la variance d’une variable aléatoire qui suit la loi géométrique G(p) de
paramètre p, où p ∈]0, 1[.
a
Partie II
La fonction génératrice d’une somme de variables aléatoires
Soient n un entier naturel non nul et N une variable aléatoire telle que N (Ω) = J1, nK = {1, . . . , n}.
On suppose que pour tout k de J1, nK, P (N = k) est non nul. On considère n variables aléatoires
Xi ).
N
P
i=1
2. a) Soit Y une variable aléatoire réelle qui prend un nombre fini de valeurs dans Y (Ω), montrer
n
P (N = k)E(Y |[N = k]), où ∀k ∈ J1, nK,
P
que E(Y ) =
k=1
E(Y |[N = k]) =
P
yP ((Y = y)|[N = k]) désigne l’espérance de Y sachant l’événement
a
y∈Y (Ω)
[N = k] et P ((Y = y)|[N = k]) désigne la probabilité de (Y = y) sachant l’événement
[N = k].
b) Montrer que pour tout k ∈ J1, nK et pour tout réel t, E(tS |[N = k]) = GkX (t).
n
al9
P (N = k)GkX (t).
P
c) En déduire que pour tout réel t, GS (t) =
k=1
d) Montrer que GS = GN ◦ GX .
3. En déduire que E(S) = E(N )E(X).
Partie III
Application
On dispose d’un jeton non truqué à deux faces numérotées 1 et 2 et d’un dé tétraédrique (famille des
pyramides composées de quatre faces triangulaires), équilibré, dont les faces sont numérotées de 1 à 4.
On lance le jeton et on note N le numéro obtenu, puis on lance N fois le dé et pour chaque lancer, on
note le numéro de la face d’appui du dé. Soit S la somme des numéros obtenus lors de ces N lancers,
(si N = 1, le dé est lancé une seule fois et S est le numéro lu sur la face d’appui du dé).
1. a) Déterminer la loi de N .
b) Donner la loi conditionnelle de S sachant [N = k], pour k = 1, puis pour k = 2.
c) En déduire la loi de S, puis son espérance et sa variance.
N
P
2. a) Identifier la variable aléatoire X telle que S = Xi , où X1 et X2 sont deux variables
i=1
aléatoires indépendantes de même loi que X.
b) Déterminer les fonctions génératrices GN et GX et en déduire la fonction génératrice GS .
c) Retrouver, en utilisant la fonction génératrice GS , la loi, l’espérance et la variance de S.
Fin de l’épreuve
Problème 2
Partie I : Quelques prpriétés de la fonction génératrice et quelques exemples
X
1. On a ∀t ∈ [−1, 1], ∀k ∈ N, |p(X = k)tk | ≤ p(X = k). La série de terme p(X = k) converge,
k∈N
et sa somme vaut 1. Donc le théorème de comparaison des séries à termes positifs nous permet
X
d’affirmer que la série p(X = k)tk converge absolument. Or la convergence absolue entraîne la
k∈N
convergence. Donc la fonction génératrice est au moins définie sur l’intervalle [−1, 1].
2. GX est une fonction définie par une série entière, donc les coefficients du développement de la
série sont définis d’une manière unique par les relations :
(k)
G (0)
∀k ∈ N, p(X = k) = X .
k!
3. (a) Si X suit une loi de Bernoulli de paramètre p, alors on a :
1
X
∀t ∈ R, GX (t) = p(X = k)tk = (1 − p)t0 + pt = pt + 1 − p.
k=0
(b) Si X suit une loi binomiale B(n, p), alors, pour tout t ∈ R, on a :
n n n
X
k
X n k n−k k
X n
GX (t) = p(X = k)t = p (1 − p) t = (pt)k (1 − p)n−k = (pt + 1 − p)n .
k k
k=0 k=0 k=0
∞ ∞ ∞
X X p X pt
∀t ∈ [−1, 1], GX (t) = p(X = k)tk = (1 − p)k−1 .ptk = (t − pt)k = .
1−p pt − t + 1
k=1 k=1 k=1
Donc :
∞
GX (t) − GX (1) X
= (1 + t + t2 + · · · + tk−1 )p(X = k).
t−1
k=0
Ensuite :
∀a, b ∈ [0, 1] a ≤ b ⇒ ai ≤ bi
k
X k
X
⇒ ai ≤ bi
i=0 i=0
∞ k ∞
! !
X X X X
⇒ ai p(X = k) ≤ bi p(X = k)
k=1 i=0 k=1 i=0
GX (a) − GX (1) GX (b) − GX (1)
⇒ ≤ ,
a−1 b−1
GX (t) − GX (1)
donc la fonction t 7−→ est croissante sur [0, 1[. De plus :
t−1
∞
GX (t) − GX (1) X
= (1 + t + t2 + · · · + tk−1 )p(X = k)
t−1
k=0
∞
!
X 1| + 1 + 1{z+ · · · + 1}
≤ p(X = k)
k=0
k termes
∞
X
= k.p(X = k)
k=0
= E(X).
GX (t) − GX (1)
La fonction t 7−→ étant croissante et majorée par E(X) sur [0, 1[ admettra donc
t−1
une limite fini pour t tendant vers 1 par valeurs inférieures . Ce qui montre que GX est dérivable à
gauche en 1.
Inversement, supposons que GX est dérivable en 1, alors :
∞
X
∀t ∈ [0, 1] G0X (t) = p(X = k)k.tk−1
k=1
Et par conséquent :
∞
X ∞
X
G0X (1) = p(X = k)k × 1 k−1
= k.p(X = k) = E(X).
k=1 k=1
Et donc :
∞
X ∞
X
G00X (1) = p(X = k)k(k − 1).1 k−2
= k(k − 1)p(X = k) = E (X(X − 1)) .
k=2 k=2
Par conséquent :
2q 2 p
D’où V (X) = + . Nous en déduisons la variance de X :
p2 q
2q 2 p q 2 1−p
V (X) = E(X(X − 1)) + E(X) − E(X)2 = + − 2 = .
p2 q p p2
k
Y k+1
Y
Gk+1 (t) = G k (t) = G k (t).GXk+1 (t) = GXi (t).GXk+1 (t) = GXi (t) = GkX (t).
X X X
Xi Xi + Xk+1 Xi i=1 i=1
Et la propriété est vrai pour k + 1. La propriété est donc vraie pour tout k ∈ N∗ .
2. (a) La variable aléatoire N étant à valeurs dans [[1, n]], la famille (N = k)k∈[[1,n]] est un système
complet d’événements. Utilisons la formule des probabilités totales :
Xn Xn
∀y ∈ Y (Ω), P (Y = y) = P (Y = y, N = k) = p(Y = y/N = k)p(N = k). D’où
k=1 k=1
X
E(Y ) = yp(Y = y)
y∈Y (Ω)
X n
X
= y p(Y = y/N = k)p(N = k)
y∈Y (Ω) k=1
Xn X
= p(N = k) yp(Y = y/N = k), car Y (Ω) est fini
k=1 y∈Y (Ω)
n
X
= p(N = k)E(Y /N = k)
k=1
d’où :
G S = GN ◦ G X .
3. On a G0S (1) = G0N (GX (1).G0X (1) = G0N (1).G0X (1) ou encore E(S) = E(N )E(X).
i 1 2 3 4
1 1 1 1
p(S = i/[N = 1]) 4 4 4 4
1 2
t + 2t3 + 3t4 + 4t5 + 3t6 + 2t7 + t8 .
GS (t) = GX1 +X2 (t) = GX1 (t)GX2 (t) =
16
On en déduit la loi de probabilité de S lorsque N = 2 :
k−1 9−k
∀k ∈ {2, .., 5}, P (S = k) = , ∀k ∈ {6, .., 8}, P (S = k) = .
16 16
i 2 3 4 5 6 7 8
1 2 3 4 3 2 1
p(S = i/[N = 2]) 16 16 16 16 16 16 16
8 2
X 15 35 15 55
On trouve E(S) = ip(S = i) = et V (S) = E(S 2 ) − (E(S))2 = − = .
4 2 4 16
i=1
2. (a) X suit la loi uniforme sur l’ensemble {1, 2, 3, 4}.
1 1
(b) On sait que ∀t ∈ R, GN (t) = (t + t2 ) et GX (t) = (t + t2 + t3 + t4 ).
2 4
D’où ∀t ∈ R,
3. Soit ϕ : I → R de classe
! C . Montrer qu’il existe une !suite (Pn )n∈N de polynômes telle que,
1
lim sup |ϕ(t) − Pn (t)| = 0 et lim sup |ϕ0 (t) − Pn0 (t)| =0
n→∞ t∈[a,b] n→∞ t∈[a,b]
4. Soit ψ : I → R continue et positive. Montrer qu’il existe une suite (P!n )n∈N de polynômes telle que, (
Problème 2
Soit (Ω, A, P ) un espace probabilisé, par la suite, les variables aléatoires considérées sont des variables
aléatoires réelles discrètes ou àă densité. Si X est une variable aléatoire sur (Ω, A, P ), la fonction génératrice
des moments de X, lorsqu’elle existe, est la fonction numérique de la variable réelle t, MX : t → E(etX ), où
E(etX ) désigne l’espérance de la variable aléatoire etX .
Partie I
Cas particulier : variables aléatoires discrètes finies
Soit X une variable aléatoire discrète prenant un nombre fini de valeurs x1 , ..., xr avec les probabilités
respectives p1 , ..., pr , où r ∈ N∗ . Dans cette partie, on définit la fonction ϕX sur R∗ par,
1
∀t ∈ R∗ , ϕX (t) = ln(MX (t))
t
1. Déterminer MZ , lorsque Z suit une loi de Bernoulli de paramètre p, p ∈ [0, 1].
(k)
2. Montrer que MX est de classe C ∞ sur R, et que pour tout entier naturel k, MX (0) = E(X k ).
3. (a) Montrer que ϕX est bien définie sur R∗ et prolongeable par continuité en 0. On pose ϕX (0) = E(X)
et on note encore ϕX la fonction ainsi prolongée.
(b) Démontrer que ϕX est dérivable en 0 et calculer ϕ0X (0) en fonction de la variance V (X) de X.
1
(c) i. Montrer que pour tout u ≤ 0, eu ≤ 1 + u + u2 .
2
ii. Montrer que si X ne prend que des valeurs négatives ou nulles, alors, pour tout t ≥ 0,
t
ϕX (t) ≤ E(X) + E(X 2 ).
2
(d) i. Pour tout entier i tel que 1 ≤ i ≤ r, on note fi la fonction définie sur R, par t 7→ etxi . Montrer
que la famille (f1 , ..., fn ) est libre.
ii. En déduire que deux variables discrètes finies X et Y ont la même loi si, et seulement si, les
fonctions ϕX et ϕY sont égales.
(e) Montrer que si X et Y sont des variables discrètes finies indépendantes, alors, ϕX+Y = ϕX + ϕY .
(f) En déduire MX , lorsque X suit une loi binomiale de paramètre s et p, s est un entier naturel non
nul et 0 ≤ p ≤ 1.
(g) On dit qu’une variable aléatoire réelle X est symétrique si X et −X ont la même loi. Montrer que
ϕX est impaire si, et seulement si, X est une variable aléatoire réelle symétrique.
4. On considère une suite (Xn )n≥1 de variables aléatoires discrètes finies mutuellement indépendantes
sur (Ω, A, P ), qui suivent la même loi que X. On note m l’espérance de X et σ son écart-type que l’on
suppose strictement positif.
Sn − E(Sn )
On pose, pour tout entier naturel non nul, Sn = X1 + X2 + ... + Xn et Sn∗ = p .
V (Sn )
(a) Montrer que, pour tout entier naturel non nul n et tout réel non nul t,
√ √
−m n n t
ϕSn∗ (t) = + ϕX √ .
σ σ σ n
t
(b) En déduire que lim ϕSn∗ (t) = .
n→∞ 2
Partie II
Cas des variables aléatoires discrètes réelles infinies
Soit X une variable aléatoire discrète réelle infinie, notons IX l’ensemble des réels t pour lesquels MX existe.
1. (a) Montrer que, pour tous réels a, b, c tels que a < b < c et tout réel x, ebx ≤ eax + ecx .
(b) En déduire que IX est un intervalle contenant 0.
2. Soit Y une variable aléatoire discrète réelle qui suit une loi de Poisson de paramètre λ > 0.
Déterminer la fonction génératrice des moments MY de Y .
3. On suppose que la fonction MX est définie sur un intervalle de la forme ]−a, a[, (a > 0). Notons (xn )n∈N
une énumération des valeurs de X.
Posons, pour tout n ∈ N et tout t ∈] − a, a[, un (t) = P (X = xn )etxn . Soit α > 0 tel que [−α, α] ⊂] − a, a[,
et soit ρ ∈]α, a[.
(k)
(a) Montrer que, pour tout k ∈ N, tout t ∈] − α, α[ et tout n ∈ N, |un (t)| ≤ P (X = xn )(|xn |)k eρ|xn | , où
(k)
un désigne la dérivée k-ème de la fonction un .
(b) Montrer que, pour tout k ∈ N, il existe Mk > 0, pour tout t ∈] − α, α[ et tout n ∈ N,
|u(k)
n (t)| ≤ Mk P (X = xn )e
ρ|xn |
.
(k)
(c) En déduire que MX est de classe C ∞ sur ] − a, a[, et que pour tout k ∈ N, E(X k ) = MX (0).
4. En déduire l’espérance et la variance d’une variable aléatoire Y qui suit une loi de Poisson de paramètre
λ > 0.
Partie III
Cas des variables aléatoires à densité
Si X est une variable aléatoire àă densité, on note IX l’intervalle de R, qui contient 0, pour lequel MX existe.
1. Soient X et Y deux variables aléatoires àă densité indépendantes, qui admettent respectivement des
fonctions génératrices des moments MX et MY , montrer que MX+Y = MX MY .
2. Soit X une variable aléatoire à densité possédant une fonction génératrice des moments MX et une
densité f . On suppose que cette fonction génératrice des moments soit définie sur IX =]a, b[, (a, b) ∈ R2 ,
a < 0 < b, et soit s un réel tel que, 0 < s < min(−a, b).
(a) Montrer que, pour tout k ∈ N∗ et tout t ∈ R, |tk | ≤ e .
k! s|t|
sk
(b) En déduire que, pour tout k ∈ N∗ , E(|X|k ) est finie.
∞
X tk
(c) Montrer que, pour tout t ∈] − s, s[, MX (t) = E(X k ) .
k!
k=0
(k)
(d) En déduire que, pour tout k ∈ N, MX (0) = E(X k ).
F IN DE L’ ÉPREUVE
Partie III
Z b
1. (a) Par linéarité de l’intégrale, on a : ∀P ∈ R[X], P (x)f (x)dx = 0. Or d’après le théorème de Stone-
a
Weierstrass f est limite uniforme d’une suite de polynômes réels (Pn )n sur [a,b]. Et on a
Commentaire : cette question nous permet de conclure que la généralisation de III.1.a n’est pas vrai sur
un intervalle quelconque.
2. D’après le théorème de Stone-Weierstrass, il existe une suite (Qn )n de fonctions polynomiales convergeant
uniformément vers g.
Z b Z b
On a alors Qn (t)dt −−−−−→ g(t)dt.
a n→+∞
Z ba
1
Posons Pn (t) = Qn (t) − Qn (x)dx et donc (Pn )n est une suite de polynômes convergeant uniformément
b−a a
Z b
vers g sur [a,b] vérifiant Pn (t)dt = 0.
a
3. Comme ϕ0 est continue sur I, alors il existe une suite (Qn ) de fonctions polynomiales convegeant uniformément
vers ϕ0 sur I. Z x Z x
Posons alors Pn (x) = ϕ(a) + Qn (t)dt. L’inégalité |Pn (x) − ϕ(x)| ≤ |ϕ0 (t) − Qn (t)|dt permet d’établir
a a
que (Pn )n converge uniformément vers ϕ sur I. Et puisque Pn0 = Qn , la suite (Pn )n convient.
4. il existe une suite (Qn ) de fonctions polynomiales convergeant uniformément vers ψ sur I. Posons mn = inf Qn (t)
t∈I
et m = inf ψ(t). Or Qn et ψ sont continues sur le segment I, donc il existe tn , t0 ∈ [a, b] tel que mn = Qn (tn )
t∈I
et m = ψ(t0 ). Montrons que mn −−−−−→ m ≥ 0. Soit ε > 0. ∃N ∈ N, ∀n ≥ N, ∀t ∈ I, |ψ(t) − Qn (t)| < ε, donc
n→+∞
∀n ≥ N mn = Qn (tn ) > ψ(tn ) − ε ≥ m − ε et m = ψ(t0 ) > Qn (t0 ) − ε ≥ mn − ε donc ∀n ≥ N |mn − m| < ε.
Ainsi mn → m.
La suite (Pn = Qn − mn + m) convient.
Problème : 2
Partie I
1. Si Z suit la loi de Bernoulli de paramètre p, alors Z(Ω) = {0, 1} et P (Z = 1) = p, P (Z = 0) = 1 − p. Donc
par, le théorème de transfert,
∀t ∈ R, MZ (t) = pet + 1 − p.
4/8
r
X
2. Par, le théorème de transfert, ∀t ∈ R, MX (t) = pj etxj et donc MX est de classe C ∞ sur R et
j=1
r
(k)
X
∀k ∈ N, ∀t ∈ R, MX (t) = pj xkj etxj .
j=1
(k)
D’où ∀k ∈ N, MX (0) = E(X k ).
3. (a) ϕX est bien définie sur R∗ car MX est strictement positive sur R puisque :
— ∀t ∈ R, ∀j ∈ J1 , rK, etxj > 0
Xr
— ∃i ∈ J1 , rK, pi > 0 puisque pj = 1
j=1
Soit t ∈ R∗ .
r r
X X x2j 2 E(X 2 ) 2
MX (t) = pj etxj = pj (1 + xj t + t + ot→0 (t)) = 1 + E(X)t + t + ot→0 (t2 )
j=1 j=1
2 2
V (X)
Donc ϕX (t) = E(X) + t + ot→0 (t). D’où lim ϕX (t) = E(X). Donc ϕX est prolongeable par continuité
2 t→0
en 0
(b) D’après la question précédente ϕX admet un développement limité d’ordre 1 en 0, donc elle est dérivable en
V (X)
0 et ϕ0X (0) = .
2
(c) i. Soit u ≤ 0. D’après la formule de Taylor-Lagrange à l’ordre 3, il existe c ∈]u, 0[ tel que :
1 1
eu − 1 − u − u2 = u3 ec ≤ 0 car u ≤ 0.
2 3!
1
D’où ∀u ≤ 0, eu ≤ 1 + u + u2 .
2
ii. Soit t ≥ 0. On a, pour tout j ∈ J1 , rK, txj ≤ 0, donc, d’après la question précédente,
r
t2
X 1
MX (t) ≤ pj 1 + txj + x2j t2 = 1 + E(X)t + V (X)
j=1
2 2
s
∀t ∈ R, MX (t) = (MX1 ) = (pet + 1 − p)s .
5/8
(g)
Xk
Et puisque les Xk sont mutuellement indépendantes , alors les √ le sont aussi et, d’après I.3.e, on a :
σ n
n
X
ϕ Sn
√
(t) = ϕ Xk
√
(t) = nϕ X
√ (t)
σ n σ n σ n
k=1
Or,
1 1 t
√
ϕ X
√ (t) = √ t ln E e σ nX
σ n σ n √
σ n
1 t
= √ ϕX √
σ n σ n
D’où √ √
m n n t
+ ϕX √ .
ϕSn∗ (t) = −
σ σ σ n
t tσ 1
(b) Quand n → +∞, ϕX √ =m+ √ +o √ .
σ n 2 n n
Donc
t t
ϕSn∗ (t) = + o(1) −−−−−→ .
2 n→+∞ 2
Partie II
c−b
1. (a) Soit x ∈ R. Comme b ∈]a, c[, alors ∃λ ∈]0, 1[, b = λa + (1 − λ)c (λ = ).
c−a
Or exp est convexe, donc ebx ≤ λeax + (1 − λ)ecx ≤ eax + ecx .
+∞
X
(b) On pose X(Ω) = {xn | n ∈ N} et ∀n ∈ N, P (X = xn ) = pn . On a ∀t ∈ IX , MX (t) = pn etxn .
n=0
+∞
X
— Comme pn = 1, alors 0 ∈ IX .
n=0
6/8
— Soit a, c ∈ IX tel que a < c et b ∈]a, c[. Alors MX (a) et MX (c) existent. Or, d’après la question
précédente, ∀n ∈ N, ebxn ≤≤ eaxn + ecxn , donc MX (b) existe et par suite b ∈ IX
Donc IX est un intervalle de R contenant 0.
n
λn (et λ)
2. On a Y (Ω) = N, ∀n ∈ N, P (Y = n) = e−λ . Soit t ∈ R,on pose an (t) = e−λ > 0.
n! n!
t
an+1 (t) λe
Comme = −−−−−→ 0 < 1, donc, d’après la règle de D’Alembert MY (t) existe pour tout t ∈ R et
an (t) n + 1 n→+∞
+∞ n
X (et λ) t
MY (t) = e−λ = eλ(e −1)
n=0
n!
3. (a) On a, pour tout n ∈ N, un est de classe C ∞ sur ] − α, α[ et on a
et Donc
∀(k, n, t) ∈ N × N×] − α, α[, u(k)
n ≤ P (X = xn )|xn |k eα|xn |
+∞
(k) (k)
X
En particulier MX (0) = P (X = xn )xkn . D’où E(X k ) existe et MX (0) = E(X k ).
n=0
t
4. Puisque Y suit la loi de Poisson de paramètre λ, alors MY est définie sur R et ∀t ∈ R, MY (t) = eλ(e −1) . Donc,
d’après la question précédente, E(Y) et E(Y 2 ) existent et E(Y ) = MY0 (0) = λ et E(Y 2 ) = MY00 (0) = λ(1 + λ)
et donc
V (Y ) = E(Y 2 ) − (E(Y ))2 = λ.
Partie III
7/8
(c) On a pour tout t ∈] − s, s[ :
+∞
!
+∞ +∞
(tu)n
Z Z X
MX (t) = etu f (u)du = f (u) du.
−∞ −∞ n=0
n!
(tu)n
On pose, pour tout n ∈ N, fn : u 7→ f (u)
n!
— ∀n
X∈ N, fn est continue par morceaux intégrable sur R (d’après la question III.2.a)
— fn converge simplement sur R vers la fonction g : u 7→ etu f (u) qui est continue par morceaux et
n≥0
intégrable sur R car t ∈] − s, s[⊂ IX
Z +∞
|t|n +∞ n E(|tX|n )
Z
— ∀n ∈ N, |fn (u)|du = |u| f (u)du =
−∞ n! −∞ n!
(∀t ∈] − s, s[, E(|tX|) existe puisque : [−s, s] ⊂ IX avec s > 0, et exp(a|X|) < exp(sX) + exp(−sX) on
en déduit que E(exp(a|X|)) existe, et donc E(exp |tX|) existe pour tout |t| ≤ s.)
X E(|tX|n
— converge vers exp(E(|tX|).
n!
n≥0
Donc, d’près le théorème d’intégration terme à terme,
+∞ Z +∞ +∞ Z +∞ n +∞
X X t X E(X n ) n
∀t ∈] − s, s[, MX (t) = fn (u)du = un f (u)du = t .
n=0 −∞ n=0 −∞ n! n=0 n!
(k)
(d) D’après la question précédente MX est développable en série entière en 0 et donc ∀k ∈ N, MX (0) = E(X k ).
FIN
8/8
Concours National Commun – Session 2019 – MP
Les candidats sont informés que la qualité de la rédaction et de la présentation, la clarté et la précision
des raisonnements constitueront des éléments importants pour l’appréciation des copies. Il convient en
particulier de rappeler avec précision les références des questions abordées.
Si, au cours de l’épreuve, un candidat repère ce qui lui semble être une erreur d’énoncé, il le signale
sur sa copie et poursuit sa composition en expliquant les raisons des initiatives qu’il est amené à prendre.
Ce sujet est composé d’un exercice et d’un problème indépendants à traiter dans l’ordre souhaité.
exercice
Un peu de probabilité
(Noté sur 4 points sur 20)
1. Soit n ∈ N. Montrer que la fonction gn est intégrable sur l’intervalle [0, +∞[.
Z +∞ Z a
2. Pour tous a > 0 et n ∈ N, on pose In = gn (x) dx et In (a) = gn (x) dx.
0 0
2.1. Soit n ∈ N. Pour tout a > 0, établir une relation entre les intégrales In (a) et In+2 (a) à l’aide
d’une intégration par parties puis en déduire que In+2 = (n + 1) In .
r
π
2.2. En utilisant la loi normale centrée réduite, justifier que I0 = .
2
2.3. Calculer la valeur de l’intégrale I1 et montrer que, pour tout entier naturel n > 1,
r
π (2n)!
I2n = et I2n+1 = 2n n! .
2 2n n!
g1 (x) si x > 0 ,
3. Soit g la fonction définie pour tout réel x par : g (x) =
0 si x < 0 .
3.1. Démontrer que g est une densité de probabilité.
3.2. Soit X une variable aléatoire réelle admettant g comme densité de probabilité. Justifier que X
admet une espérance E (X) et une variance V (X) puis préciser leur valeur.
3.3. On désigne par F et G les fonctions de répartitions respectives des variables aléatoires X et
Y = X 2 . Pour tout réel x, exprimer G (x) à l’aide de F puis en déduire que Y est une variable
à densité. Reconnaı̂tre la loi de Y et donner la valeur de son espérance E (Y ) et de sa variance
V (Y ).
problème
Étude d’une équation aux dérivées partielles
Définitions et notations
de classe k sur R.
Épreuve de mathématiques I
Correction
EXERCICE
Un peu de probabilités
1
1. Pour tout n ∈ N, la fonction gn est continue sur [0, +∞[ et gn (x) = , donc gn est
+∞ x2
intégrable sur [0, +∞[.
2. 2.1 A l’aide d’une intégration par parties, on obtient :
a
−x2
Z
n+2
In+2 (a) = x exp dx
0 2
Z a 2
n+1 d −x
=− x exp dx
0 dx 2
2 a Z a 2
n+1 −x n −x
=− x exp + (n + 1) x exp dx.
2 0 0 2
2
n+1 −a
= −a exp + (n + 1)In (a).
2
Quand a tend vers +∞, on obtient
n + 2 = (n + 1)In . (1)
2.2 La fonction densité de la loi normale centrée-réduite est définie sur R par :
2
1 x
f (x) = √ exp − .
2π 2
Z +∞ Z +∞
Comme il s’agit d’une densité, alors f (x)dx = 2 f (x)dx = 1, par consé-
−∞ 0
quent
√ +∞
Z r
π
I0 = 2π f (x)dx = .
0 2
+∞ 2
2 +∞
−x −x
Z
2.3 Il est clair que I1 = x exp dx = − exp = 1. Par l’égalité (1),
0 2 2 0
on a :
• Si n = 2p, p ∈ N,
r
(2p)! π
I2p = (2p − 1)(2p − 3)...3 × 1 × I0 = p . (2)
2 p! 2
• Si n = 2p + 1, p ∈ N,
Z +∞ Z +∞
3. 3.1 g est une fonction continue positive sur R et g(x)dx = g1 (x)dx = 1. Donc
−∞ 0
g est une densité de probabilité.
3.2 Soit n ∈ N. La fonction x 7→ xn g(x) est nulle sur ] − ∞, 0[ et coïncide avec gn sur
Z +∞
[0, +∞[, donc E(X) = xg(x)dx et V (X) = E(X 2 ) − E(X)2 existent. Avec
−∞
Z +∞
E(X) = g1 (x)dx = I1 = 1
0
et en utilisant (2) r
π
V (X) = I2 − I12 = − 1.
2
3.3 Si x ≤ 0, G(x) = p(Y ≤ x) = 0 car Y prend que des valeurs positives.
Si x > 0, alors
√
√
Z x √
G(x) = p(Y ≤ x) = p(X 2 ≤ x) = p(0 ≤ X ≤ x) = g(t)dt = F ( x).
0
PROBLÈME
Étude d’une équation aux dérivées partielles
Première partie : Quelques résultats préliminaires utiles