100% ont trouvé ce document utile (1 vote)
306 vues17 pages

Probabilité MP

Transféré par

alaebenalilou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
306 vues17 pages

Probabilité MP

Transféré par

alaebenalilou
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Probabilité MP :

CNC 2017 MP MATH 1 : (la fonction génératrice)


CNC 2016 MP MATH 1: (variables aléatoires discrètes)
CNC 2019 MP MATH 1: (exercice)

CNC/CNAEM : https://www.facebook.com/cnc.marco.33
Concours National Commun – Session 2017 – Filière MP

Partie I
Quelques propriétés de la fonction génératrice et quelques exemples
1. Montrer que la fonction génératrice GX est au moins définie sur l’intervalle [-1,1].
(k)
2. Montrer que pour tout k ∈ N, GX (0) = k!P (X = k).
3. Donner l’expression de GX , en précisant le domaine de définition, dans chaque cas suivant :
a) X suit la loi de Bernoulli de paramètre p, notée B(p), où p ∈ [0, 1].
b) X suit la loi binomiale de paramètre n, p, notée B(n, p), où n ∈ N∗ , p ∈ [0, 1].
c) X suit la loi géométrique de paramètre p, notée G(p), où p ∈]0, 1[.
4. Montrer que la variable aléatoire X admet une espérance si, et seulement si, GX est dérivable en
1 et dans ce cas G0X (1) = E(X).
5. Montrer que la variable aléatoire X admet un moment d’ordre 2 si, et seulement si, GX est deux
fois dérivable en 1 et dans ce cas V (X) = G00X (1) + G0X (1) − (G0X (1))2 .
6. En déduire l’espérance et la variance d’une variable aléatoire qui suit la loi géométrique G(p) de
paramètre p, où p ∈]0, 1[.

a
Partie II
La fonction génératrice d’une somme de variables aléatoires
Soient n un entier naturel non nul et N une variable aléatoire telle que N (Ω) = J1, nK = {1, . . . , n}.
On suppose que pour tout k de J1, nK, P (N = k) est non nul. On considère n variables aléatoires

m un entier naturel non nul. On pose S =

réalisé, h ∈ J1, nK, alors S =


h
P
i=1
hir
indépendantes (Xi )1≤i≤n , toutes de même loi qu’une variable aléatoire X, telle que X(Ω) = J1, mK, avec

Xi ).
N
P
i=1

1. Montrer que pour tout k ∈ J1, nK, GX1 +...+Xk = GkX .


Xi , (en particulier, sachant que l’événement (N = h) est

2. a) Soit Y une variable aléatoire réelle qui prend un nombre fini de valeurs dans Y (Ω), montrer
n
P (N = k)E(Y |[N = k]), où ∀k ∈ J1, nK,
P
que E(Y ) =
k=1
E(Y |[N = k]) =
P
yP ((Y = y)|[N = k]) désigne l’espérance de Y sachant l’événement
a
y∈Y (Ω)
[N = k] et P ((Y = y)|[N = k]) désigne la probabilité de (Y = y) sachant l’événement
[N = k].
b) Montrer que pour tout k ∈ J1, nK et pour tout réel t, E(tS |[N = k]) = GkX (t).
n
al9

P (N = k)GkX (t).
P
c) En déduire que pour tout réel t, GS (t) =
k=1
d) Montrer que GS = GN ◦ GX .
3. En déduire que E(S) = E(N )E(X).
Partie III
Application
On dispose d’un jeton non truqué à deux faces numérotées 1 et 2 et d’un dé tétraédrique (famille des
pyramides composées de quatre faces triangulaires), équilibré, dont les faces sont numérotées de 1 à 4.
On lance le jeton et on note N le numéro obtenu, puis on lance N fois le dé et pour chaque lancer, on
note le numéro de la face d’appui du dé. Soit S la somme des numéros obtenus lors de ces N lancers,
(si N = 1, le dé est lancé une seule fois et S est le numéro lu sur la face d’appui du dé).
1. a) Déterminer la loi de N .
b) Donner la loi conditionnelle de S sachant [N = k], pour k = 1, puis pour k = 2.
c) En déduire la loi de S, puis son espérance et sa variance.
N
P
2. a) Identifier la variable aléatoire X telle que S = Xi , où X1 et X2 sont deux variables
i=1
aléatoires indépendantes de même loi que X.
b) Déterminer les fonctions génératrices GN et GX et en déduire la fonction génératrice GS .
c) Retrouver, en utilisant la fonction génératrice GS , la loi, l’espérance et la variance de S.
Fin de l’épreuve

Épreuve de Mathématiques I Page 4/4 https: // al9ahira. com/


C ONCOURS N ATIONAL COMMUN - S ESSION 2017 - F ILIÈRE MP

4. En appliquant la transformée N1 à (S) on obtient


−4

 (x − 1)N1 (y1 )(x) + (x + 1)N1 (y2 )(x) − 2 =

x+3
5x
 (x + 3)N1 (y1 )(x) + (2x + 1)N1 (y2 )(x) − 2 =

1 + x2
D’où
1
N1 (y2 )(x) = = N1 (sin t)(x).
1 + x2
Donc
y2 (t) = sin t,
et puis, par soustraction,
1
5 cos t + 4e−3t − y20 (t) = e−3t + cos t.

y1 (t) =
4

Problème 2
Partie I : Quelques prpriétés de la fonction génératrice et quelques exemples
X
1. On a ∀t ∈ [−1, 1], ∀k ∈ N, |p(X = k)tk | ≤ p(X = k). La série de terme p(X = k) converge,
k∈N
et sa somme vaut 1. Donc le théorème de comparaison des séries à termes positifs nous permet
X
d’affirmer que la série p(X = k)tk converge absolument. Or la convergence absolue entraîne la
k∈N
convergence. Donc la fonction génératrice est au moins définie sur l’intervalle [−1, 1].
2. GX est une fonction définie par une série entière, donc les coefficients du développement de la
série sont définis d’une manière unique par les relations :
(k)
G (0)
∀k ∈ N, p(X = k) = X .
k!
3. (a) Si X suit une loi de Bernoulli de paramètre p, alors on a :

1
X
∀t ∈ R, GX (t) = p(X = k)tk = (1 − p)t0 + pt = pt + 1 − p.
k=0

(b) Si X suit une loi binomiale B(n, p), alors, pour tout t ∈ R, on a :

n n   n  
X
k
X n k n−k k
X n
GX (t) = p(X = k)t = p (1 − p) t = (pt)k (1 − p)n−k = (pt + 1 − p)n .
k k
k=0 k=0 k=0

(c) Si X suit une loi géométrique de paramètre p ∈]0, 1[, alors :


• X(Ω) = N∗ ;
• ∀k ∈ N, p(X = k) = (1 − p)k−1 p.
Donc

∞ ∞ ∞
X X p X pt
∀t ∈ [−1, 1], GX (t) = p(X = k)tk = (1 − p)k−1 .ptk = (t − pt)k = .
1−p pt − t + 1
k=1 k=1 k=1

CNC 2017 8 / 12 M.TARQI


C ONCOURS N ATIONAL COMMUN - S ESSION 2017 - F ILIÈRE MP

4. Supposons que X admet une espérance E(X). On a, pour tout t ∈ [0, 1[ :



X ∞
X
k
GX (t) − GX (1) = t p(X = k) − p(X = k)
k=0 k=0
X∞
= (tk − 1)p(X = k)
k=0

X
= (t − 1)(1 + t + t2 + · · · + tk−1 )p(X = k).
k=0

Donc :

GX (t) − GX (1) X
= (1 + t + t2 + · · · + tk−1 )p(X = k).
t−1
k=0

Ensuite :

∀a, b ∈ [0, 1] a ≤ b ⇒ ai ≤ bi
k
X k
X
⇒ ai ≤ bi
i=0 i=0
∞ k ∞
! !
X X X X
⇒ ai p(X = k) ≤ bi p(X = k)
k=1 i=0 k=1 i=0
GX (a) − GX (1) GX (b) − GX (1)
⇒ ≤ ,
a−1 b−1
GX (t) − GX (1)
donc la fonction t 7−→ est croissante sur [0, 1[. De plus :
t−1


GX (t) − GX (1) X
= (1 + t + t2 + · · · + tk−1 )p(X = k)
t−1
k=0

!
X 1| + 1 + 1{z+ · · · + 1}
≤ p(X = k)
k=0
k termes

X
= k.p(X = k)
k=0
= E(X).

GX (t) − GX (1)
La fonction t 7−→ étant croissante et majorée par E(X) sur [0, 1[ admettra donc
t−1
une limite fini pour t tendant vers 1 par valeurs inférieures . Ce qui montre que GX est dérivable à
gauche en 1.
Inversement, supposons que GX est dérivable en 1, alors :

X
∀t ∈ [0, 1] G0X (t) = p(X = k)k.tk−1
k=1

Et par conséquent :

CNC 2017 9 / 12 M.TARQI


C ONCOURS N ATIONAL COMMUN - S ESSION 2017 - F ILIÈRE MP


X ∞
X
G0X (1) = p(X = k)k × 1 k−1
= k.p(X = k) = E(X).
k=1 k=1

5. On a vu que, ∀t ∈ [0, 1],



X
G0X (t) = p(X = k)k.tk−1
k=1

X
G00X (t) = p(X = k)k(k − 1).tk−2 .
k=2

Et donc :

X ∞
X
G00X (1) = p(X = k)k(k − 1).1 k−2
= k(k − 1)p(X = k) = E (X(X − 1)) .
k=2 k=2

Par conséquent :

V (X) = E(X 2 ) − (E(X))2


= E (X(X − 1)) + E(X) − (E(X))2
2
= G00X (1) + G0X (1) − G0X (1) .

6. L’espérance de X est donnée par la formule, avec q = 1 − p :


∞ ∞  0
X X
k−1 1 p p
E(X) = kp(X = k) = p kq =p = 2
= .
1−q (1 − q) q
k=1 k=1

Calculons maintenant V (X) la variance de X : On a



X ∞
X
V (X) = k 2 p(X = k) = p k 2 q k−1 .
k=1 k=1

Écrivons k 2 sous la forme k 2 = k(k − 1) + k. Alors


∞ ∞  00
2
X
k−2
X
k−1 1 2 2
V (X) = pq k(k − 1)q + pq kq = = 2
= 3.
1−q (1 − q) p
k=2 k=1

2q 2 p
D’où V (X) = + . Nous en déduisons la variance de X :
p2 q

2q 2 p q 2 1−p
V (X) = E(X(X − 1)) + E(X) − E(X)2 = + − 2 = .
p2 q p p2

Partie II : La fonction génératrice d’une somme de variables aléatoires


1. On a, par définition, GX1 +X2 (t) = E(tX1 +X2 ) = E(tX X X X
1 t2 ) et les variables aléatoires t1 et t2 sont
indépendantes, donc GX1 +X2 (t) = GX1 (t).GX2 (t) = G2X (t). D’où la propriété est vraie pour k = 2.
Supposons la vraie pour k. On a alors

CNC 2017 10 / 12 M.TARQI


C ONCOURS N ATIONAL COMMUN - S ESSION 2017 - F ILIÈRE MP

k
Y k+1
Y
Gk+1 (t) = G k (t) = G k (t).GXk+1 (t) = GXi (t).GXk+1 (t) = GXi (t) = GkX (t).
X X X
Xi Xi + Xk+1 Xi i=1 i=1

i=1 i=1 i=1

Et la propriété est vrai pour k + 1. La propriété est donc vraie pour tout k ∈ N∗ .
2. (a) La variable aléatoire N étant à valeurs dans [[1, n]], la famille (N = k)k∈[[1,n]] est un système
complet d’événements. Utilisons la formule des probabilités totales :
Xn Xn
∀y ∈ Y (Ω), P (Y = y) = P (Y = y, N = k) = p(Y = y/N = k)p(N = k). D’où
k=1 k=1
X
E(Y ) = yp(Y = y)
y∈Y (Ω)
X n
X
= y p(Y = y/N = k)p(N = k)
y∈Y (Ω) k=1
Xn X
= p(N = k) yp(Y = y/N = k), car Y (Ω) est fini
k=1 y∈Y (Ω)
n
X
= p(N = k)E(Y /N = k)
k=1

(b) Par définition, on a :


∞ ∞ k
!
X X X
S j j
∀t ∈ R, E(t /N = k) = t p(S = j/N = k) = t p Xi = j = GX1 +X2 +...+Xk (t) = GkX (t).
j=0 j=0 i=1

(c) On an d’après la question 2. a) de cette partie :


n
X n
X
∀t ∈ R, p(N = k)GkX (t) = p(N = k)E(tS /N = k) = E(tS ) = GS (t).
k=1 k=1

(d) D’après l’égalité précédente, on a ∀t ∈ R,


n
X
GS (t) = p(N = k)(GX (t))k = GN (GX (t)) = GN ◦ GX (t),
k=1

d’où :
G S = GN ◦ G X .
3. On a G0S (1) = G0N (GX (1).G0X (1) = G0N (1).G0X (1) ou encore E(S) = E(N )E(X).

Partie III : Application


1 1
1. (a) N suit une loi de Bernoulli de paramètre : N (Ω) = {1, 2} et p(N = 1) = p(N = 2) = .
2 2
(b) La variable aléatoire S/[N = 1] suit la loi uniforme sur {1, 2, 3, 4}. D’où :

i 1 2 3 4
1 1 1 1
p(S = i/[N = 1]) 4 4 4 4

CNC 2017 11 / 12 M.TARQI


C ONCOURS N ATIONAL COMMUN - S ESSION 2017 - F ILIÈRE MP

Notons X1 le résultat du premier lancer et X2 le résultat du deuxième lancer lorsque N = 2.


X1 et X2 suivent une loi uniforme sur {1, 2, 3, 4}, alors :
4
1X k
∀t ∈ R, GX1 (t) = GX2 (t) = t .
4
k=1
Si X1 et X2 sont indépendantes, alors :

1 2
t + 2t3 + 3t4 + 4t5 + 3t6 + 2t7 + t8 .

GS (t) = GX1 +X2 (t) = GX1 (t)GX2 (t) =
16
On en déduit la loi de probabilité de S lorsque N = 2 :

k−1 9−k
∀k ∈ {2, .., 5}, P (S = k) = , ∀k ∈ {6, .., 8}, P (S = k) = .
16 16

i 2 3 4 5 6 7 8
1 2 3 4 3 2 1
p(S = i/[N = 2]) 16 16 16 16 16 16 16

(c) On a d’abord S(Ω) = [[1, 8]] et (S = i) = (S = i, N = 1) ∪ (S = i, N = 2), donc

p(S = i) = p(S = i, N = 1) + p(S = i, N = 2)


= p(S = i/[N = 1])p(N = 1) + p(S = i/[N = 2])p(N = 2)
1
= [p(S = i/[N = 1]) + p(S = i/[N = 2])] .
2
D’où la loi de S :
i 1 2 3 4 5 6 7 8
1 5 3 7 1 3 1 1
p(S = i) 8 32 16 32 8 32 16 32

8  2
X 15 35 15 55
On trouve E(S) = ip(S = i) = et V (S) = E(S 2 ) − (E(S))2 = − = .
4 2 4 16
i=1
2. (a) X suit la loi uniforme sur l’ensemble {1, 2, 3, 4}.
1 1
(b) On sait que ∀t ∈ R, GN (t) = (t + t2 ) et GX (t) = (t + t2 + t3 + t4 ).
2 4
D’où ∀t ∈ R,

GS (t) = GN (GX (t))


 
1 1 2 3 4 1 2 3 4 2
= (t + t + t + t ) + (t + t + t + t )
2 4 16
1 5 2 3 3 7 4 1 5 3 1 1
= t + t + t + t + t + t6 + t7 + t8 .
8 32 16 32 8 32 16 32
15
(c) La loi de S est donnée par les coefficients du polynôme GX en t. E(S) = G0S (1) = et
 2 4
55 15 15 55
V (S) = G00S (1) + G0S (1) − (G0S (1))2 = + − = .
4 4 4 16
• • • • • • • • ••

CNC 2017 12 / 12 M.TARQI


Concours National Commun – Session 2016 – Filière MP

3. Soit ϕ : I → R de classe
! C . Montrer qu’il existe une !suite (Pn )n∈N de polynômes telle que,
1

lim sup |ϕ(t) − Pn (t)| = 0 et lim sup |ϕ0 (t) − Pn0 (t)| =0
n→∞ t∈[a,b] n→∞ t∈[a,b]

4. Soit ψ : I → R continue et positive. Montrer qu’il existe une suite (P!n )n∈N de polynômes telle que, (

pour tout n ∈ N et tout t ∈ I, Pn (t) ≥ 0 ), et lim sup |ψ(t) − Pn (t)| =0


n→∞ t∈[a,b]

Problème 2
Soit (Ω, A, P ) un espace probabilisé, par la suite, les variables aléatoires considérées sont des variables
aléatoires réelles discrètes ou àă densité. Si X est une variable aléatoire sur (Ω, A, P ), la fonction génératrice
des moments de X, lorsqu’elle existe, est la fonction numérique de la variable réelle t, MX : t → E(etX ), où
E(etX ) désigne l’espérance de la variable aléatoire etX .

Partie I
Cas particulier : variables aléatoires discrètes finies
Soit X une variable aléatoire discrète prenant un nombre fini de valeurs x1 , ..., xr avec les probabilités
respectives p1 , ..., pr , où r ∈ N∗ . Dans cette partie, on définit la fonction ϕX sur R∗ par,

1
∀t ∈ R∗ , ϕX (t) = ln(MX (t))
t
1. Déterminer MZ , lorsque Z suit une loi de Bernoulli de paramètre p, p ∈ [0, 1].
(k)
2. Montrer que MX est de classe C ∞ sur R, et que pour tout entier naturel k, MX (0) = E(X k ).
3. (a) Montrer que ϕX est bien définie sur R∗ et prolongeable par continuité en 0. On pose ϕX (0) = E(X)
et on note encore ϕX la fonction ainsi prolongée.
(b) Démontrer que ϕX est dérivable en 0 et calculer ϕ0X (0) en fonction de la variance V (X) de X.
1
(c) i. Montrer que pour tout u ≤ 0, eu ≤ 1 + u + u2 .
2
ii. Montrer que si X ne prend que des valeurs négatives ou nulles, alors, pour tout t ≥ 0,
t
ϕX (t) ≤ E(X) + E(X 2 ).
2

(d) i. Pour tout entier i tel que 1 ≤ i ≤ r, on note fi la fonction définie sur R, par t 7→ etxi . Montrer
que la famille (f1 , ..., fn ) est libre.
ii. En déduire que deux variables discrètes finies X et Y ont la même loi si, et seulement si, les
fonctions ϕX et ϕY sont égales.
(e) Montrer que si X et Y sont des variables discrètes finies indépendantes, alors, ϕX+Y = ϕX + ϕY .
(f) En déduire MX , lorsque X suit une loi binomiale de paramètre s et p, s est un entier naturel non
nul et 0 ≤ p ≤ 1.
(g) On dit qu’une variable aléatoire réelle X est symétrique si X et −X ont la même loi. Montrer que
ϕX est impaire si, et seulement si, X est une variable aléatoire réelle symétrique.
4. On considère une suite (Xn )n≥1 de variables aléatoires discrètes finies mutuellement indépendantes
sur (Ω, A, P ), qui suivent la même loi que X. On note m l’espérance de X et σ son écart-type que l’on
suppose strictement positif.
Sn − E(Sn )
On pose, pour tout entier naturel non nul, Sn = X1 + X2 + ... + Xn et Sn∗ = p .
V (Sn )

Épreuve de Mathématiques I 3/4 Tournez la page S.V.P.


Concours National Commun – Session 2016 – Filière MP

(a) Montrer que, pour tout entier naturel non nul n et tout réel non nul t,
√ √  
−m n n t
ϕSn∗ (t) = + ϕX √ .
σ σ σ n

t
(b) En déduire que lim ϕSn∗ (t) = .
n→∞ 2

Partie II
Cas des variables aléatoires discrètes réelles infinies
Soit X une variable aléatoire discrète réelle infinie, notons IX l’ensemble des réels t pour lesquels MX existe.
1. (a) Montrer que, pour tous réels a, b, c tels que a < b < c et tout réel x, ebx ≤ eax + ecx .
(b) En déduire que IX est un intervalle contenant 0.
2. Soit Y une variable aléatoire discrète réelle qui suit une loi de Poisson de paramètre λ > 0.
Déterminer la fonction génératrice des moments MY de Y .
3. On suppose que la fonction MX est définie sur un intervalle de la forme ]−a, a[, (a > 0). Notons (xn )n∈N
une énumération des valeurs de X.
Posons, pour tout n ∈ N et tout t ∈] − a, a[, un (t) = P (X = xn )etxn . Soit α > 0 tel que [−α, α] ⊂] − a, a[,
et soit ρ ∈]α, a[.
(k)
(a) Montrer que, pour tout k ∈ N, tout t ∈] − α, α[ et tout n ∈ N, |un (t)| ≤ P (X = xn )(|xn |)k eρ|xn | , où
(k)
un désigne la dérivée k-ème de la fonction un .
(b) Montrer que, pour tout k ∈ N, il existe Mk > 0, pour tout t ∈] − α, α[ et tout n ∈ N,

|u(k)
n (t)| ≤ Mk P (X = xn )e
ρ|xn |
.

(k)
(c) En déduire que MX est de classe C ∞ sur ] − a, a[, et que pour tout k ∈ N, E(X k ) = MX (0).
4. En déduire l’espérance et la variance d’une variable aléatoire Y qui suit une loi de Poisson de paramètre
λ > 0.

Partie III
Cas des variables aléatoires à densité
Si X est une variable aléatoire àă densité, on note IX l’intervalle de R, qui contient 0, pour lequel MX existe.
1. Soient X et Y deux variables aléatoires àă densité indépendantes, qui admettent respectivement des
fonctions génératrices des moments MX et MY , montrer que MX+Y = MX MY .
2. Soit X une variable aléatoire à densité possédant une fonction génératrice des moments MX et une
densité f . On suppose que cette fonction génératrice des moments soit définie sur IX =]a, b[, (a, b) ∈ R2 ,
a < 0 < b, et soit s un réel tel que, 0 < s < min(−a, b).
(a) Montrer que, pour tout k ∈ N∗ et tout t ∈ R, |tk | ≤ e .
k! s|t|
sk
(b) En déduire que, pour tout k ∈ N∗ , E(|X|k ) est finie.

X tk
(c) Montrer que, pour tout t ∈] − s, s[, MX (t) = E(X k ) .
k!
k=0
(k)
(d) En déduire que, pour tout k ∈ N, MX (0) = E(X k ).

F IN DE L’ ÉPREUVE

Épreuve de Mathématiques I 4/4 F IN


(c) On procède comme dans I.4.d et I.4.e pour conclure que (Cn (f ))n≥1 converge uniformément vers f sur [0,1].

Partie III
Z b
1. (a) Par linéarité de l’intégrale, on a : ∀P ∈ R[X], P (x)f (x)dx = 0. Or d’après le théorème de Stone-
a
Weierstrass f est limite uniforme d’une suite de polynômes réels (Pn )n sur [a,b]. Et on a

∀x ∈ [a, b], ∀n ∈ N, |f 2 (x) − f (x)Pn (x)| = |f (x)||f (x) − Pn (x)| ≤ kf k∞ kf − Pn k∞ −−−−−→ 0


n→+∞

Donc (f Pn )n converge uniformément vers f 2 sur [a,b].


Z b Z b Z b
2
D’après le théorème d’interversion limite-intégrale, 0 = f (x)Pn (x)dx −−−−−→ f (x)dx. Donc f 2 (x)dx = 0.
a n→+∞ a a
Or f 2 est positive et continue sur [a,b], donc f 2 est nulle sur [a,b]. D’où f est nulle sur [a,b].
 
1
(b) La fonction x 7→ xn e−(1−i)x est intégrable sur [0, +∞[ car elle y est continue et |xn e−(1−i)x | = xn e−x = o
x2
n+1
au voisinage de +∞. Et, par intégration par partie, on a In+1 = In . D’où, par récurrence sur n, on
1−i
a:
n! n!
∀n ∈ N, In = n
I0 = .
(1 − i) (1 − i)n+1
(c) Soit φ : [0, +∞[ −→ R √ . φ est continue et non nulle sur [0, +∞[. Soit n ∈ N. En utilisant
−4x

x 7−→ e sin( x)
4

le changement de variable y = 4 x et la question III.1.b,
Z +∞ Z +∞
n
x φ(x)dx = 4 y 4n+3 e−y sin(y)dy = 4Im(I4n+3 ) = 0
0 0

Commentaire : cette question nous permet de conclure que la généralisation de III.1.a n’est pas vrai sur
un intervalle quelconque.
2. D’après le théorème de Stone-Weierstrass, il existe une suite (Qn )n de fonctions polynomiales convergeant
uniformément vers g.
Z b Z b
On a alors Qn (t)dt −−−−−→ g(t)dt.
a n→+∞
Z ba
1
Posons Pn (t) = Qn (t) − Qn (x)dx et donc (Pn )n est une suite de polynômes convergeant uniformément
b−a a
Z b
vers g sur [a,b] vérifiant Pn (t)dt = 0.
a
3. Comme ϕ0 est continue sur I, alors il existe une suite (Qn ) de fonctions polynomiales convegeant uniformément
vers ϕ0 sur I. Z x Z x
Posons alors Pn (x) = ϕ(a) + Qn (t)dt. L’inégalité |Pn (x) − ϕ(x)| ≤ |ϕ0 (t) − Qn (t)|dt permet d’établir
a a
que (Pn )n converge uniformément vers ϕ sur I. Et puisque Pn0 = Qn , la suite (Pn )n convient.
4. il existe une suite (Qn ) de fonctions polynomiales convergeant uniformément vers ψ sur I. Posons mn = inf Qn (t)
t∈I
et m = inf ψ(t). Or Qn et ψ sont continues sur le segment I, donc il existe tn , t0 ∈ [a, b] tel que mn = Qn (tn )
t∈I
et m = ψ(t0 ). Montrons que mn −−−−−→ m ≥ 0. Soit ε > 0. ∃N ∈ N, ∀n ≥ N, ∀t ∈ I, |ψ(t) − Qn (t)| < ε, donc
n→+∞
∀n ≥ N mn = Qn (tn ) > ψ(tn ) − ε ≥ m − ε et m = ψ(t0 ) > Qn (t0 ) − ε ≥ mn − ε donc ∀n ≥ N |mn − m| < ε.
Ainsi mn → m.
La suite (Pn = Qn − mn + m) convient.

Problème : 2

Partie I
1. Si Z suit la loi de Bernoulli de paramètre p, alors Z(Ω) = {0, 1} et P (Z = 1) = p, P (Z = 0) = 1 − p. Donc
par, le théorème de transfert,
∀t ∈ R, MZ (t) = pet + 1 − p.

4/8
r
X
2. Par, le théorème de transfert, ∀t ∈ R, MX (t) = pj etxj et donc MX est de classe C ∞ sur R et
j=1

r
(k)
X
∀k ∈ N, ∀t ∈ R, MX (t) = pj xkj etxj .
j=1

(k)
D’où ∀k ∈ N, MX (0) = E(X k ).
3. (a) ϕX est bien définie sur R∗ car MX est strictement positive sur R puisque :
— ∀t ∈ R, ∀j ∈ J1 , rK, etxj > 0
Xr
— ∃i ∈ J1 , rK, pi > 0 puisque pj = 1
j=1
Soit t ∈ R∗ .
r r
X X x2j 2 E(X 2 ) 2
MX (t) = pj etxj = pj (1 + xj t + t + ot→0 (t)) = 1 + E(X)t + t + ot→0 (t2 )
j=1 j=1
2 2

V (X)
Donc ϕX (t) = E(X) + t + ot→0 (t). D’où lim ϕX (t) = E(X). Donc ϕX est prolongeable par continuité
2 t→0
en 0
(b) D’après la question précédente ϕX admet un développement limité d’ordre 1 en 0, donc elle est dérivable en
V (X)
0 et ϕ0X (0) = .
2
(c) i. Soit u ≤ 0. D’après la formule de Taylor-Lagrange à l’ordre 3, il existe c ∈]u, 0[ tel que :
1 1
eu − 1 − u − u2 = u3 ec ≤ 0 car u ≤ 0.
2 3!
1
D’où ∀u ≤ 0, eu ≤ 1 + u + u2 .
2
ii. Soit t ≥ 0. On a, pour tout j ∈ J1 , rK, txj ≤ 0, donc, d’après la question précédente,
r
t2
 
X 1
MX (t) ≤ pj 1 + txj + x2j t2 = 1 + E(X)t + V (X)
j=1
2 2

Et comme ∀x > −1, ln(1 + x) ≤ x, alors


t t
ϕX (t) ≤ E(X) + V (X) ≤ E(X) + E(X 2 ) car V (X) = E(X 2 ) − E 2 (X) ≤ E(X 2 ).
2 2

(d) i. Considèrons l’endomorphisme φ de C ∞ (R) définie par : ∀f ∈ C ∞ (R), φ(f ) = f 0 .


On a, pour tout i ∈ J1 , rK, fi n’est pas nulle et φ(fi ) = xi fi , donc fi est un vecteur propre de φ associé
à la valeur propre xi . Et comme les xi sont deux à deux distinctes, alors (f1 , . . . , fr ) est libre.
ii. Dans cette question on n’a oublié de dire que X(Ω) = Y (Ω) = {x1 , . . . , xr }.
=⇒ C’est évident.
⇐= On pose, pour tout j ∈ J1 , rK, pj = P (X = xj ) et qj = P (Y = xj ).
Xr
On a ∀t ∈ R∗ , ϕX (t) = ϕY (t), donc ∀t ∈ R∗ , MX (t) = MY (t), c-à-d (pk − qk )fk = 0. Et comme la
k=1
famille (f1 , . . . , fr ) est libre, alors j ∈ J1 , rK, pj = qj . D’où ont la même loi.
 
(e) Puisque X et Ysont indépendantes, alors ∀t ∈ R, etX et etY le sont aussi. Donc E et(X+Y ) = E etX etY =
E etX E etY . D’où ϕX+Y = ϕX + ϕY
(f ) Le résultat de la question précédente se généralise, par récurrence, à un nombre fini de variables aléatoires
discrètes finies mutuallement indépendantes.
Comme X suit la loi binomiale de paramètres s et p, alors on peut voir X comme somme de s variables
aléatoires X1 , . . . , Xs qui ont même loi de Bernoulli de paramètre p.
Xs
Donc, d’après la question précédente, ϕX = ϕXj = sϕX1 . Donc
j=1

s
∀t ∈ R, MX (t) = (MX1 ) = (pet + 1 − p)s .

5/8
(g)

X et − X sont symétriques ⇐⇒ X et − X ont même loi


⇐⇒ ϕX = ϕ−X (d’après I.3.d.ii)
1
⇐⇒ ∀t ∈ R∗ , ϕX (t) = ln E e−tX

et ϕX (0) = 0
t
1
⇐⇒ ∀t ∈ R∗ , ϕX (−t) = − ln E etX

et ϕX (0) = 0
t
⇐⇒ ∀t ∈ R, ϕX (t) = −ϕX (−t)
⇐⇒ ϕX est impaire

4. (a) Soit (n, t) ∈ N∗ × R∗ .


E(Sn )
 ∗  Sn 
MSn∗ (t) = E etSn = e−t σ(Sn ) E et σ(Sn )
Or !
n
X n
X
E(Sn ) = E Xk = E(Xk ) = nm
k=1 k=1

et puisque les Xk sont mutuellement indépendantes, alors :


n
! n
X X
V (Sn ) = V Xk = V (Xk ) = nσ 2 .
k=1 k=1

t σS√nn
 
−t mσ n
Donc MSn∗ (t) = e E e . D’où

m n
ϕSn∗ (t) = − + ϕ S√n (t)
σ σ n

Xk
Et puisque les Xk sont mutuellement indépendantes , alors les √ le sont aussi et, d’après I.3.e, on a :
σ n
n
X
ϕ Sn

(t) = ϕ Xk

(t) = nϕ X
√ (t)
σ n σ n σ n
k=1

Or,
1 1   t 

ϕ X
√ (t) = √ t ln E e σ nX
σ n σ n √
σ n
 
1 t
= √ ϕX √
σ n σ n

D’où √ √  
m n n t
+ ϕX √ .
ϕSn∗ (t) = −
σ σ σ n
   
t tσ 1
(b) Quand n → +∞, ϕX √ =m+ √ +o √ .
σ n 2 n n
Donc
t t
ϕSn∗ (t) = + o(1) −−−−−→ .
2 n→+∞ 2
Partie II
c−b
1. (a) Soit x ∈ R. Comme b ∈]a, c[, alors ∃λ ∈]0, 1[, b = λa + (1 − λ)c (λ = ).
c−a
Or exp est convexe, donc ebx ≤ λeax + (1 − λ)ecx ≤ eax + ecx .
+∞
X
(b) On pose X(Ω) = {xn | n ∈ N} et ∀n ∈ N, P (X = xn ) = pn . On a ∀t ∈ IX , MX (t) = pn etxn .
n=0
+∞
X
— Comme pn = 1, alors 0 ∈ IX .
n=0

6/8
— Soit a, c ∈ IX tel que a < c et b ∈]a, c[. Alors MX (a) et MX (c) existent. Or, d’après la question
précédente, ∀n ∈ N, ebxn ≤≤ eaxn + ecxn , donc MX (b) existe et par suite b ∈ IX
Donc IX est un intervalle de R contenant 0.
n
λn (et λ)
2. On a Y (Ω) = N, ∀n ∈ N, P (Y = n) = e−λ . Soit t ∈ R,on pose an (t) = e−λ > 0.
n! n!
t
an+1 (t) λe
Comme = −−−−−→ 0 < 1, donc, d’après la règle de D’Alembert MY (t) existe pour tout t ∈ R et
an (t) n + 1 n→+∞
+∞ n
X (et λ) t
MY (t) = e−λ = eλ(e −1)
n=0
n!
3. (a) On a, pour tout n ∈ N, un est de classe C ∞ sur ] − α, α[ et on a

∀(k, n, t) ∈ N × N×] − α, α[, u(k) k txn


n = P (X = xn )xn e

et Donc
∀(k, n, t) ∈ N × N×] − α, α[, u(k)
n ≤ P (X = xn )|xn |k eα|xn |

car ∀(n, t) ∈ N×] − α, α[, |txn | ≤ α|xn |.


(b) Soit k ∈ N. D’après la question précédente,
k −δ|xn |
∀(n, t) ∈ N×] − α, α[, |u(k)
n (t) ≤ |xn | e P (X = xn )eρ|xn | où δ = ρ − α > 0
δ
Or si k ≥ 1, la fonction t 7→ tk e−δt admet sur [0, +∞[ un maximum absolu en > 0, qu’on le note Nk > 0.
k
Sinon, un (t) ≤ P (X = xn )eρ|xn | . Donc Mk = max(1, Nk ) convient.
(c) On Xa:
— un converge simplement sur ] − a, a[.
n≥0
— ∀n ∈ N, un est de classe C ∞ sur ] − a, a[.
— D’après la question précédente, ∀α > 0 tel que [−α, α] ⊂] − a, a[ et ρ ∈]α, a[,

∀k ∈ N, ∃Mk > 0, ∀(n, t) ∈ N×] − α, α[, u(k)


n ≤ Mk P (X = xn )keρ|xn |
X X
Or P (X = xn )keρ|xn | est convergente car ρ ∈ IX . Donc ∀k ∈ N, u(k)
n converge normalement sur
n≥0 n≥0
[−α, α]
Donc MX est de classe C ∞ sur ] − a, a[ et
+∞
(k)
X
∀k ∈ N, ∀t ∈] − a, a[, MX (t) = P (X = xn )xkn etxn
n=0

+∞
(k) (k)
X
En particulier MX (0) = P (X = xn )xkn . D’où E(X k ) existe et MX (0) = E(X k ).
n=0
t
4. Puisque Y suit la loi de Poisson de paramètre λ, alors MY est définie sur R et ∀t ∈ R, MY (t) = eλ(e −1) . Donc,
d’après la question précédente, E(Y) et E(Y 2 ) existent et E(Y ) = MY0 (0) = λ et E(Y 2 ) = MY00 (0) = λ(1 + λ)
et donc
V (Y ) = E(Y 2 ) − (E(Y ))2 = λ.

Partie III

1. Comme dans la question I.3.e.


2. (a) Le résultat est trivialement vérifié pour t = 0. Donc il suffit de le démontrer par récurrence sur k ∈ N∗ pour
tout t > 0.
— Pour k = 1, puisque la fonction t 7→ est est convexe sur [0, +∞[ donc st ≤ 1 + st ≤ est .
— Soit k ≥ 1. Supposons que la propriété est vraie pour k et montrons la pour k + 1.
— Considérons la fonction φk+1 définie sur [0, +∞[ par : φk+1 (t) = (k + 1)!est − (st)k+1 . φk+1 est classe
C ∞ sur [0, +∞[ et ∀t ≥ 0, φ0k+1 (t) = (k + 1)s(k!est − (st)k ≥ 0 (d’après l’hypothèse de récurrence.) Donc
φk+1 est croissante sur [0, +∞[. D’où ∀t ≥ 0, φ0k+1 (t) ≥ φ0k+1 (0) = (k + 1)! c-à-d (k + 1)!est ≥ (st)k+1 .
Et la récurrence est établie.
Z +∞
k k! s|t|

(b) Soit k ∈ N et f la fonction de densité de X. On a ∀t ∈ R, |t| ≤ k e et es|t| f (t)dt < +∞ car
s −∞
s ∈ IX . Donc E(|X|k ) est fini.

7/8
(c) On a pour tout t ∈] − s, s[ :
+∞
!
+∞ +∞
(tu)n
Z Z X
MX (t) = etu f (u)du = f (u) du.
−∞ −∞ n=0
n!

(tu)n
On pose, pour tout n ∈ N, fn : u 7→ f (u)
n!
— ∀n
X∈ N, fn est continue par morceaux intégrable sur R (d’après la question III.2.a)
— fn converge simplement sur R vers la fonction g : u 7→ etu f (u) qui est continue par morceaux et
n≥0
intégrable sur R car t ∈] − s, s[⊂ IX
Z +∞
|t|n +∞ n E(|tX|n )
Z
— ∀n ∈ N, |fn (u)|du = |u| f (u)du =
−∞ n! −∞ n!
(∀t ∈] − s, s[, E(|tX|) existe puisque : [−s, s] ⊂ IX avec s > 0, et exp(a|X|) < exp(sX) + exp(−sX) on
en déduit que E(exp(a|X|)) existe, et donc E(exp |tX|) existe pour tout |t| ≤ s.)
X E(|tX|n
— converge vers exp(E(|tX|).
n!
n≥0
Donc, d’près le théorème d’intégration terme à terme,
+∞ Z +∞ +∞ Z +∞  n +∞
X X t X E(X n ) n
∀t ∈] − s, s[, MX (t) = fn (u)du = un f (u)du = t .
n=0 −∞ n=0 −∞ n! n=0 n!

(k)
(d) D’après la question précédente MX est développable en série entière en 0 et donc ∀k ∈ N, MX (0) = E(X k ).

FIN

8/8
Concours National Commun – Session 2019 – MP

L’énoncé de cette épreuve, particulière aux candidats de la filière MP,


comporte 4 pages.
L’usage de tout matériel électronique, y compris la calculatrice, est interdit

Les candidats sont informés que la qualité de la rédaction et de la présentation, la clarté et la précision
des raisonnements constitueront des éléments importants pour l’appréciation des copies. Il convient en
particulier de rappeler avec précision les références des questions abordées.
Si, au cours de l’épreuve, un candidat repère ce qui lui semble être une erreur d’énoncé, il le signale
sur sa copie et poursuit sa composition en expliquant les raisons des initiatives qu’il est amené à prendre.

Ce sujet est composé d’un exercice et d’un problème indépendants à traiter dans l’ordre souhaité.

exercice
Un peu de probabilité
(Noté sur 4 points sur 20)

Pour tout entier naturel n, on définit la fonction gn de la variable réelle x par :


 2
n x
∀ x ∈ R, gn (x) = x exp − .
2

1. Soit n ∈ N. Montrer que la fonction gn est intégrable sur l’intervalle [0, +∞[.
Z +∞ Z a
2. Pour tous a > 0 et n ∈ N, on pose In = gn (x) dx et In (a) = gn (x) dx.
0 0

2.1. Soit n ∈ N. Pour tout a > 0, établir une relation entre les intégrales In (a) et In+2 (a) à l’aide
d’une intégration par parties puis en déduire que In+2 = (n + 1) In .
r
π
2.2. En utilisant la loi normale centrée réduite, justifier que I0 = .
2
2.3. Calculer la valeur de l’intégrale I1 et montrer que, pour tout entier naturel n > 1,
r
π (2n)!
I2n = et I2n+1 = 2n n! .
2 2n n!

g1 (x) si x > 0 ,
3. Soit g la fonction définie pour tout réel x par : g (x) =
0 si x < 0 .
3.1. Démontrer que g est une densité de probabilité.
3.2. Soit X une variable aléatoire réelle admettant g comme densité de probabilité. Justifier que X
admet une espérance E (X) et une variance V (X) puis préciser leur valeur.
3.3. On désigne par F et G les fonctions de répartitions respectives des variables aléatoires X et
Y = X 2 . Pour tout réel x, exprimer G (x) à l’aide de F puis en déduire que Y est une variable
à densité. Reconnaı̂tre la loi de Y et donner la valeur de son espérance E (Y ) et de sa variance
V (Y ).

problème
Étude d’une équation aux dérivées partielles
Définitions et notations

Pour tout k ∈ N, C2π


k (R, C) désigne le C−espace vectoriel des fonctions complexes 2π−périodiques et

de classe k sur R.

Épreuve de Mathématiques I 1/4 Tournez la page S.V.P.


C ONCOURS N ATIONAL C OMMUN - S ESSION 2019 - F ILIÈRE MP

Épreuve de mathématiques I
Correction

EXERCICE
Un peu de probabilités
 
1
1. Pour tout n ∈ N, la fonction gn est continue sur [0, +∞[ et gn (x) = , donc gn est
+∞ x2
intégrable sur [0, +∞[.
2. 2.1 A l’aide d’une intégration par parties, on obtient :

a
−x2
Z  
n+2
In+2 (a) = x exp dx
0 2
Z a   2 
n+1 d −x
=− x exp dx
0 dx 2
  2 a Z a  2
n+1 −x n −x
=− x exp + (n + 1) x exp dx.
2 0 0 2
 2
n+1 −a
= −a exp + (n + 1)In (a).
2
Quand a tend vers +∞, on obtient

n + 2 = (n + 1)In . (1)

2.2 La fonction densité de la loi normale centrée-réduite est définie sur R par :
 2
1 x
f (x) = √ exp − .
2π 2
Z +∞ Z +∞
Comme il s’agit d’une densité, alors f (x)dx = 2 f (x)dx = 1, par consé-
−∞ 0
quent
√ +∞
Z r
π
I0 = 2π f (x)dx = .
0 2
+∞  2
   2 +∞
−x −x
Z
2.3 Il est clair que I1 = x exp dx = − exp = 1. Par l’égalité (1),
0 2 2 0
on a :
• Si n = 2p, p ∈ N,
r
(2p)! π
I2p = (2p − 1)(2p − 3)...3 × 1 × I0 = p . (2)
2 p! 2
• Si n = 2p + 1, p ∈ N,

I2p+1 = (2p)(2p − 2)...4 × 2 × I1 = 2p p!.

CNC 2019 1 / 10 M.TARQI


C ONCOURS N ATIONAL C OMMUN - S ESSION 2019 - F ILIÈRE MP

Z +∞ Z +∞
3. 3.1 g est une fonction continue positive sur R et g(x)dx = g1 (x)dx = 1. Donc
−∞ 0
g est une densité de probabilité.
3.2 Soit n ∈ N. La fonction x 7→ xn g(x) est nulle sur ] − ∞, 0[ et coïncide avec gn sur
Z +∞
[0, +∞[, donc E(X) = xg(x)dx et V (X) = E(X 2 ) − E(X)2 existent. Avec
−∞
Z +∞
E(X) = g1 (x)dx = I1 = 1
0

et en utilisant (2) r
π
V (X) = I2 − I12 = − 1.
2
3.3 Si x ≤ 0, G(x) = p(Y ≤ x) = 0 car Y prend que des valeurs positives.
Si x > 0, alors


Z x √
G(x) = p(Y ≤ x) = p(X 2 ≤ x) = p(0 ≤ X ≤ x) = g(t)dt = F ( x).
0

La fonction G est dérivable sur R∗ et



 0  si x ≤ 0
0 √

G (x) = 1 1 −x
 √ F 0 ( x) = exp si x > 0.
2 x 2 2
1
Ainsi la variable aléatoire Y suit une loi exponentielle de paramètre , par consé-
2
1 1
quent E(Y ) = 1 = 2 et V (Y ) = 2 = 4.
1
2 2

PROBLÈME
Étude d’une équation aux dérivées partielles
Première partie : Quelques résultats préliminaires utiles

1.1 Noyau de DIRICHLET


n
X −n
X
1.1.1 ∀θ ∈ R, −θ ∈ R et Dn (−θ) = eik(−θ) = eilθ = Dn (θ). Donc Dn est 2π-
k=−n l=n
périodique.
1.1.2 Par linéarité de l’intégrale, on a :
Z π n Z
X π Z π
ikθ
Dn (θ)dθ = e dθ = dθ = 2π. (3)
−π k=−n −π −π

CNC 2019 2 / 10 M.TARQI

Vous aimerez peut-être aussi