0% ont trouvé ce document utile (0 vote)
10 vues11 pages

Variables Aléatoires

Le document présente une série d'exercices et de corrections sur les variables aléatoires, en particulier sur les lois binomiales et les concepts d'indépendance. Il aborde des sujets tels que la détermination des lois de variables aléatoires, le calcul des espérances et des variances, ainsi que des inégalités statistiques. Les exercices sont accompagnés de corrections détaillées pour aider à la compréhension des concepts abordés.

Transféré par

Abdelmalek Mattoussi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
10 vues11 pages

Variables Aléatoires

Le document présente une série d'exercices et de corrections sur les variables aléatoires, en particulier sur les lois binomiales et les concepts d'indépendance. Il aborde des sujets tels que la détermination des lois de variables aléatoires, le calcul des espérances et des variances, ainsi que des inégalités statistiques. Les exercices sont accompagnés de corrections détaillées pour aider à la compréhension des concepts abordés.

Transféré par

Abdelmalek Mattoussi
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

[[Link]

fr] édité le 9 mai 2017 Enoncés 1

Variables aléatoires Exercice 4 [ 04118 ] [Correction]


Un archer tire sur n cibles. À chaque tir, il a la probabilité p de toucher la cible et
les tirs sont supposés indépendants. Il tire une première fois sur chaque cible et on
Loi binomiale note X le nombre de cibles atteintes lors de ce premier jet. L'archer tire ensuite
une seconde fois sur les cibles restantes et l'on note Y le nombre de cibles touchés
Exercice 1 [ 03846 ] [Correction] lors de cette tentative. Déterminer la loi de la variable Z = X + Y .
Soit X une variable aléatoire binomiale de paramètres n et p avec p ∈ ]0 ; 1[. On
note
b(k, n, p) = P(X = k) Exercice 5 [ 04191 ] [Correction]
(a) Pour quelle valeur m de k, le coecient b(k, n, p) est-il maximal ?
(a) Soit X et Y deux variables aléatoires indépendantes suivant des lois de
(b) Étudier la monotonie de la fonction f : x 7→ xm (1 − x)n−m sur [0 ; 1]. Bernoulli de paramètres p et q . Déterminer la loi de la variable
(c) Vérier que si m ∈ [np ; (n + 1)p] alors Z = max(X, Y ).
Deux archers tirent indépendemment sur n cibles. À chaque tir, le premier archer
 
m  m
b m, n, ≤ b(m, n, p) ≤ b m, n, a la probabilité p de toucher, le second la probabilité q .
n+1 n
(b) Quelle est la loi suivie par le nombre de cibles touchées au moins une fois ?
(d) Proposer en encadrement analogue pour m ∈ [(n + 1)p − 1 ; np].
(c) Quelle est la loi suivie par le nombre de cibles épargnées ?
(e) On donne la formule de Stirling

n! ∼ 2πnnn e−n
Indépendance de variables aléatoires
Donner un équivalent simple de b(m, n, p).
Exercice 6 [ 03974 ] [Correction]
Soient X et Y deux variables aléatoires nies sur un espace Ω. On suppose
Exercice 2 [ 03975 ] [Correction]
Une variable aléatoire X suit une loi binomiale de taille n et de paramètre p. ∀(x, y) ∈ X(Ω) × Y (Ω), P(X = x, Y = y) = P(X = x)P(Y = y)
Quelle est la loi suivie par la variable Y = n − X ?
Montrer que les variables X et Y sont indépendantes.

Exercice 3 [ 04125 ] [Correction]


Un étudiant résout un QCM constitué de n questions orant chacune quatre
réponses possibles. Pour chaque question, et indépendamment les unes des autres, Exercice 7 [ 03973 ] [Correction]
il a la probabilité p de savoir résoudre celle-ci. Dans ce cas il produit la bonne Montrer que deux évènements sont indépendants si, et seulement si, leurs
réponse. Si en revanche, il ne sait pas résoudre la question, il choisit fonctions indicatrices dénissent des variables aléatoires indépendantes.
arbitrairement l'une des quatre réponses possibles. On note X la variable aléatoire
déterminant le nombre de questions qu'il savait résoudre et Y le nombre de
questions qu'il a correctement résolues parmi celles où il a répondu  au hasard . Exercice 8 [ 03818 ] [Correction]
(a) Reconnaître la loi de Z = X + Y . Soient X et Y deux variables aléatoires réelles indépendantes.
(b) Calculer espérance et variance de Z . Les variables aléatoires X + Y et X − Y sont-elles indépendantes ?

Diusion autorisée à titre entièrement gratuit uniquement - dD


[[Link] édité le 9 mai 2017 Enoncés 2

Exercice 9 [ 03825 ] [Correction] (b) Calculer la fonction caractéristique d'une variable X suivant une loi de
Soient X et Y deux variables aléatoires prenant pour valeurs a1 , . . . , an avec Bernoulli de paramètre p.
Même question avec une loi binomiale de paramètres n et p.
P(X = ai ) = P(Y = ai ) = pi
(c) Soient X une variable aléatoire réelle et x0 un entier. Vérier
On suppose que les variables X et Y sont indépendantes. Z 2π
1
Montrer que P(X = x0 ) = ϕX (u)e−iux0 du
n
X 2π 0
P(X 6= Y ) = pi (1 − pi )
i=1 En déduire
ϕX = ϕY =⇒ X = Y

(d) Soient X et Y deux variables aléatoires indépendantes. Vérier


Exercice 10 [ 03981 ] [Correction]
Soient X une variable aléatoire dénie sur un espace probabilisé ni (Ω, P) et f ϕX+Y = ϕX ϕY
une application dénie sur X(Ω).
À quelle condition les variables aléatoires X et f (X) sont-elles indépendantes ? (e) Exploiter ce résultat pour retrouver la fonction caractéristique d'une variable
aléatoire suivant une loi binomiale.
Espérance

Exercice 11 [ 03833 ] [Correction] Exercice 14 [ 03980 ] [Correction]


Soit X une variable aléatoire réelle sur un espace probabilisé ni. Établir Soit p ∈ ]0 ; 1[ et (Xk )k∈N∗ une suite de variables aléatoires mutuellement
indépendantes vériant
2
E (X) ≤ E X 2

P(Xk = 1) = p et P(Xk = −1) = 1 − p

(a) Calculer l'espérance de Xk .


Exercice 12 [ 03835 ] [Correction]
Soit X une variable aléatoire prenant ses valeurs dans {0, 1, . . . , N }. (b) On pose
n
Établir
Y
N −1 Yn = Xk
X
k=1
E(X) = P(X > n)
n=0 En calculant de deux façons l'espérance de Yn , déterminer pn = P(Yn = 1).
(c) Quelle est la limite de pn quand n → +∞.
Exercice 13 [ 03847 ] [Correction]
Dans cet exercice, les variables aléatoires sont toutes supposées prendre leurs
valeurs dans Z. Exercice 15 [ 03987 ] [Correction]
On appelle fonction caractéristique d'une variable aléatoire X l'application Soient X et Y deux variables aléatoires indépendantes à valeurs dans J1 ; nK.
ϕX : R → C dénie par (a) Exprimer E(X) en fonction de P(X ≥ k).
ϕX (u) = E eiuX

(b) On suppose les variables X et Y uniformes.
(a) Vérier que ϕX est 2π -périodique et de classe C ∞ . Déterminer l'espérance de min(X, Y ) puis de max(X, Y ).
Calculer ϕX (0). Comment interpréter ϕ0X (0) et ϕ00X (0) ? Déterminer aussi l'espérance de |X − Y |.

Diusion autorisée à titre entièrement gratuit uniquement - dD


[[Link] édité le 9 mai 2017 Enoncés 3

Calcul d'espérances et de variances Inégalités de Markov et de Bienaymé-Tchebychev

Exercice 16 [ 03838 ] [Correction] Exercice 20 [ 03832 ] [Correction]


Soit X une variable aléatoire binomiale de taille n et de paramètre p ∈ ]0 ; 1[. Soient X une variable aléatoire réelle et g : R+ → R+ une fonction strictement
Calculer l'espérance de la variable croissante.
Montrer que
1 E (g(|X|))
Y = ∀a ≥ 0, P (|X| ≥ a) ≤
X +1 g(a)

Exercice 17 [ 04160 ] [Correction]


Un fumeur a un paquet de N cigarettes dans chacune de ses deux poches. Chaque Exercice 21 [ 03816 ] [Correction]
fois qu'il veut fumer, il choisit une poche au hasard pour prendre une cigarette. Il Une variable aléatoire X suit une loi du binôme de paramètre p et de taille n.
répète cela jusqu'à ce qu'il tombe sur un paquet vide. Soit XN la variable aléatoire Établir pour ε > 0,  p
qui donne le nombre de cigarettes restant dans l'autre paquet à ce moment-là.

X p(1 − p)
P −p ≥ε ≤ √
n ε n
(a) Écrire une fonction Python qui simule l'expérience et retourne XN . Faire la
moyenne pour 1 000 tests.
(b) Proposer un espace probabilisé (Ω, T , P) qui modélise l'expérience. Exercice 22 [ 03834 ] [Correction]
(c) Exprimer la loi de XN . Soit X une variable aléatoire suivant une loi binomiale de taille n et de paramètre
(d) Montrer que, pour k ∈ J1 ; N K p.
Montrer que pour tout λ, ε > 0
(2N − k − 1)P (XN = k + 1) = 2(N − k)P(XN = k)
P (X − np > nε) ≤ E (exp(λ(X − np − nε))
(e) Calculer l'espérance de XN puis donner un équivalent de E(XN ).

Exercice 23 [ 04042 ] [Correction]


Covariance
Soit X une variable aléatoire d'espérance µ et de variance σ 2 . Montrer
Exercice 18 [ 03993 ] [Correction] P (µ − ασ < X < µ + ασ) ≥ 1 −
1
Soit X et Y deux variables aléatoires réelles sur l'espace probabilisé (Ω, P). α2
Montrer
|Cov(X, Y )| ≤ V(X)V(Y )
p
Exercice 24 [ 04043 ] [Correction]
Soit X une variable aléatoire de moyenne µ et de variance σ 2 .
Exercice 19 [ 04111 ] [Correction] En introduisant la variable aléatoire
À un péage autoroutier n voitures franchissent au hasard et indépendamment 2
Y = [α(X − µ) + σ]
l'une des trois barrières de péage mises à leur disposition. On note X1 , X2 , X3 les
variables aléatoires dénombrant les voitures ayant franchi ces barrières. Montrer que pour tout α > 0
(a) Déterminer la loi de X1 .
1
(b) Calculer les variances de X1 , X2 et de X1 + X2 . P (X ≥ µ + ασ) ≤
1 + α2
(c) En déduire la covariance de X1 et X2 .

Diusion autorisée à titre entièrement gratuit uniquement - dD


[[Link] édité le 9 mai 2017 Corrections 4

Corrections On en déduit après calcul


r
 m n 1
Exercice 1 : [énoncé] b m, n, ∼ ∼p
n 2πm(n − m) 2πnp(1 − p)
Rappelons  
n k
b(k, n, p) = p (1 − p)n−k On obtient les mêmes équivalents pour
k
(a) Pour k ∈ J1 ; nK, on a
   
m m+1
b m, n, et b m, n,
n+1 n+1
b(k, n, p) n+1−k p
= et l'on peut donc conclure par encadrement
b(k − 1, n, p) k 1−p

donc b (m, n, p) ∼ p
1
b(k, n, p) 2πnp(1 − p)
≥ 1 ⇐⇒ k ≤ (n + 1)p
b(k − 1, n, p)
La suite nie (b(k, n, p))0≤k≤n est donc croissante jusqu'au plus grand entier
m inférieur à (n + 1)p puis devient décroissante ensuite. On peut donc armer Exercice 2 : [énoncé]
X(Ω) = Y (Ω) = J0 ; nK. Pour k ∈ J0 ; nK,
m = b(n + 1)pc
 
n k
(b) La fonction f est dérivable avec P(X = k) = p (1 − p)n−k
k
f 0 (x) = (m − nx)xm−1 (1 − x)n−m−1 donc  
n n−k
La fonction f est donc croissante sur [0 ; m/n] et décroissante sur [m/n ; 1]. P(Y = k) = P(X = n − k) = p (1 − p)k
k
(c) Si m ∈ [np ; (n + 1)p] alors m/(n + 1) ≤ p ≤ m/n et puisque f est croissante
sur [0 ; m/n] La variable aléatoire Y suit une loi binomiale de taille n et de paramètre q = 1 − p.
f (m/(n + 1)) ≤ f (p) ≤ f (m/n)
ce qui conduit à l'encadrement demandé.
Exercice 3 : [énoncé]
(d) Si m ∈ [(n + 1)p − 1 ; np] alors m/n ≤ p ≤ (m + 1)/(n + 1) et par Compte tenu de l'expérience modélisée, on peut armer que la variable X suit
décroissance de f sur [m/n ; 1], on obtient une loi binomiale de paramètres n et p.
 
m+1  m  
n k
b m, n, ≤ b(m, n, p) ≤ b m, n, P(X = k) = p (1 − p)n−k
n+1 n k
(e) Quand n → +∞, on a m = b(n + 1)pc ∼ np → +∞ et De plus, pour k ∈ J0 ; nK, si l'événement (X = k) est réalisé, il y a n − k questions
n − m ∼ n(1 − p) → +∞ ce qui permet d'écrire simultanément pour lesquelles l'étudiant répond au hasard avec une probabilité 1/4 de réussir :
√ √
n! ∼ 2πnnn e−n , m! ∼ 2πmmm e−m et 
n−k
  j  n−k−j
1 3
p P(Y = j | X = k) = avec j ∈ J0 ; n − kK
(n − m)! ∼ 2π(n − m)(n − m)n−m en−m j 4 4

Diusion autorisée à titre entièrement gratuit uniquement - dD


[[Link] édité le 9 mai 2017 Corrections 5

(a) La variable Z prend ses valeurs dans J0 ; nK. Exercice 4 : [énoncé]


Pour k ∈ J0 ; nK, l'événement (Z = k) peut être décomposé en la réunion La modélisation entraîne que la variable aléatoire X suit une loi binomiale de
disjointe des événements paramètres n et p :

(X = j, Y = k − j) avec j ∈ {0, 1, . . . , k}
 
n k
P(X = k) = p (1 − p)n−k avec k ∈ J0 ; nK
k
Ainsi
k La variable aléatoire Y n'est quant à elle bien connue que lorsque le nombre
n − X de cibles restant l'est, elle suit alors une loi de Bernoulli
X
P (Z = k) = P(X = j, Y = k − j)
j=0  
n−k `
Par probabilité composées P(Y = ` | X = k) = p (1 − p)n−k−` avec ` ≤ n − k
`
P(X = j, Y = k − j) = P(Y = k − j | X = j)P(X = j) Par probabilités totales
Ainsi m
X
P(Z = m) = P(X = k, Y = m − k)
k    k−j  n−k   k=0
X n−j 1 3 n j
P(Z = k) = p (1 − p)n−j
j=0
k−j 4 4 j Par probabilités composées
m
Or
X
      P(Z = m) = P(X = k)P(Y = m − k | X = k)
n−j n n! k n
= = k=0
k−j j (k − j)!(n − k)!j! j k
Ceci donne
On en déduit m  
X n n−k

P(Z = m) = pm (1 − p)2n−k−m
   n−k Xk   k−j k m−k
n n−k 3 k 1 k=0
P(Z = k) = (1 − p) (1 − p) pj
k 4 j=0
j 4 Or      
n n−k n! n m
= =
Par la formule du binôme k m−k k!(m − k)!(n − m)! m k
   n−k  k et donc m   k
n 3 1
 
P(Z = k) = (1 − p)n−k (1 − p) + p n m 2n−m
X m 1
k 4 4 P(Z = m) = p (1 − p) ×
m k 1−p
k=0

On simplie Par la formule du binôme


(2 − p)m
   
 
n k 1 3 n m n m
P(Z = k) = q (1 − q)n−k avec q = + p P(Z = m) = p (1 − p)2n−m = q (1 − q)n−m
k 4 4 m (1 − p)m m

avec q = p(2 − p).


(b) On a alors
La variable Z suit une loi binomiale.
(3p + 1)n 3n(3p + 1)(1 − p)
E(Z) = et V(Z) =
4 16
Exercice 5 : [énoncé]

Diusion autorisée à titre entièrement gratuit uniquement - dD


[[Link] édité le 9 mai 2017 Corrections 6

(a) Z(Ω) ⊂ {0, 1} et P(Z = 0) = P(X = 0, Y = 0). Par indépendance Exercice 7 : [énoncé]
Soient A, B deux évènements de l'espace probabilisé (Ω, P).
P(Z = 0) = P(X = 0)P(Y = 0) = (1 − p)(1 − q).
Supposons les fonctions indicatrices 1A et 1B indépendantes. On a
On en déduit que Z suit une loi de Bernoulli de paramètre
P(1A = 1, 1B = 1) = P(1A = 1)P(1B = 1)
r = 1 − (1 − p)(1 − q) = p + q − pq
ce qui se relit
(b) Numérotons les cibles de 1 à n et dénissons les variables aléatoires Xi et Yi
P(A ∩ B) = P(A)P(B)
déterminant si la cible i est touchée par l'un ou l'autre des deux archers. Ces
variables sont indépendantes, Xi suit une loi de Bernoulli de paramètre p et Inversement, supposons les évènements A et B indépendants. On sait qu'alors
Yi de paramètre q . La variable Zi = max(Xi , Yi ) détermine si une cible a été
touchée au moins une fois. Le nombre de cibles touchées au moins une fois est P(A ∩ B) = P(A)P(B), P(Ā ∩ B) = P(Ā)P(B),
donc n
N=
X
Zi P(A ∩ B̄) = P(A)P(B̄) et P(Ā ∩ B̄) = P(Ā)P(B̄)
i=1 Ceci se relit
Les variables Zi étant indépendantes, la variable N suit une loi binomiale de
paramètres n et r = p + q − pq . P(1A = 1, 1B = 1) = P(1A = 1)P(1B = 1),
(c) Le nombre M de cibles épargnées et M = n − N . La loi suivie est binomiale P(1A = 0, 1B = 1) = P(1A = 0)P(1B = 1),
de paramètre n et 1 − r = (1 − p)(1 − q). P(1A = 1, 1B = 0) = P(1A = 1)P(1B = 0) et
P(1A = 0, 1B = 0) = P(1A = 0)P(1B = 0)
Exercice 6 : [énoncé]
Soient A ⊂ {x1 , . . . , xn } et B ⊂ {y1 , . . . ym }. On a On en déduit que les variables aléatoires 1A et 1B sont indépendantes.
!  
[ [
(X = A) ∩ (Y = B) = X=x ∩ Y = y
x∈A y∈B Exercice 8 : [énoncé]
La réponse est négative en général.
En développant Supposons que X et Y suivent des lois de Bernoulli de paramètre 1/2.
[ On a
(X = A) ∩ (Y = B) = (X = x) ∩ (Y = y)
(x,y)∈A×B
P(X + Y = 2) = P(X = 1)P(Y = 1) = 1/4

Cette réunion étant disjointe et


X P(X − Y = 0) = P(X = 0)P(Y = 0) + P(X = 1)P(Y = 1) = 1/2
P(X = A, Y = B) = P(X = x)P(Y = y)
(x,y)∈A×B Or l'événement X + Y = 2 est inclus dans l'événement X − Y = 0 donc
et donc X X P(X + Y = 2 ∩ X − Y = 0) = P(X + Y = 2)
P(X = A, Y = B) = P(X = x) P(Y = y)
x∈A y∈B et l'on constate
Finalement
P(X = A, Y = B) = P(X = A)P(Y = B) P(X + Y = 2 ∩ X − Y = 0) 6= P(X + Y = 2)P(X − Y = 0)
Les variables aléatoires X et Y sont donc bien indépendantes.

Diusion autorisée à titre entièrement gratuit uniquement - dD


[[Link] édité le 9 mai 2017 Corrections 7

Exercice 9 : [énoncé] Exercice 12 : [énoncé]


L'événement {X = Y } se décompose en les événements incompatibles Notons pn = P(X = n). On a par dénition
{X = ai ∩ Y = ai }.
N N
Par hypothèse d'indépendance X X
E(X) = npn = npn
P ({X = ai ∩ Y = ai }) = P ({X = ai }) P ({Y = ai }) = p2i n=0 n=1

donc Or {X = n} = {X > n − 1} \ {X > n} donc


n
X
P ({X = Y }) = p2i pn = P(X > n − 1) − P(X > n)
i=1
puis par complémentation donc
N
X N
X
n
X E(X) = nP (X > n − 1) − nP (X > n)
P ({X 6= Y }) = 1 − p2i n=1 n=1
i=1 Par décalage d'indice dans la première somme
Enn, on conclut sachant N −1 N
n X X
E(X) = (n + 1)P(X > n) − nP (X > n)
X
1= pi
n=0 n=1
i=1
En supprimant le dernier terme assurément nul de la deuxième somme et en y
Exercice 10 : [énoncé] ajoutant un terme nul correspondant à l'indice 0
Supposons les variables aléatoires X et f (X) indépendantes. N −1 N −1
Soient ω ∈ Ω vériant P({ω}) > 0.
X X
E(X) = (n + 1)P(X > n) − nP (X > n)
Posons x = X(ω) et y = f (x). n=0 n=0
On a
P(f (X) = y ∩ X = x) Enn, en combinant ces sommes
P(f (X) = y | X = x) =
P(X = x) N
X −1

Or {X = x} ⊂ {f (X) = y}, donc E(X) = P(X > n)


n=0
P(f (X) = y | X = x) = 1
Cependant, les variables X et f (X) étant supposées indépendantes Exercice 13 : [énoncé]
P(f (X) = y | X = x) = P(f (X) = y) (a) Notons x1 , . . . , xn les valeurs (entières) prises par X . On a
Ainsi f (X) = y presque sûrement. n
X
La réciproque est immédiate et donc X et f (X) sont indépendantes si, et ϕX (u) = eiuxk P(X = xk )
seulement si, f (X) est presque sûrement constante. k=1

La fonction ϕX est alors combinaison linéaire de fonctions 2π -périodiques


(car xk ∈ Z) et de classe C ∞ .
Exercice 11 : [énoncé]
Par la formule de Huygens n
ixk P(X = xk ) = iE(X) et ϕ00X (0) = −E(X 2 )
X
ϕX (0) = E(1) = 1, ϕ0X (0) =
2 2 2

V(X) = E (X − E(X) = E(X ) − E(X) ≥ 0 k=1

Diusion autorisée à titre entièrement gratuit uniquement - dD


[[Link] édité le 9 mai 2017 Corrections 8

(b) Si X suit une loi de Bernoulli de paramètre p (b) Par l'indépendance des variables
n
ϕX (u) = (1 − p) + peiu Y
E(Yn ) = E(Xk ) = (2p − 1)n
Si X suit une loi binomiale de paramètres n et p k=1

n   Aussi Yn ∈ {1, −1} et


X n k
ϕX (u) = p (1 − p)n−k eiku = (1 − p + peiu )n
k E(Yn ) = 1 × pn + (−1) × (1 − pn ) = 2pn − 1
k=0

(c) Avec les notations qui précèdent On en déduit


1 + (2p − 1)n
pn =
Z 2π n
X Z 2π 2
ϕX (u)e−iux0 du = P(X = xk ) eiu(xk −x0 ) du
0 0
(c) Puisque |p| < 1, pn → 1/2.
k=0

Puisque xk − x0 est un entier


( Exercice 15 : [énoncé]

si xk =
6 x0
Z
0
e iu(xk −x0 )
du = (a) En écrivant
0 2π si xk = x0 P(X = k) = P(X ≥ k) − P(X ≥ k + 1)

et donc on obtient n n
Z 2π X X
ϕX (u)e−iux0 du = 2πP(X = x0 ) E(X) = kP(X = k) = P(X ≥ k)
0 k=1 k=1
Si ϕX = ϕY alors (b) Par la propriété au-dessus
∀x0 ∈ Z, P(X = x0 ) = P(Y = x0 )
n n
et donc X = Y . P(X ≥ k et Y ≥ k) =
X X
E (min(X, Y )) = P(X ≥ k)P(Y ≥ k)
(d) Notons que X + Y prend ses valeurs dans Z comme X et Y . k=1 k=1

  Puisque
ϕX+Y (u) = E eiu(X+Y ) = E eiuX eiuY = E eiuX E eiuY = ϕX (u)ϕY (u)
  
n+1−k
P(X ≥ k) = P(Y ≥ k) =
n
car les variables X et Y sont supposées indépendantes. on obtient
(e) Une loi binomiale de paramètres n et p peut se comprendre comme la somme n n
de n loi de Bernoulli indépendantes de paramètre p. E (min(X, Y )) =
1 X
(n + 1 − k)2 1
X
k2 =
(n + 1)(2n + 1)
Avec cet exercice, on perçoit la trace dans une situation particulière de n2
k=1
n2 6n
k=1
résultats beaucoup plus généraux. Il est assez fréquent d'étudier une variable
aléatoire par la fonction caractéristique associée. Aussi
min(X, Y ) + max(X, Y ) = X + Y
donc
Exercice 14 : [énoncé]
(n + 1)(2n + 1) (n + 1)(4n − 1)
(a) E(Xk ) = 1 × p + (−1) × (1 − p) = 2p − 1. E (max(X, Y )) = n + 1 −
6n
=
6n
Diusion autorisée à titre entièrement gratuit uniquement - dD
[[Link] édité le 9 mai 2017 Corrections 9

Encore P1 = P1 - 1
1 else:
min(X, Y ) = ((X + Y ) − |X − Y |)
2 P2 = P2 - 1
donc return P1 + P2
(n + 1)(2n + 1) n2 − 1
E (|X − Y |) = n + 1 − =
3n 3n N = 20
C = 0
for i in range(1000):
Exercice 16 : [énoncé]
C = C + simul(N)
Puisque  
n k print(C/1000)
P(X = k) = p (1 − p)n−k
k
(b) On peut prendre Ω = {1, 2}2N muni de la tribu discrète et de la probabilité
l'espérance de Y est donnée par uniforme pour modéliser la succession de 2N choix de l'un ou l'autre paquet.
n
X 1
 
n k (c) La variable XN prend ses valeurs dans J1 ; N K. Pour k ∈ J1 ; N K, on a XN = k
E(Y ) = p (1 − p)n−k lorsque N fois le paquet 1 a été choisi et N − k fois le paquet 2, le dernier
k+1 k
k=0 choix étant fait dans le paquet 1. On a aussi XN = k dans la situation
Or    
symétrique. On en déduit :
n+1 n+1 n  
= 2N − (k + 1) 1
k+1 k+1 k P(Xn = k) = 2 × × 2N −k
N −1 2
donc n 
1 X n+1 k
 (le coecient binomial correspond au positionnement des N − 1 valeurs 1
E(Y ) = p (1 − p)n−k dans les 2N − (k + 1) positions possibles (le dernier 1 étant en position
n+1 k+1
k=0 2N − k ).
puis par glissement d'indice (d) La formule se vérie en exprimant les coecients binomiaux sous forme
n+1 factorielle (le cas k = N ) étant traité à part).
1 X n + 1 
E(Y ) = pk (1 − p)(n+1)−k (e) On somme la formule qui précède et on simplie sachant
p(n + 1) k
k=1
N
X N
X
et enn par la formule du binôme avec un terme manquant P(XN = k) = 1, P(XN = k + 1) = 1 − P(XN = 1)
k=1 k=1
1 − (1 − p)n+1 N
E(Y ) =
et
X
p(n + 1) (k + 1)P(XN = k + 1) = E(XN ) − P(XN = 1)
k=1

On conclut
Exercice 17 : [énoncé]  
2N − 1 2N − 2
(a) from random import random E(XN ) = (2N − 1)P(XN = 1) =
22N −2 N − 1
def simul(N): Par la formule de Stirling
P1,P2 = N,N √
while P1 * P2 > 0: 2 N
E(XN ) ∼ √
if random() <= 0.5: N →+∞ π

Diusion autorisée à titre entièrement gratuit uniquement - dD


[[Link] édité le 9 mai 2017 Corrections 10

Exercice 18 : [énoncé] Exercice 21 : [énoncé]


Pour λ ∈ R, introduisons Z = λX + Y . On a V(Z) ≥ 0 avec Rappelons
E(X) = np et V(X) = np(1 − p)
V(Z) = λ2 V(X) + 2λ Cov(X, Y ) + V(Y )
Considérons la variable aléatoire
Si V(X) = 0, on a nécessairement Cov(X, Y ) = 0 pour que V(Z) soit positif pour
tout λ ∈ R. Y = X − np = X − E(X)
Si V(X) 6= 0, on a nécessairement ∆ = 4Cov(X, Y )2 − 4V (X)V(Y ) ≤ 0 pour que
V(Z) soit positif pour tout λ ∈ R. Par l'inégalité de Markov
Dans les deux cas, on obtient E(|Y |)
P (|Y | ≥ na) ≤
p nε
|Cov(X, Y )| ≤ V(X)V(Y )
donc  
X E(|Y |)
P −p ≥ε ≤
n nε
Exercice 19 : [énoncé]
Or E(|Y |) ≤ E(Y 2 ) avec E(Y 2 ) = V(X) = np(1 − p) donc
p
(a) Chacune des n voitures a la probabilité p = 1/3 de choisir le premier péage.
Dès lors, la variable aléatoire X1 peut se comprendre comme étant le nombre 
X
 p
p(1 − p)
de succès dans une série de n épreuves indépendantes ayant chacune la P −p ≥ε ≤ √
n ε n
probabilité p de réussir. La variable X1 suit une loi binomiale de paramètres
n et p = 1/3.
(b) V(X1 ) = np(1 − p) = 2n/9 et V(X2 ) = 2n/9 car X1 , X2 , X3 suivent les
mêmes lois. Exercice 22 : [énoncé]
Puisque X1 + X2 = n − X3 , V(X1 + X2 ) = V(n − X3 ) = V(X3 ) = 2n/9. Par stricte croissance de l'exponentiel, l'événement X − np > nε équivaut à
l'événement
(c) Sachant exp (λ(X − np − nε)) ≥ 1
V(X1 + X2 ) = V(X1 ) + 2Cov(X1 , X2 ) + V(X2 )
L'inégalité de Markov appliquée à la variable Y = exp (λ(X − np − nε)) permet
on obtient alors de conclure
Cov(X1 , X2 ) = −n/9
E (exp (λ(X − np − nε)))
P (exp (λ(X − np − nε)) ≥ 1) ≤
1
Exercice 20 : [énoncé]
Puisque la fonction g est strictement croissante, les événement |X| ≥ a et
g(|X|) ≥ g(a) sont identiques. Or l'inégalité de Markov donne Exercice 23 : [énoncé]
Par l'inégalité de Bienaymé-Tchebychev
E (g(|X)|) ≥ g(a)P (g(|X|) ≥ g(a))
σ2 1
P (|X − µ| ≥ ασ) < = 2
et donc (ασ 2 ) α
E (g(|X|))
P (|X| ≥ a) ≤
g(a) On conclut par considération d'évènement complémentaire.

Diusion autorisée à titre entièrement gratuit uniquement - dD


[[Link] édité le 9 mai 2017 Corrections 11

Exercice 24 : [énoncé]
On a
E(Y ) = α2 E (X − µ)2 + 2αE(X − µ) + σ 2 = (α2 + 1)σ 2


L'inégalité de Markov appliquée à la variable positive Y donne


E(Y )
P(Y ≥ a) ≤
a
Pour a = σ 2 (α2 + 1)2 ,
1
P(Y ≥ a) ≤
1 + α2
Or
(X ≥ µ + ασ) = α(X − µ) + σ ≥ (α2 + 1)σ


et donc
(X ≥ µ + ασ) ⊂ (Y ≥ a)
puis
1
P (X ≥ µ + ασ) ≤
1 + α2

Diusion autorisée à titre entièrement gratuit uniquement - dD

Vous aimerez peut-être aussi