Probabilités Discrètes pour ECS1
Probabilités Discrètes pour ECS1
22
Probabilités discrètes.
Lycée La Bruyère
30 avenue de Paris
78000 Versailles
Généralisation de la notion de probabilité condition- Si A vérifie P(A) , 0, alors (Ω, A, PA ) est un es-
nelle. pace probabilisé.
Définition d’une variable aléatoire. Une variable aléatoire réelle sur (Ω, A) est une ap-
plication de Ω dans R telle que, pour tout réel x,
{ω ∈ Ω | X(ω) 6 x} est dans la tribu A.
On adoptera les notations habituelles [X ∈ I],
[X = x], [X 6 x], etc.
On pourra, à l’aide d’exemples, illustrer com-
ment obtenir des événements du type [X = x] ou
[a 6 X < b] à partir d’événements du type [X 6
x].
Fonction de répartion d’une variable réelle. ∀x ∈ R, F X (x) = P(X 6 x).
Propriétés. F X est croissante et continue à droite en tout point,
lim F X = 0, lim F X = 1.
−∞ +∞
Loi d’une variable aléatoire. La fonction de répartition caractérise la loi d’une
variable aléatoire. Résultat admis.
Définition d’une variable aléatoire réelle discrète dé- L’ensemble des valeurs prises par ces variables
finie sur (Ω, A). aléatoires sera indexé par une partie finie ou in-
finie de N ou Z.
Caractérisation de la loi d’une variable aléatoire dis-
crète par la donnée des valeurs P(X = x) pour x ∈
X(Ω).
Tribu engendrée par une variable aléatoire discrète. La tribu AX des événements liés à X est la tribu
engendrée par le système complet ([X = x]) x∈X(Ω) .
Cette tribu est aussi appelée tribu engendrée par
la variable aléatoire X et constitue l’information
apportée par X.
Variable aléatoire Y = g(X), où g est définie sur l’en-
semble des valeurs prises par la variable aléatoire X.
Étude de la loi de Y = g(X).
Espérance d’une variable aléatoire. Quand X(Ω) est infini, XXadmet une espérance si
et seulement si la série xP(X = x) est abso-
x∈X(Ω)
lument convergente.
Théorème de transfert. Quand X(Ω) est infini, g(X) X admet une espé-
rance si et seulement si la série g(x)P(X = x)
x∈X(Ω)
Xabsolument convergente, et alors E(g(X)) =
est
g(x)P(X = x). Théorème admis.
x∈X(Ω)
E(aX + b) = aE(X) + b.
Moment d’ordre r (r ∈ N). Notation mr (X) = E(X r ).
Variance et écart-type d’une variable aléatoire dis- Notations V(X) et σ(X).
crète.
Calcul de la variance. Formule de Koenig-Huygens :
V(aX + b) = a2 V(X). V(X) = E(X 2 ) − (E(X))2 .
Cas particulier où V(X) = 0.
Variables centrées, centrées réduites. Notation X ∗ pour la variable aléatoire centrée ré-
duite associée à X.
Lois discrètes usuelles à valeurs dans un ensemble fini On généralisera les lois B(p), B(n, p) et U([[a, b]])
sur l’espace probabilisé (Ω, A, P). vues lors du premier semestre.
Loi géométrique (rang d’apparition d’un premier suc- Notation X ,→ G(p).
cès dans un processus de Bernoulli sans mémoire). Si X ,→ G(p), pour tout nombre entier naturel non
Espérance et variance. nul k,
P(X = k) = p(1 − p)k−1 .
Loi de Poisson : définition, espérance, variance. Notation X ,→ P(λ).
4
Etant donnée une expérience aléatoire, on lui a associé un univers Ω et pour décrire
les résultats de l’expérience, on a introduit la notion d’évènement.
Si on appelle A l’ensemble des évènements de Ω, cet ensemble A modélise l’infor-
mation que l’on peut obtenir à partir des résultats de l’expérience. Pour que la modélisation
soit cohérente avec l’intuition, l’ensemble A doit contenir Ω et être stable par les opéra-
tions ensemblistes (réunion, intersection et passage au complémentaire) : si A, B ∈ A alors
A ∪ B, A ∩ B, A doivent aussi appartenir à A.
Un tel ensemble stable par les opérations de réunion finie et de passage au complé-
mentaire est appelé une algèbre de Ω. On peut avoir A = P(Ω) ensemble de toutes les
parties de Ω mais on verra que ce n’est pas toujours le cas, certaines parties de Ω n’étant
pas nécessaires à la description de l’expérience.
Dans certains cas, la notion d’algèbre devient insuffisante pour décrire l’expérience et
la bonne notion est alors celle de tribu.
Exemple 2. Une puce, initialement placée en O, se déplace sur un axe gradué. Si, à un
instant, elle se trouve au point d’abscisse i, à l’instant d’après, elle se trouve soit au point
d’abscisse i − 1, soit au point d’abscisse i + 1.
On s’intéresse au retour de la puce en O, c’est à dire à l’événement A « la puce revient à sa
position initiale. »
Posons, pour tout entier n ≥ 3, l’événement An : « la puce se trouve en O à l’instant n. » On
∞
[
a alors A = An , la réunion n’étant pas disjointe.
n=3
Tribu engendrée par une famille d’événements . Soit Ω un univers et X un sous en-
semble de P(Ω).
Il existe une unique tribu A vérifiant
(i) X ⊂ A et
(ii) toute tribu A0 sur Ω contenant X contient aussi A : i.e. si A0 est une algèbre et si
X ⊂ A0 alors X ⊂ A0
A s’appelle la tribu engendrée par X : c’est la plus petite tribu (au sens de l’inclusion)
contenant X.
Exemple 5. Un entier naturel non nul n est choisi au hasard puis on lance n pièces à P ou
F.
Pour k ∈ N∗ , on appelle Ek l’événement "on choisit l’entier k". La famille (Ek )k∈N∗ forme
un système complet d’événements.
Exemple 6. On lance indéfiniment une pièce à P ou F.
On note E0 l’événement « P n’apparaît jamais » et pour tout k ∈ N∗ , on note Ek l’événement
« P apparaît la première fois au ke lancer. »
La famille (Ek )k∈N forme un système complet d’événements.
Définition 5. Tout espace probabilisable (Ω, A) sur lequel est définie une probabilité P
est appelé espace probabilisé et noté (Ω, A, P).
(2) Si A et B sont deux évènements incompatibles alors P(A ∪ B) = P(A) + P(B). Il suffit
de compléter la famille (A, B) avec une suite d’èvènements impossibles ∅ et d’utiliser
la σ-additivité de P.
(3) Si A est finie ce qui est vrai si Ω est fini, la σ-additivité de P est équivalente à l’additi-
vité de P (pour tous événements E, F incompatibles, P(E ∪ F) = P(E) + P(F)).
Remarque 4. Il n’est pas nécessaire de définir P sur la tribu A tout entière mais la définition
de P sur une famille d’évènements engendrant A est suffisante.
Exemple 7. On considère une cible circulaire de centre O de diamètre 2 partagée en sec-
teurs concentriques : le secteur 1 est la couronne circulaire délimitée par les cercles centrés
en O de rayon 12 et 1, le secteur 2 est la couronne circulaire délimitée par les cercles centrés
en O de rayon 14 et 12 , etc... le secteur n est la couronne circulaire délimitée par les cercles
1
centrés en O de rayon 2n+1 et 21n .
On lance une flèche sur la cible et on s’intéresse au numéro du secteur touché en supposant
une précision illimitée.
L’univers est Ω = N∗ , la tribu sur Ω est celle engendrée par les évènements élémentaires {k}
pour k ∈ N∗ . Il suffit donc de définir une probabilité sur la famille dévènements élémentaires
({k})k∈N∗ .
1 X1
En posant pour n ≥ 1, P({n}) = , on ne définit pas une probabilité car la série
n n≥1
n
diverge.
1
En revanche, en posant pour n ≥ 1, P({n}) = n , on définit une probabilité puisque la série
+∞
2
X 1 X 1
n
converge et n
= 1 = P(Ω).
n≥1
2 n=1
2
Quelle est la probabilité d’atteindre un secteur pair ?
1
Quelle est la probabilité que la flêche soit à une distance d’au plus n du centre de la
2
cible ?
8
(2) Si (En )n∈N est une suite décroissante d’événements (pour l’inclusion) alors
\
P Em = lim P(En )
n→+∞
m∈N
Exemple 9. Le jeu de Pile ou Face. On lance une pièce parfaitement équilibrée à plusieurs
reprises et on cherche la probabilité que la pièce montre Face à tous les lancers.
Cet événement correspond à l’événement élémentaire {(F, F, . . . , F)} et est donc réalisé
1
avec probabilité N .
2
2.) On suppose que le nombre de lancers est infini et qu’ils sont indépendants.
Un résultat est une suite formée d’éléments de {P, F}.
∗
L’univers Ω est donc {P, F}N : il n’est pas dénombrable.
On admettra qu’on peut le munir d’une tribu A et que « le n-ème lancer donne Face »
est un évènement An de T . Comme le n-ème lancer donne P ou F et que la pièce est symé-
trique, on admet aussi qu’il existe une probabilité P définie sur T de telle sorte que :
1
∀n ∈ N∗ , P(An ) = .
2
L’événement
\ « la pièce montre Face à tous les lancers » correspond à l’évènement
E= An .
n∈N∗
D’après le théorème de la limite monotone,
n
\
P(E) = lim P Ak .
n→+∞
k=1
Comme les lancers sont indépendants, on a :
n !n
\ 1 1 1 1
P( Ak ) = × × . . . × =
k=1
2 2 2 2
1
de sorte que P(E) = lim = 0.
n→+∞ 2n
Cela ne veut pas dire que E est l’événement impossible, puisque E , ∅ mais on dit
qu’il est quasi-impossible d’obtenir Face à tous les lancers.
La définition d’une probabilité conditionelle dans le cas des univers infinis est iden-
tique à celle donnée dans le cas des univers finis.
Formule des probabilités composées
La formule des probabilités composées s’étend au cas des univers infinis : la formule
est identique à celle donnée dans le cas des univers finis.
Formule des probabilités totales
La formule des probabilités totales se généralise au cas d’un système complet d’évé-
nements dénombrables.
10
Formule des probabilités totales . Soit (Ai )i∈N∗ un système complet d’évènements tel
que : pour tout i ∈ N∗ , P(Ai ) > 0.
+∞
X
Alors pour tout évènement E, P(E) = PAi (E)P(Ai )
i=1
Formule de Bayes . Soit (Ei )i∈I un système complet d’événements tel que pour tout
i ∈ I, P(Ei ) > 0. On a
PE (A)P(Ei )
PA (Ei ) = X i
PA (Ei )P(A)
i∈I
22.4.2 Indépendance
Définition 7. Soit (Ek )k∈N∗ une famille d’événements. Les événements de la famille
(Ek )k∈N∗ sont dit mutuellement indépendants si pour toute partie finie J de N∗ :
\ Y
P( E j ) = P(E j )
j∈J j∈J
......................................................
Remarque 5. Si Ω est muni de la tribu discrète alors toute application X : Ω → R est une
variable aléatoire réelle.
Définition 9. Une variable aléatoire réelle discrète est une variable aléatoire réelle
dont l’image X(Ω) est . . . . . . . . . . . . . . . . . . . . . . . . . . .
.................................................................................................
............................
C’est la plus petite tribu sur Ω pour laquelle X est une variable aléatoire sur Ω : elle
constitue l’information apportée par X. On la note AX .
La définition de la loi d’une variable aléatoire vue dans le cas des variables aléatoires
finies s’étend au cas des variables aléatoires discrètes infinies.
Exemple 10. On lance une infinité de fois une pièce qui donne Pile avec probabilté p ∈]0, 1[
et on note X la variable aléatoire égale au nombre de lancers nécessaires pour obtenir le
premier Pile. Alors
Exemple 11. Une urne contient des boules blanches en proportion p et des boules noires.
On fait des tirages successifs avec remise d’une boule de l’urne. On note Y la v.a.r égale au
nombre de tirages nécessaires pour obtenir la première boule blanche. Alors
................................................................................................
12
Récproquement,
X si (a j ) j∈J est une famille finie ou dénombrable de nombres positifs telle
que a j = 1 alors . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
j∈J
+∞
4 X
Exemple 12. Pour tout n ∈ N∗ on pose an = . Vérifier que ak = 1
n(n + 1)(n + 2) k=0
Fonction de répartition.
La définition de la fonction de répartition d’une variable aléatoire X est indépendante
de son type. Qu’elle soit discrète ou non, elle est définie par
F X (x) = P(X ≤ x), pour tout réel x.
Proposition 13. Soit X une variable aléatoire discrète et g : X(Ω) → R une application.
La loi de Y = g(X) est donnée par
X
P([Y = y]) = P([X = x]).
x∈X(Ω)
g(x)=y
Exercice 3. On considère une variable aléatoire X prenant ses valeurs dans N∗ telle que
λ
P(X = k) = pour tout k ∈ N∗ .
k(k + 1)(k + 2)
(1) Déterminer λ.
(2) Montrer que Y = X 2 − 4X + 4 est une variable aléatoire discrète puis donner sa loi.
22.6.1 Espérance
La définition de l’espérance d’une variable aléatoire s’étend au cas des variables aléa-
toires discrètes infinies en remplaçant les sommes finies par des sommes infinies sous ré-
serve de convergence absolue.
Définition 11. Soit X une variable aléatoire discrète sur un espace probabilisé (Ω, A, P).
X
On dit que X admet une espérance si la série xP(X = x) converge absolument et
x∈X(Ω)
dans ce cas, on appelle espérance de X la somme encore notée E(X) de cette série
X
E(X) = xP(X = x)
x∈X(Ω)
Exemple 13. Soit X une variable aléatoire telle que X(Ω) = N∗ de loi donnée par P(X =
1 X 1
n) = . Alors X n’admet pas d’espérance puisque la série diverge.
n(n + 1) n≥1
n+1
Exercice 5. Soit λ ∈ R, p ∈]0, 1[ et X une variable aléatoire prenant ses valeurs dans N∗
telle que ∀n ∈ N∗ , P(X = n) = nλpn . Déterminer λ et calculer E(X).
14
(2) Pour tout λ ∈ R, λX + Y est une variable aléatoire admettant une espérance et
............................
(3) Si X ≤ Y alors . . . . . . . . . . . . . . . . . . . . . . . . . . .
Inégalité de Markov.
L’inégalité ci-dessous, appelée inégalité de Markov 1 donne un majorant de la proba-
bilité qu’une variable aléatoire à valeurs positives soit supérieure ou égale à une constante
positive.
Inégalité de Markov . Soit X une variable aléatoire positive sur un espace probabilisé
(Ω, A, P) admettant une espérance. Alors pour tout réel λ > 0 :
...........................
Le théorème de transfert vu dans le cadre des variables aléatoires finies s’étend au cas
des variables aléatoires infinies en remplaçant les sommes finies par des sommes infinies
sous réserve de convergence absolue.
Théorème de transfert . Soit X une variable aléatoire discrète sur un espace probabi-
lisé (Ω, A, P).
Xvariable aléatoire Y = g(X) admet une espérance si et seulement si la série
La
g(x)P(X = x) converge absolument et dans ce cas
x∈X(Ω)
X
E(g(X)) = g(x)P(X = x)
x∈X(Ω)
Exemple 14. Soit X une variable aléatoire de Poisson de paramètre 3. Etudier l’espérance
1
si elle existe de Y = .
1+X
22.6.3 Variance
Définition 13. Soit X une variable aléatoire discrète admettant un moment d’ordre 2.
La variable Y = X − E(X) admet aussi un moment d’ordre 2 appelé variance de X et
noté V(X) :
V(X) = . . . . . . . . . . . . . . . . . . . . . . . . . . .
Remarque 9. Pour des lois faisant intervenir des factorielles ou des coefficients binômiaux,
il est parfois très pratique de calculer la variance en employant la formule
V(X) = E(X(X − 1) + E(X) − E(X)2
16
Définition 14. Soit X une variable aléatoire admettant un moment d’ordre 2. On appelle
écart-type de la variable X la racine carrée de la variance. Ce nombre est noté σ(X) :
σ(X) = . . . . . . . . . . . . . . . . . . . . . . . . . . .
Proposition 15. Soit X une variable aléatoire admettant une variance non nulle. La
variable aléatoire Y = . . . . . . . . . . . . . . . . . . . . . . . . . . . est la variable aléatoire centrée
réduite dite associée à X.
2. Bienaymé Irénée Jules, 1796-1878. Polytechnicien, occupe en 1836 le poste d’inspecteur général des
Finances, qu’il perd pour des raisons politiques (révolution de 1848). Bienaymé se spécialise en statistique en
appliquant la théorie des probabilités aux calculs financiers et aux problèmes démographiques. Il obtient une
chaire de probabilités à la Sorbonne qui sera donnée à Lamé en 1850 et la même année, il réintègre sa charge
d’inspecteur général des Finances. Disciple de Pierre Simon de Laplace, il défend dans différents mémoires les
idées de celui en s’opposant aux points de vues de Poisson et de Cauchy. En statistique et probabilités, on lui doit
en particulier des compléments sur la méthode des moindres carrés et prouve quelques années avant Chebychev,
l’inégalité de Bienaymé-Chebyshev utilisée pour la preuve (incomplète) du théorème de la limite centrée, énoncé
auparavant par de Moivre puis Laplace et finalisée par Markov. Bienaymé entra à l’Académie des sciences en 1852
et fut un des membres fondateurs de la société mathématique de France (1872).
3. Chebyshev Pafnouty Lvovitch, 1821-1894. né le 16 mai 1821 à Okatovo, dans l’ouest de la Russie, est
un mathématicien russe. Issu d’une famille de militaires, riche et cultivée, il est d’abord éduqué chez ses parents.
Il reçoit alors de très bons enseignements en mathématiques, mais aussi en français. Son enfance est marquée
par un handicap (il a une jambe plus longue que l’autre) qui l’empêche de pratiquer certaines activités, et aussi
d’envisager une carrière militaire. En 1837, il entre à l’université de Moscou, où il apprend les mathématiques sous
la direction de Brashman. Alors qu’il commence à obtenir ses premiers résultats, sa situation financière change
dramatiquement en 1841 quand une famine frappe durement la Russie. Ses parents doivent quitter Moscou et ne
peuvent plus subvenir à ses besoins. Tchebychev persiste à continuer ses études. Il soutient sa thèse en 1846, où
il poursuit le programme de Bernoulli et de Poisson consistant à donner un cadre théorique aux théorèmes limites
des probabilités. En 1847, il devient professeur à Saint-Petersbourg. Tchebychev est célèbre pour ses travaux en
probabilités et en arithmétique. En 1850, il démontre le postulat de Bertrand, à savoir qu’il existe toujours un
nombre premier compris entre n et 2n, dès que n > 2. Il étudie également le nombre π(n) de premiers inférieurs à
n. Confortant une conjecture de Gauss, il obtient que si π(n)nln n admet une limite quand n tend vers l’infini, alors
cette limite est nécessairement 1. Il aime combiner les aspects théoriques et appliquées des mathématiques et est
très habile de ses mains : il a conçu plusieurs machines arithmétiques et mécaniques ( à voir sur http ://[Link]).
C’est dans un article consacré à la mécanique qu’il a introduit les polynômes dits de Tchebychev. A la suite de
cela, il est le premier à ébaucher une théorie des polynômes orthogonaux. L’orthographe de Tchebychev : on peut
écrire Chebyshev, Tchebicheff, Chebychov sans se tromper... ([Link])
22.7 Lois discrètes infinies 17
Exercice 6. On considère une variable aléatoire X suivant une loi de Poisson de para-
λ 9
mètre λ > 0. Démontrer que P(X ≥ λ + 1) ≤ λ et P X ≤ ≤ .
3 4λ
On lance une infinité de fois une pièce donnant Pile avec probabilité p ∈]0, 1[ et Face
avec probabilité 1 − p.
Les lancers étant supposés indépendants.
On note T le rang d’apparition du premier Pile.
On posera T = 0 si Pile n’apparaît jamais.
(1) Déterminer T (Ω).
(2) Etablir la loi de T .
(3) Calculer E(T ) et V(T ).
Définition 15. Soit p ∈]0, 1[. Une variable aléatoire X telle que X(Ω) = . . . . . . et pour
tout k ∈ X(Ω)
P(X = k) = . . .
est appelée variable aléatoire géométrique de paramètre p. On dit encore que X suit
une loi géométrique de paramètre p et on note X ,→ G(p).
Soit λ un réel strictement positif et (Xn )n≥1 une suite de variables aléatoires binômiales
telles que pour tout n ∈ N∗ , Xn ,→ B(n, λn ).
Soit n ∈ N∗ . On étend la loi de Xn de la façon suivante : pour tout j ∈ N,
( n λ j λ n− j
P(Xn = j) = j ( n ) (1 − n ) si j ∈ ~0, n,
0 si j ≥ n + 1.
(1) Montrer que pour tout j ∈ N, la suite (P([Xn = j]))n≥1 admet une limite π( j) à détermi-
ner.
18
Définition 16. Soit λ un réel strictement positif. Une variable aléatoire X telle que
X(Ω) = . . . . . . et pour tout k ∈ X(Ω),
P(X = k) = . . .
est appelée variable aléatoire de Poisson de paramètre λ. On dit encore que X suit
une loi de Poisson de paramètre λ et on note X ,→ P(λ).
Conséquence : le résultat prouvé en (1) est très utile pour les calculs numériques. En effet,
lorsqu’une loi binômiale a un paramètre n grand et un paramètre p petit, ce résultat permet
de remplacer la loi binômiale par la loi de Poisson de paramètre λ = np. On constatera
en informatique que cette approximation est assez satisfaisante. On pourra faire les calculs
avec l’exemple suivant : pour effectuer un contrôle de qualité, on procède au tirage au
hasard de 20 objets dans une fabrication industrielle. Supposons savoir que 5% des objets
de cette fabrication sont défectueux. On suppose que le nombre total d’objets fabriqués est
très grand. On fait l’hypothèse que le nombre X d’objets défectueux prélevés suit une loi
binômiale de paramètres n = 20 et p = 0, 05.
k P(X = k) π(k)
0 0, 358 0, 368
1 0, 377 0, 368
2 0, 189 0, 184
3 0, 060 0, 061
4 0, 013 0, 015
Table 22.1 Comparaison entre la loi binômiale et la loi de Poisson pour les premières valeurs de k avec
n = 20, p = 0.05 et λ = np = 1.
22.8 Exercices.
Généralités.
Exercice 7. Soit Ω = {1, 2, 3, 4, 5}. Déterminer la tribu engendrée par A = {{1, 2}, {2, 4}}.
22.8 Exercices. 19
Exercice 10. Un joueur joue au « craps » comme suit : il lance deux dés réguliers.
— Si la somme des faces obtenues est 2, 3, ou 12, il perd.
— Si la somme des faces est 7 ou 11, il gagne.
— Dans les autres cas, il continue à lancer les dés jusqu’à ce que la somme des
faces soit égale au premier résultat qu’il a obtenu ou qu’ elle soit égale à 7.
— Si c’est 7, il perd.
— Si c’est son résultat initial, il gagne.
On cherche la probabilité de gagner à ce jeu.
On note E l’événement : « le joueur gagne » et pour i ∈ ~2, 12, l’événement Ei
est :« la somme obtenue initialement est i et le joueur finit par gagner. »
Indépendance et conditionnement.
Exercice 12. Une puce se déplace par sauts successifs sur les sommets A, B, C et le
centre 0 de gravité d’un triangle équilatéral.
A t = 0, elle est en O puis elle saute en l’un des points A, B ou C de façon équipro-
bable.
Par la suite, elle saute du point où elle se trouve en l’un des autres points de façon
équiprobable.
(a) Calculer la probabilité qu’elle revienne en O pour la première fois au temps t = n.
(b) Calculer la probabilité que la puce revienne en O.
22.8 Exercices. 21
Exercice 14. On effectue une suite indéfinie de lancers d’une pièce équilibrée. Pour tout
n ∈ N∗ , on désigne par pn la probabilité qu’au cours des n premiers lancers le résultat
Pile n’ait pas été obtenu trois fois de suite.
(1) Calculer p1 , p2 et p3 .
(2) Montrer que pour tout entier n supérieur ou égal à 3, on a :
1 1 1
pn = pn−1 + pn−2 + pn−3
2 4 8
(3) Proposer une méthode pour calculer pn en fonction de n.
Exercice 19. Un commerçant estime que la demande d’un certain produit est une va-
riable aléatoire X telle que
pk
∀k ∈ N, P(X = k) =
(1 + p)k+1
où p est le prix de la campagne publicitaire pour ce produit.
22.8 Exercices. 23
(1) Vérifier que la loi de la variable aléatoire X est bien une loi de probabilité.
(2) Montrer que X admet une espérance et la calculer.
(3) Montrer que X admet une variance et la calculer.
(4) Le commerçant prévoit un stock de s articles de ce produit. Quelle est la probabilité
de rupture de stock ?
Exercice 21. On lance une pièce honnête jusqu’à obtenir face pour la deuxième fois.
Soit X le nombre de lancers nécessaires. Etudier la loi et l’espérance de X.
Quelle est la probabilité que le nombre de lancers nécessaires soit pair ?
Exercice 22. On dispose de N urnes dans lesquelles on lance des balles l’une après
l’autre. On s’arrête lorsque une balle tombe dans l’urne numérotée 1.
Quelle est la probabilité que n lancers soient nécessaires ?
Quelle est la probabilité que plus de n lancers soient nécessaires ?
Exercice 23. Le nombre X d’oeufs pondus par une maman tortue au cours d’une ponte
est une variable aléatoire suivant une loi de Poisson de paramètre λ > 0.
Un œuf a la probabilité p d’éclore.
On note Y la variable aléatoire égale au nombre de bébés tortues au cours d’une
ponte.
Exercice 24. Des objets en nombre illimité sont placés successivement dans des cases,
en nombre fini N, dont la capacité est illimitée. On suppose que ces cases sont vides
au départ et qu’ à chaque fois qu’un objet est placé, la probabilité qu’il le soit dans une
1
case donnée est .
N
On suppose N = 3 et on effectue les placements comme indiqué ci-dessus.
24
On note :
— Y le nombre d’objets placés lorsque pour la première fois deux cases exactement
sont occupées par au moins un objet,
— Z le nombre d’objets placés lorsque pour la première fois les trois cases
contiennent chacune au moins un objet
On admet que Y et Z sont deux variables aléatoires.