0% ont trouvé ce document utile (0 vote)
92 vues7 pages

AAA03057

Transféré par

dimi two
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
92 vues7 pages

AAA03057

Transféré par

dimi two
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

APMEP

no 447 Pour chercher et approfondir 517

Quelques calculs de probabilités


dans la vie courante
Robert Ferréol
Souvent, les problèmes de mathématiques posés de façon concrète sont des
problèmes abstraits ayant reçu un habillage ; ceux que je vais proposer et résoudre
dans cet article sont au contraire de vrais problèmes que je me suis posé dans la vie
courante. Puissent-ils vous servir à répondre à la sempiternelle question : à quoi
servent les maths ?
J’utiliserai souvent deux propriétés très utiles reliant les probabilités et les
espérances :
Propriété 1, élémentaire, mais plus utile qu’on ne pense : la probabilité d’un
événement est aussi l’espérance de la variable aléatoire valant 1 si l’événement est
réalisé et 0 sinon.
Propriété 2, très importante pour la compréhension des probabilités et rarement
mentionnée : lors d’une succession d’épreuves aléatoires répétées indépendantes, si
un événement a une probabilité p, cet événement arrive en moyenne tous les 1/p
coups.
Cette propriété est très naturelle : elle signifie par exemple que si un événement a une
chance sur 3 d’arriver, il arrivera en moyenne une fois sur 3…
Autre exemple : la probabilité que j’aie 4 as lors d’une distribution de 52 cartes entre
C 948
4 joueurs est égale à ≈ 0, 0027 ; ce nombre n’est pas très parlant. Mais si l’on
C13
52

C13
dit que cela signifie que j‘aurai en moyenne 4 as tous les 52
≈ 379 coups, je trouve
C 948
que ça l’est plus !
Voici la démonstration de cette propriété :
Un événement de probabilité p va arriver au bout de k coups avec la probabilité
(1 − p)k−1 p ; le temps d’attente moyen (en nombre de coups) de cet événement est
∞ ∞
d  ∞  1
donc TA = ∑ k (1 − p)k −1 p ; or on sait que ∑ kx k −1 = d x  ∑ x k  = ; donc
k =1 k =1  k =1  (1 − x )2
p 1
TA = = .
(1 − 1 + p) 2 p
Voici donc les petits problèmes que je vous propose.
1) La consultation d’un dictionnaire en 15 volumes.

Je reconnais que ce problème, à l’heure des encyclopédies sur CD-ROM est un peu
APMEP
518 Pour chercher et approfondir no 447

désuet. Lorsque vous avez, disons, n = 10 mots quelconques à consulter dans un


dictionnaire en p = 15 volumes, vous avez espoir de ne pas avoir à ouvrir 10 volumes
différents ! Mais combien de volumes aurez-vous à ouvrir en moyenne ?
Solution :
L’espérance du nombre d’ouvertures de volumes est la somme des espérances du
nombre d’ouverture de chacun des volumes, pour la consultation des n mots. Or la
contribution d’un volume donné au nombre de volumes à consulter a une espérance
E0 qui se confond d’après la propriété 1 avec la probabilité d’utiliser ce volume,
puisque cette contribution est 1 quand on l’utilise, 0 sinon.
Comme pour chaque dictionnaire, j’ai une chance sur p qu’un mot donné se trouve
dedans (on considère que tous les dictionnaires ont le même nombre de mots) , la
probabilité d’utiliser un volume donné quand je cherche n mots est
n
 1
E 0 = 1 − 1 −  .
 p
L’espérance cherchée est donc
  1  n C 2 C3 C 4
E 0 = n1 − 1 −   = n − n + n2 − 3n + K ;
  p   p p p

cela donne environ 7,5 volumes à ouvrir pour chercher 10 mots dans un dictionnaire
en 15 volumes.
Il faut dire que cette rapide solution probabiliste a mis du temps à germer ; en 1990,
j’avais posé ce problème dans la revue Quadrature et, dans la solution proposée, la
valeur de E obtenue à partir de la loi de probabilité du nombre de volumes à consulter
était
n
1
E= ∑ k Skn Ckp
pn k =1

où Skn est le nombre de surjection d’un n-ensemble vers un k--ensemble ! Il était


ensuite démontré que cela donnait bien la valeur ci-dessus, et J. Moreau de Saint
Martin avait trouvé une démonstration directe utilisant les espérances
conditionnelles. Mais ce n’est que très récemment que ce dernier m’a envoyé cette
élégante démonstration.
2) Étude d’une loterie.
Ce problème m’a été inspiré par une loterie organisée par le village de Saint-Étienne
de Tinée, près de Nice. Comme toute loterie, cette loterie possède n (= 1 000) billets
dont p (= 30) sont gagnants ; combien faut-il que j’achète de billets pour que la
probabilité d'en avoir au moins un gagnant soit supérieure à 1/2 ?
Et combien faut-il que j’achète de billets pour que l'espérance du nombre de mes
billets gagnants soit supérieure à 1 ?
Sachant que chaque lot vaut en moyenne r euros et que chaque billet coûte s euros,
quelle est mon espérance de gain quand j'achète q billets (à savoir l'espérance de
APMEP
no 447 Calculs de probabilités dans la vie courante 519

l'argent rapporté par les lots moins les qs euros). Et je souhaite surtout savoir pour
quel nombre de billets achetés cette espérance de gain est maximale.
Ma solution.
Si j’achète q billets, la loi de probabilité du nombre G de billets gagnants est une loi
hypergéométrique :
C kp C qn −− kp
P([G = k ]) = .
C qn
La probabilité d’avoir au moins un billet gagnant est donc
C qn − p
1 − P([G = 0]) = 1 − .
C qn
Avec les données numériques, ce nombre est supérieur à 1/2 pour un nombre q de
billets supérieur ou égal à 23.
Pour obtenir l’espérance de G, on peut utiliser l’expression ci-dessus de la loi et la
formule de convolution, mais il est plus élégant de faire le raisonnement probabiliste
suivant :
L’espérance du nombre de billets gagnants est la somme des espérances des q
variables aléatoires valant 1 si le i-ème billet est gagnant et 0 sinon. Or ces espérances
p
sont d’après la propriété 1 égales à la probabilité qu’un billet soit gagnant, soit ;
n
pq
l’espérance du nombre de billets gagnants est donc ; avec les données
n
numériques, ce nombre est supérieur à 1 pour q ≥ 34. Ce résultat est en fait très
intuitif : il y a, en moyenne dans les q billets que j’ai achetés, la même proportion de
billets gagnants que la proportion globale de billets gagnants.
La suite est un peu décevante : mon espérance de gain est égale à :
pq q
r − qs = ( pr − ns ).
n n
Il n’y a donc pas de miracle : soit ns < pr, ce qui signifie que la loterie est à perte (le
coût des lots est supérieur au rapport des billets) et plus j’achète de billets, plus je
gagne, soit ns ≥ pr (cas normal !) et plus j’achète de billets, plus je perds, en
moyenne…
3) Le jeu de Pierre Noir.
Ce jeu est plutôt connu en Suisse et dans les pays germaniques, mais il est très
similaire au pouilleux. C’est un jeu constitué de n (= 15) familles de deux cartes ; si
l’on joue à q (= 3) joueurs, quelle est la probabilité d’avoir déjà une famille juste
après la distribution, et quelle est l’espérance du nombre de familles ?
Solution.
2n
Après la distribution, chaque joueur a reçu cartes (et on va supposer que q divise
q
APMEP
520 Pour chercher et approfondir no 447

p
2n). Le nombre de mains possibles est C 2n et le nombre de mains sans famille vaut

X np = C 2pn 2 p (je choisis d’abord p familles parmi n et ensuite une carte dans chaque
famille) ; la probabilité d’avoir déjà une famille vaut donc
p −1
C 2pn 2 p
n−k
1− . = 1− ∏
C2pn
k =1 n − k
2
Pour n = 15, voici comment varient ces probabilités en fonction du nombre de
joueurs :
n:=15:p:=2*n/q:
plot([seq([q,1-2^p*binomial(n,p)/binomial(2*n,p)],q=1..n)]) ;

La probabilité d’avoir une famille est donc plus grande que 1/2 jusqu’à 4 joueurs.
Cherchons maintenant la probabilité d’avoir k familles après la donne.
Le nombre de choix de k familles parmi les n vaut C kn et il me reste à choisir parmi
les n − k familles restantes p − 2k cartes sans qu’il y ait de famille, soit :
X np−−k2k = C np−−k2k 2 p − 2k .
La probabilité d’avoir k familles vaut donc :
2 p − 2k C kn C np−−k2k
.
C 2pn
L’espérance du nombre de familles vaut donc :
2p [ p / 2]
C kn C np−−k2k
∑k .
C 2pn k = 0 2 2k
Là encore, un raisonnement direct (dû à Jean Moreau de Saint Martin) donne une
expression bien plus sympathique !
Quand je prends deux cartes au hasard, la probabilité qu'elles forment une famille est
1
: en effet, ayant pris la première carte, la carte qui complète la famille est une
2n − 1
parmi 2n − 1 équiprobables.
p( p −1)
Quand j'ai p cartes en main, elles forment paires dont chacune a la
2
1
probabilité d'être une famille. Or l’espérance du nombre de familles est la
2n − 1
APMEP
no 447 Calculs de probabilités dans la vie courante 521

p( p −1)
somme des espérances des variables aléatoires associées à chacune de ces
2
paires, valant 1 si cette paire est une famille et 0 sinon. D’après la propriété 1,
1
chacune a une espérance égale à , donc l’espérance du nombre de familles
2n − 1
p( p − 1)
vaut ; cela donne une espérance de 1,6 familles après la donne, pour un
2(2n − 1)
maximum de 5 familles possibles.
4) Le remplissage d’une carte de loto.

Le jeu de loto traditionnel se joue avec des cartes ayant trois lignes remplies chacune
avec 5 nombres compris entre 1 et 90. Lorsque l'on tire successivement les nombres
de 1 à n = 90, au bout de combien de coups en moyenne l’une de mes lignes sera-t-
elle remplie, et au bout de combien de coups la carte entière ?
Je crois que ce problème possède autant de méthodes de résolutions qu’il y a de
personnes capables de le résoudre…
En voici une première :
Raisonnons d’abord pour les p = 15 nombres de la carte entière ; la loi du nombre X
de pions reçus sur ma carte après que le k-ième nombre ait été tiré est de nouveau
hypergéométrique :
C ip C kn −− ip
P([X = i]) =
C kn
et la probabilité que ma carte soit remplie vaut donc :
C kn −− pp
P([X = p]) = ,
C kn
APMEP
522 Pour chercher et approfondir no 447

C kp
expression que l’on peut arranger en . Mais ce que je cherche, c’est la
C np
probabilité d’avoir mes p pions pour la première fois à l’étape k ; or l’événement
« avoir sa carte remplie à l’étape k » est la réunion disjointe des événements « avoir
sa carte déjà remplie à l’étape k − 1 » et « avoir sa carte remplie pour la première fois
à l’étape k ».
La probabilité de remplir sa carte pour la première fois à l’étape k vaut donc :
C kp−1 C kp C kp−−11
. − =
C np C np C np
L’espérance du rang de remplissage de la carte vaut donc :
n
C kp−−11 1 n
p p n
C np++11
∑k = ∑ k Ckp−−11 = +1
∑ Ckp = p
(n + 1), =
k= p C np C np k = p C np k = p
p C np
soit, numériquement, 84 coups pour la carte complète (c’est très long !) et 75 coups
pour une ligne de 5 nombres.
On peut aussi calculer la variance :
(n + 1)(n − p)
V= ,
( p + 1)2 ( p + 2)
ce qui donne un écart-type de 14 coups pour une ligne et de 5 coups pour la carte.
Mais pour obtenir cette espérance, il est beaucoup plus élégant de tenir le
raisonnement suivant (qu’a tenu Jean Moreau de St Martin dans un article de
Quadrature de 1991) :
Le temps d’attente d’une nouvelle pièce est ici constant en moyenne. Or il y a p + 1
laps de temps où les n − p numéros non inscrits sur ma carte sortent : avant le premier
de mes numéros à sortir, entre le premier et le deuxième, …, et après le dernier.
D’après la remarque ci-dessus, ces laps de temps sont égaux en moyenne ce qui fait
que le nombre moyen de mauvais numéros sortant entre deux numéros qui sont sur
n− p
ma carte vaut ; l’espérance du rang de remplissage vaut donc :
p +1
n − p p(n + 1)
n− = .
p +1 p +1
Épilogue : ce n’était pas le but premier, mais nous avons obtenu lors de ce voyage en
probabilités un certain nombre de formules non triviales que voici :
n
∑ k Skn Ckp = p n − ( p − 1)n (dictionnaires)
k =1

∑ k C kp C nl − p = p C qn −−11 (loterie)
k +l=q
APMEP
no 447 Calculs de probabilités dans la vie courante 523

[ p / 2]
C kn C np−−k2k p( p − 1) C 2pn
∑k 2k
=
2n − 1 2 p +1
(Pierre Noir)
k =0 2
n
∑ k Ckp−−11 = p Cnp++11 (loto)
k= p

Si vous avez des problèmes similaires à me proposer, je les rajouterai volontiers à ma


collection ([email protected]).

Vous aimerez peut-être aussi