0% ont trouvé ce document utile (0 vote)
20 vues12 pages

Chapitre 1

Le chapitre 1 traite des notions fondamentales de la théorie des probabilités, y compris les ensembles fondamentaux, les événements, et les épreuves de Bernoulli. Il explique également les opérations sur les événements, les axiomes de probabilité, et introduit des concepts tels que les probabilités conditionnelles et les événements indépendants. Des exemples pratiques illustrent les concepts théoriques, notamment le calcul des probabilités dans des situations variées.

Transféré par

Yanis Guechtouli
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
20 vues12 pages

Chapitre 1

Le chapitre 1 traite des notions fondamentales de la théorie des probabilités, y compris les ensembles fondamentaux, les événements, et les épreuves de Bernoulli. Il explique également les opérations sur les événements, les axiomes de probabilité, et introduit des concepts tels que les probabilités conditionnelles et les événements indépendants. Des exemples pratiques illustrent les concepts théoriques, notamment le calcul des probabilités dans des situations variées.

Transféré par

Yanis Guechtouli
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats DOCX, PDF, TXT ou lisez en ligne sur Scribd

CHAPITRE I A.S.D.

IND M1M
Chapitre 1 : Théorie des probabilités

1.1. Notions de probabilités

1.1.1. Ensemble fondamental et ´ev´enements


A) Ensemble fondamental :
On consid`ere une exp´erience dont l’issue n’est pas pr´evisible mais dont l’ensemble des r
´esultats possibles (on dit aussi issues) est connu et appel´e ensemble fondamental, not´e Ω.
Exemples :

si le r´esultat de l’exp´erience ´equivaut `a la d´etermination du sexe d’un nouveau n´e,
alors :
Ω = {g, f}
si le r´esultat est l’ordre d’arriv´ee d’une course entre 7 chevaux num´erot´es de 1 `a 7, alors :
Ω = {toutes les permutations de 1 ... 7}
B) Ev´enements:

Tout sous-ensemble E de Ω est appel´e un ´ev´enement.


Si le r´esultat de l’exp´erience est compris dans E , alors on dit que E est r´ealis´e. Exemples :

Dans le premier exemple, si E = {g } alors E est l’´ev´enemen l’enfant est un gar¸con.

Dans le second exemple, si E = {tous les r´esultats de Ω commen¸cant par 3} alors E
correspond `a l’´ev´enement le cheval 3 remporte la course.
C) Epreuve de Bernouli

une ´epreuve de Bernoulli de param`etre 0 ≥ p ≥ 1 est une exp´erience al´eatoire (c’est-
`a-dire soumise au hasard) comportant deux issues : le succ`es ou l’´echec

Le r´eel p repr´esente la probabilit´e d’un succ`es et le r´eel 1 – p repr´esente la probabilit´e
d’un ´echec.

La d´efinition du succ`es et de l’´echec est conventionnelle et est fonction des conditions de
l’exp´erience.

Exemple Le lancer d’une pi`ece ´equilibr´ee est une exp´erience de Bernoulli de param`etre 0,
5. Si le succ`es est l’obtention de pile, l’´echec sera l’obtention de face.
D) Opérations sur les évenements
Un ´ev´enement ´etant un ensemble, on peut combiner des ev´enements grˆace aux
op´erateurs ensemblistes :

Union

Intersection

Page 1

compl´ementation
Union:
L’´ev´enement E ∪ F est compos´e des r´esultats appartenant `a E ou a F . L’´ev´enement E ∪ F
est r´ealis´e si soit E soit F l’est.

E F

E F

Exemple :
Dans le cas du premier exemple, si E = {g } et F = {f }, alors E ∪ F = {f , g } = Ω

Intersection :

L’´ev´enement E ∩ F (not´e EF ) est compos´e des r´esultats appartenant `a


E et `a F .
EF est r´ealis´e si E est r´ealis´e et F l’est aussi.

E F

E F

Exemple :
Si E = {PP, PF , FP} (au moins une pi`ece est pile) et F = {PF , FP, FF } (au moins une
pi`ece est face), alors, l’´ev´enement EF = {PF , FP} est l’´ev´enement une pi`ece est pile et
l’autre face.

Complémentations:
Pour chaque ´ev´enement E , l’´ev´enement E est compos´e des r´esultats qui sont dans Ω et qui ne
sont pas dans E . E est appel´e le compl´ementaire de E dans Ω.

Page 2
Exemple :
Si E= {g } alors E = {f }.

Evenement vide:

Si E = {g} et F = {f}, alors l’´ev´enement EF ne pourra jamais ˆetre r´ealis´e, on appellera un


tel ´ev´enement l’´ev´enement vide, not´e ∅.
Si EF = ∅, on dit que E et F sont mutuellement exclusifs.
1.1.2. Probabilité

On consid`ere que pour chaque ´ev´enement E de l’ensemble fondamental Ω, il


existe une valeur P(E ) appel´ee probabilit´e de E qui v´erifie les trois axiomes
suivants :
1. 0 ≤ P (E) ≤ 1

2. P(Ω) = 1
n
3. n
P(∪i=1 ) = ∑ P (E i)
i=1

Exemple
En supposant qu’`a l’issue du lancer d’un d´e les six faces ont les mˆemes chances
d’apparaˆıtre, on aura :
1
1 P ({1}) = P({2}) = P({3}) = P({4}) = P({5}) = P({6}) =
6
Du troisi`eme axiome, il resulte que la probabilit´e de tirer un nombre pair est :
3
P ({2, 4, 6}) = P ({2}) + P ({4}) + P ({6}) =
6
1.1.3. Quelques théorems élémentaires

P( E ) = 1 − P(E )

Si E ⊂ F , alors P(E ) ≤ P(F )

P(E ∪ F ) = P(E ) + P(F ) − P(EF )
Demonstration
1 = P (Ω ) = P (E∪ E ) = P (E) + P ( E ¿ ¿ ( Axiome 2)
Si E ⊂ F, alors P (E) ≤ P (F)
D´emonstration :
Du fait que E ⊂ F , on peut ´ecrire :
F = E ∪ EF
E et E F ´etant mutuellement exclusifs, par l’axiome 3, on tire :

P(F ) = P(E ) + P( E F )

Page 3
or, d’apr`es l’axiome 1 P( E F) ≥ 0, d’ou` :

P(E ) ≤ P(F )

P(E ∪F) = P(E) +P(F)-P(EF)

D´emonstration :

E F

I II III

I= E F E ∪ F= I ∪ II ∪ III
II= EF E= I ∪ II F

III= E F F= II ∪ III

E F

I II III

I, II et III ´etant disjoints, on a d’apr`es l’axiome 2 :


P(E ∪ F ) = P(I ) + P(II ) + P(III )

P(E ) = P(I ) + P(II )

P(F ) = P(II ) + P(III )

On a donc :

P(E ∪ F ) = P(E ) + P(F ) − P(II )

P(E ∪ F ) = P(E ) + P(F ) − P(EF )

1.1.4. ENS.FOND.à évenements élémentaires équiprobables

Pour de nombreuses exp´eriences, il est naturel d’admettre que chaque ´ev´enement ´el´ementaire a
la mˆeme probabilit´e d’apparaˆıtre. Si Ω = {1, 2 . . . N}, on a :

Page 4
P({1}) = P({2}) = . . . = P({N})

Ce qui implique du fait des axiomes 2 et 3 :

1
∀i 1 ≤ i ≤ N, P({i }) = N
De ceci et de l’axiome 3, il r´esulte que pour tout ´ev´enement E :

'
Nombres d é l é ments dans E
P(E) = '
Nombres d é l é ments dans Ω
Exemple 1:

Si deux d´es sont jet´es, quelle est la probabilit´e que la somme des faces soit 7 ?

Solution : On fait l’hypoth`ese que les 36 issues possibles sont


´equiprobables.

Puisqu’il y a 6 issues qui donnent une somme de 7 : (1, 6), (2, 5), (3, 4), (4, 3), (5, 2),
(6, 1)la probabilit´e est 6/36 = 1/6.

Exemple 2:

Si deux boules sont tir´ees au hasard d’un bol en contenant 6 blanches et 5 noires, quelle est la
probabilit´e qu’une des boules tir´ees soit blanche et l’autre noire ?

Solution : On consid`ere que l’ordre dans lequel les boules sont choisies est significatif
l’ensemble fondamental comprend 11 × 10 = 110 points.
Il y a 6 × 5 = 30 mani`eres de tirer pour lesquelles la premi`ere boule est blanche et l’autre noire.
et 5 × 6 = 30 mani`eres de tirer pour lesquelles la premi`ere boule est noire et la seconde
blanche.
Si les 110 points de l’ensemble fondamental ont la mˆeme probabilit´e, la probabilit´e
cherch´ee est :

30 + 30 6
=
110 11

1.1.5.Probabilités conditionnelles :

Un des concepts les plus importants de la th´eorie des probabilit´es. L’importance de ce concept
est de deux ordres :

Page 5

On s’int´eresse souvent `a calculer des probabilit´es lorsqu’une partie de l’information
concernant le r´esultat de l’exp´erience est disponible dans une telle situation, les probabilit
´es cherch´ees sont justement des probabilit´es conditionnelles.

Mˆeme lorsqu’aucune information partielle n’est disponible, il est quelquefois avantageux
d’utiliser un d´etour par certaines probabilit´es conditionelles pour r´eussir le calcul des
probabilit´es cherch´ees.

exemple

On jette deux d´es, chacun des 36 ´ev´enements ´el´ementaires a la mˆeme probabilit´e de
1
survenir, soit .
36

Si l’on sait que le premier d´e donne un 3, quelle est la probabilit´e que la somme des
deux d´es donne 8 ?

le d´e initial ´etant un 3, il ne peut plus y avoir que 6 ev´enements dans notre exp´erience, `a
savoir : (3, 1), (3, 2), (3, 3), (3, 4), (3, 5), (3, 6).

6 Puisque chacun de ces ´ev´enements a originellement la mˆeme probabilit´e d’apparaˆıtre,
1
ils auront encore des probabilit´esegales :
6

Si nous d´esignons respectivement par E et F les ´ev´enements la somme des d´es est 8 et le
premier d´e donne 3, la probabilit´e pr´ec´edente est appel´ee probabilit´e conditionnelle que
E apparaisse sachant que F est r´ealis´ee, elle est not´ee P(E |F ) (probabilit´e de E sachant
F ).

E 1
P( )=
F 6

Page 6
Généralisation 1:

On s’inspire de la mˆeme d´emarche pour d´eriver une formule g´en´erale donnant P(E |F )
pour tout ´ev´enement E et F :

Si F est r´ealis´e, alors E apparaˆıtra chaque fois que l’on aura affaire `a un ´ev´enement de E et
de F `a la fois, en d’autres termes, ce sera un ´el´ement de EF .
Par ailleurs, comme nous savons que F est r´ealis´e, cet ensemble devient le nouvel ensemble
fondamental, appel´e ensemble fondamental r´eduit.
La probabilit´e conditionnelle de l’´ev´enement E sera donn´ee par comparaison de la probabilit´e
non conditionelle de EF avec la probabilit´e non conditionnelle de F .
Généralisation 2:

On d´ebouche ainsi sur la d´efinition suivante : Si P(F ) > 0, la probabilit´e conditionnelle
de E sera :
P ( EF)
P(E |F ) =
P (F)

En multipliant par P(F ) les deux membres de l’´equation, on obtient :
P(EF ) = P(F )P(E |F )


Cette ´equation signifie que la probabilit´e que E et F apparaissent `a la fois est ´egale
`a la probabilit´e que F apparaisse multipli´ee par la probabilit´e conditionnelle de E si l’on
sait que F est survenu.
Exemple:

Une urne contient 8 boules rouges et 4 blanches. On tire sans remise 2 boules de l’urne et on
admet qu’`a chaque ´etape tous les tirages possibles sont ´equiprobables.
Quelle est la probabilit´e que les 2 boules tir´ees soient rouges ?
Solution :

R1 = la premi`ere boule est rouge

R2 = la seconde est rouge

P(R2R1) = P(R2|R1)P(R1)

P(R1) = 8/12

P(R2|R1) = 7/11;
donc
P(R2R1) = 2/3 × 7/11 = 14/33

Page 7
1.1.6. Evenements indépendants:


En g´en´eral P(E |F ) /= P(E )

Le fait de savoir que F est survenu influence la probabilit´e de E .

Dans les cas ou` P(E |F ) est bien ´egal `a P(E ), E est dit ind´ependant de F .

P ( EF)
Du fait que P(EF) = l’indépendance de E et F equivaut à :
P (F)

P (EF) = P (E)P (F)



Cette ´equation est sym´etrique en E et F , il en r´esulte que lorsque E est ind´ependant
de F , F l’est aussi de E .
Exemple1

On tire au hasard une carte d’un paquet de 52 cartes `a jouer ordinaires.



E = la carte tir´ee est un as

F = c’est un pique
E et F sont ind´ependants. En effet :

P(EF ) = 1/52

P(E ) = 4/52

P(F ) = 13/52.
On a bien : P(EF ) = P(E )P(F )

Exemple2

On jette deux pi`eces et on suppose que les 4 r´esultats possibles sont ´equiprobables.

A = la premi`ere pi`ece est pile

B = la seconde est face.
A et B sont ind´ependants. En effet :

P(AB) = P({(P, F )}) = 1/4

P(A) = P({(P, P), (P, F )}) = 1/2

P(B) = P({(P, F ), (F , F }) = 1/2
On a bien : P(AB) = P(A)P(B)


Il est important de ne pas confondre les deux notions d’´ev´enements mutuellement

Page 8
exclusifs et d’´ev´enements ind´ependants

Des ´ev´enements mutuellement exclusifs ne sont pas ind´ependants.

En effet, si l’on sait que E et F sont mutuellement exclusifs alors on sait que si E est r´ealis
´e, F ne peut pas l’ˆetre, et vice versa.

Par cons´equent, la connaissance de E va modifier la connaissance de F , les deux ´ev
´enements ne sont donc pas ind´ependants.

1.1.7.Formule des probabilités totales


Soient E et F deux ´ev´enements quelconques. Nous pouvons ´ecrire E sous la forme E
= EF∪ E F

EF et E F étant mutuellement exclusives, on peut écrire

La probabilit´e de l’´ev´enement E est une moyenne pond´er´ee



de la probabilit´e conditionnelle de E lorsque F est apparu

et de la probabilit´e de E lorsque F n’est pas apparu

les poids ´etant les probabilit´es des ´ev´enements conditionnants.

L’int´erˆet de cette formule est qu’elle permet de d´eterminer la probabilit´e d’un ´ev´enement
en commencant par le conditionner selon l’apparition ou non d’un autre ´ev´enement.
Exemple

Page 9
Une compagnie d’assurance estime que les gens peuvent ˆetre r´epartis en deux classes :

ceux qui sont enclins aux accidents

ceux qui ne le sont pas.

Les statistiques montrent qu’un individu enclin aux accidents a une probabilit´e de 0, 4 d’en avoir
un dans l’espace d’un an; cette probabilit´e vaut 0, 2 pour les gens `a risque mod´er´e.

On suppose que 30% de la population appartient `a la classe `a haut risque.


Quelle est la probabilit´e qu’un nouvel assur´e soit victime d’un accident durant l’ann´ee qui
suit la signature de son contrat ?
Solution

Nous obtiendrons la probabilit´e de l’´ev´enement cit´e en le conditionnant selon que le


signataire de la police est ou n’est pas enclin aux accidents.

X = le signataire aura un accident dans l’ann´ee qui suit l’´etablissement du contrat

A = le signataire est enclin aux accidents. La formule des probabilit´es
totales nous donne :

P(X ) = P(X |A)P(A) + P(X | A )P( A )

= 0.4 × 0.3 + 0.2 × 0.7 = 0.26


1.1.8. Théoreme de Bayes

Supposons que E se soit r´ealis´e et que nous cherchions `a d´eterminer la probabilit´e que

l’un des Fj se soit aussi r´ealis´e.


On d´eduit de la formule des probabilit´es totales le th´eor`eme suivant, appel´e th´eor`eme

de Bayes :
P ( E F J) P ( E / F J ) . P( F J ) n
P ( E/ F J ) . P(F J )
P( F J E) = = =∑
P(E) P(E) J =1 P ( E/ F ) . P(F J )

Exemple 1

On consid`ere deux urnes, l’une contient une bille noire et une blanche, et l’autre deux
noires et une blanche.
On d´esigne une urne au hasard, de laquelle on tire une bille.

Quelle est la probabilit´e qu’elle soit noire ?

Si l’on sait que la bille est blanche, quelle est la probabilit´e que ce soit la premi`ere urne
qui ait ´et´e d´esign´ee ?

Page 10
Loi des probabilities totales


Quelle est la probabilit´e qu’elle soit noire ?


N = la bille choisie est noire

B = la bille choisie est blanche

U1 = l’urne choisie est l’urne 1

U2 = l’urne choisie est l’urne 2

P(N) = P(N|U1)P(U1) + P(N|U2)P(U2) = ½ x ½ + 2/3 x1/2 = 7/12

Loi Bayes


Si l’on sait que la bille est blanche, quelle est la probabilit´e que ce soit la premi`ere urne
qui ait ´et´e d´esign´ee ?

N = la bille choisie est noire

B = la bille choisie est blanche

U1 = l’urne choisie est l’urne 1

U2 = l’urne choisie est l’urne 2
P (U 1 B) P ( B|U 1 ) P (U 1)
P(U1|B) = = = 12 / 20
P(B) P ( N)

Exemple 2


Un laboratoire d’analyse du sang assure avec une fiabilit´e de 95% la d´etection d’une
certaine maladie lorsqu’elle est effectivement pr´esente.

Cependant, le test indique aussi un r´esultat faussement positif pour 1% des personnes r
´eellement saines `a qui on le fait subir (une personne saine test´ee sera d´eclar´ee malade une
fois sur cent).

Si 0, 5% de la population porte effectivement la maladie, quelle est la probabilit´e qu’une
personne soit vraiment malade lorsqu’on la d´eclare telle sur la base du test ?
Solution


D = la personne soumise au test est porteuse de la maladie

E = le r´esultat du test est positif

La formule des probabilit´es totales nous donne :

Page 11
Ainsi 32% seulement des personnes dont le r´esultat au test est positif ont vraiment la
maladie !

Page 12

Vous aimerez peut-être aussi