0% ont trouvé ce document utile (0 vote)
36 vues20 pages

Introduction au calcul des probabilités

Transféré par

Antadiop9
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
36 vues20 pages

Introduction au calcul des probabilités

Transféré par

Antadiop9
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

IPFORMED-Sénégal

Niveau: L1 Médecine
Année académique: 2022/2023
Module:MAths-Statistiques

Chapitre 3: Calcul des probabilités


I Bref aperçu historique
Les premières études sur les probabilités, comme calcul des chances et non encore comme théorie,
sont l’œuvre de mathématiciens italiens, tels Cardan (1501-1573). C’est au XVIIe siècle que des
mathématiciens, tels Pascal (1623-1662), Feramat (1601-1665), huygens (1629-1695), développent
une théorie des chances à propos de problèmes aux solutions controversées, et dont certains sont
restés célèbres. En voici un, attribué au chevalier de Méré.

"Deux joueurs engagent chacun 32 pistoles dans un jeu de pile ou face. Le joueur gagnant ra-
massera les 64 pistole. Est déclarant gagnant celui des deux joueurs qui, le premier, aura obtenu
trois succès, qu’ils soient ou non consécutifs. A l’issue d’un premier jet, le joueur A gagne. Les deux
joueurs étant alors onbligés de se séparer, comment partager équitablement la mise?"

Le 29 juillet 1654, Pascal propose une méthode élégante pour résoudre ce problème et arrive à
la conclusion que le joueur A doit empocher 44 pistoles, tandis que le joueur B en gardera 20.

Dès le début du XVIIIe siècle, des généralisations importantes des règles du calcul des chances
sont faites; c’est ainsi que Moivre, puis Montmort définissent l’espérance mathématique.

Plus importante encore est l’application des méthodes de l’analyse mathématique au calcul des
probabilités qui prend ainsi rang parmi les théories mathématiques à part entières.

Le premier à envisager systématiquement ce point de vue est probablement [Link] (Ars


Conjectandi, 1713); mais la première théorie achevée ne voit le jour qu’avec Laplace (1749-1827).
C’est grâce à [Link] et à Moivre, et au moyen de l’analyse mathématique, que sont démontrés
les résultats essentiels de la théorie des probabilités (théorème de Bernoulli, théorème limite, qui
prend plus tard le nom de théorème de Moivre-Laplace).

C’est grâce à eux qu’est étudié un des schémas probabilistes les plus importants, connus sous le
nom de "loi binômiale", et qui permet de mathématiser beaucoup de situations aléatoires.
II Introduction
La notion de hasard est attachée dans son sens courant à des "expériences" dont certaines carac-
téristiques du résultat sont variables et semblent échapper à toute possibilité de prévision.
Pour établir un "modèle" mathématique des phénomènes aléatoires, il faudra commencer par intro-
duire deux notions de base, celle d’épreuve et celle d’événement.
Il faudra ensuite introduire une troisième notion de base, celle de probabilité d’un événement. Con-
trairement au sens fréquemment utilisé de ce mot dans le langage courant, il apparaît que le hasard

1
en mathématiques n’est pas n’importe quoi. On a dit au début que la notion de hasard était at-
tachée à des expériences dont certaines caractéristiques du résultat étaient variables et impossibles à
prévoir. Cela est bien le cas lorsque l’on considère le résultat d’une expérience unique. Mais, si l’on
répète plusieurs fois l’expérience, on constate rapidement que la fréquence d’un événement donné
tend vers une valeur fixe lorsque le nombre d’expériences augmente (avec des oxillations aléatoires
de part et d’autre de cette valeur limite). C’est cette fréquence limite (nombre compris entre 0 et
1) qui représente la "définition intuitive" de la probabilité de l’événement considéré.
III Expérience aléatoire, événements
Définition III.1
Une expérience est dite aléatoire ou stochastique si l’issue n’est pas prévisible, mais l’ensemble des
résultats possibles est connu. En principe, on admet qu’une expérience aléatoire peut être répétée
indéfiniment dans des conditions identiques; son issue peut donc varier d’une réalisation à l’autre.
Exemples 1
a) On jette un dé à 6 faces équilibré (non truqué).
b) On lance 3 fois de suite une pièce de monnaie.
c) On jette une pièce de monnaie jusqu’à ce que le côté face sorte pour la première fois.
Définitions III.2
• On appelle univers noté en général Ω, l’ensemble de toutes les issues possibles d’une expérience
aléatoire.
• Le nombre d’élements d’un ensemble Ω est appelé le cardinal de cet ensemble. On le note #Ω ou
card(Ω) ou |Ω|.
• L’ensemble Ω est fini si #Ω ∈ N.
• L’ensemble Ω est infini si #Ω n’est pas fini.
Selon la nature de l’experience aléatoire, l’ensemble Ω peut être fini ou infini.
Exemples 2
a) On jette un dé à 6 faces.
Ω = {1, 2, 3, 4, 5, 6} #Ω = 6 (ensemble fini).
b) On lance 3 fois de suite une pièce de monnaie.
Ω = {ppp, ppf, pf p, pf f, f pp, f pf, f f p, f f f } #Ω = 23 = 8.
c) On jette une pièce de monnaie jusqu’à ce que le côté face sorte pour la première fois.
Ω = {f, pf, ppf, pppf, .......} #Ω = ∞ (ensemble infini).
Définition III.3
• On appelle événement tout sous-ensemble de Ω.
• Un événement qui contient un unique élément de Ω est appelé événement élémentaire.
Exemple 3
Considérons l’expérience aléatoire qui consiste à observer deux patients d’une maladie M don-
née, depuis le moment du diagnostic de M jusqu’au décès de chacun d’eux. Alors, on appellera
résultat de cette expérience, un des couples (x, y) où x et y représentent respectivement pour
le premier et le deuxième patient, l’un des événements: décédé par M , (D+ ), non décédé par
M , (D− ). Suivant cette définition de résultat, l’univers associé à cette expérience est: Ω =
{(D+ , D+ ), (D+ , D− ), (D− , D+ ), (D− , D− )}.
Nous pouvons définir les événements suivants:
A ="l’un au moins des patients est décédé de M "= {(D+ , D+ ), (D+ , D− ), (D− , D+ )}.
B ="exactement un des patients est décédé de M "= {(D+ , D− ), (D− , D+ )}.
Remarque 4
On dit que l’événement A est réalisé si le résultat de l’expérience aléatoire appartient à l’ensemble
A et qu’il n’est pas réalisé dans le cas contraire.
Nous utiliserons les diagrammes de Venn pour illustrer diverses notions. Dans un tel diagramme, une

2
boîte rectangulaire représente l’ensemble fondamental Ω et les événements qui nous intéressent sont
représentés avec, par exemple, des disques à l’intérieur de cette boîte rectangulaire. Le diagramme
de Venn ci-dessous illustre le cas où l’événement A est réalisé.

IV Rappels de théorie des ensembles et opérations sur les événements


IV.1 Définitions, notations et illustrations
Soient A et B deux sous-ensembles d’un même ensemble Ω.
Définition Notation Illustration
L’intersection de deux ensembles A et B est A∩B
l’ensemble des éléments qui se trouvent à la (se lit "A inter B")
fois dans A et dans B.
La réunion de deux ensembles A et B est A∪B
l’ensemble des éléments qui se trouvent dans (se lit "A union B")
l’un au moins des ensembles A ou B.
Le complémentaire d’un ensemble A est A ou Ac
l’ensemble des éléments qui ne se trouvent (se lit "A barre")
pas dans A.
La différence de deux ensembles A et B est A\B
l’ensemble des éléments contenus dans A (se lit "A moins B")
mais pas dans B. (ou "A privé de B")
L’ensemble A est inclus A⊂B
dans l’ensemble B. (se lit "A inclus dans B")
L’ensemble vide est l’ensemble ∅
qui ne contient aucun élément.

IV.2 Opérations sur les événements


Les événements associés à une experience aléatoires étant par définition des sous ensembles de
l’univers Ω, il est naturel de définir des opérations sur les événements à l’image des opérations de la
théorie des ensembles. Ainsi:
• A ∩ B est appelé événement "A et B" (réalisation simultanée de A et B),
• A ∪ B est appelé événement "A et/ou B" (réalisation de A ou B ou que les deux se réalisent),
• A est appelé événement "contraire de A" (non réalisation de "A"),
• A\B est appelé événement "A mais pas B" (réalisation de A mais pas de B),
• A ⊂ B est appelé événement "A implique B" (la réalisation de A entraîne celle de B),
• ∅ est appelé événement "impossible" et Ω est aussi appelé événement "certain".

Voici un rappel de quelques identités élémentaires de la théorie des ensembles. L’étudiant devrait
être capable de visualiser ces identités à l’aide de diagrammes de Venn.
• Distributivité de l’union sur l’intersection:

A ∪ (B ∩ C) = (A ∪ B) ∩ (A ∪ C).

3
• Distributivité de l’intersection sur l’union:

A ∩ (B ∪ C) = (A ∩ B) ∪ (A ∩ C).

• Loi de De Morgan pour un complément d’union:

A ∪ B = A ∩ B.

• Loi de De Morgan pour un complémentaire d’intersection:

A ∩ B = A ∪ B.

Exercice 5
A, B, C étant trois événements quelconques, exprimer les événements ci-après: parmi A, B, C:
a) A seul se produit;
b) A et B se produisent mais non C;
c) les trois événements se produisent simultanément;
d) au moins l’un des événements se produit;
e) au moins deux des événements se produisent;
f ) deux événements au plus se produisent;
g) un seul événement se produit;
h) deux événements ou plus se produisent;
i) deux événements seulement se produisent;
j) aucun des trois événements ne se produit;
k) pas plus de deux événements ne se produisent.

Définition IV.1
Deux événements A et B sont dits incompatibles si A ∩ B = ∅, c’est-à-dire, ils ne peuvent pas être
realisés simultanément.
Exemple 6
Si A est un événement quelconque, A et A sont incompatibles.

4
V Notion de probabilité et axiomes
Le but de cette partie est d’attribuer à chaque événement A un nombre réel, appelé probabilité de cet
événement et noté P (A) . La valeur P (A) est une mesure des chances de réalisation de l’événement
A lors de l’expérience aléatoire considérée.
V.1 Probabilités "combinatoires"
Soit Ω un univers fini constitué de n événements élémentaires sur lequel on fait l’hypothèse d’équiprobabilité
de réalisation des n événements élémentaires. On suppose ainsi que tous les événements élémentaires
ont "la même chance" de se réaliser.
Soit A un événement quelconque constitué de k événements élémentaires de Ω.
k
On déduit intuitivement que la probabilité d’un événement A noté P (A) est le nombre: .
n
Cette formule (de Laplace) s’énonce souvent comme:
card(A) nombre de résultats favorables à A
∀A ∈ P(Ω), P (A) = = .
card(Ω) nombre de résultats possibles
Remarque 7
D’après cette formule de Laplace, en cas d’équiprobabilité, les calculs se ramènent à des problèmes
de dénombrement.
V.2 Axiomes du calcul des probabilités
Il est clair que la probabilité d’un événement ne peut pas toujours être calculée avec la formule de
Laplace. On cherche à donner une définition plus générale de la notion de probabilité.
Soit Ω un univers. On dit que l’on définit une probabilité sur les événements si: à tout événement
A on associe un nombre P (A), appelé probabilité de l’événement A. Une probabilité P est une
fonction de l’ensemble Ω des événements dans l’intervalle [0, 1].
Une probabilité doit "intuitivement" satisfaire aux trois axiomes (de Kolmogorov) suivants:
Pour tout événement A et B on a:
(1) P (A) ≥ 0 (la probabilité de tout événement est un nombre positif ou nul).
(2) P (Ω) = 1 (la probabilité de l’événement certain Ω est égale à 1).
(3) Si A ∩ B = ∅ alors P (A ∪ B) = P (A) + P (B) (si deux événements sont incompatibles alors la
probabilité de leur réunion est égale à la somme de leurs probabilités).
Théorème V.1
Pour tous événements A et B on a:
(i) P (A) = 1 − P (A).
(ii) P (B\A) = P (B) − P (B ∩ A).
(iii) P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
(iv) Si A ⊆ B alors P (A) ≤ P (B).
(v) P (∅) = 0.
(vi) 0 ≤ P (A) ≤ 1.
Preuve
(i) On observe que: A ∪ A = Ω et A? ∩ A = ∅ (A et A étant incompatibles).
P (Ω) = 1 ⇔ P (A ∪ A) = 1 axiome 2
⇔ P (A) + P (A) = 1 axiome 3
⇔ P (A) = 1 − P (A).
(ii) On observe que: B = (B\A)∪(B∩A) et (B\A)∩(B∩A) = ∅ (B\A et B∩A étant incompatibles).
P (B) = P [(B\A) ∪ (B ∩ A)] ⇔ P (B) = P (B\A) + P (B ∩ A) axiome 3
⇔ P (B\A) = P (B) − P (B ∩ A).

5
(iii) On observe que: A ∪ B = A ∪ (B\A) et A ∩ (B\A) = ∅ (A et B\A étant incompatibles).

P (A ∪ B) = P [A ∪ (B\A)] ⇔ P (A ∪ B) = P (A) + P (B\A) axiome 3


⇔ P (A ∪ B) = P (A) + P (B) − P (A ∩ B).

(iv) On observe que: B = A ∪ (B\A) et A ∩ (B\A) = ∅ (A et B\A étant incompatibles).

P (B) = P [A ∪ (B\A)] ⇔ P (B) = P (A) + P (B\A) axiome 3


⇔ P (B) ≥ P (A) axiome 1 P (B ∩ A) ≥ 0.

(v) On a: A ∪ ∅ = A et A ∩ ∅ = ∅ (A et ∅ étant incompatibles).

P (A) = P (A ∪ ∅) = P (A) + P (∅) ⇔ P (∅) = 0.

(vi)
∅ ⊆ A ⊆ Ω ⇒ P (∅) ≤ P (A) ≤ P (Ω) ⇒ 0 ≤ P (A) ≤ 1.
V.3 Ensemble probabilisé fini
Soit Ω = {ω1 , ω2 , ..., ωn } un univers fini associé à une expréience aléatoire constitué de n issues ωi .
Si à chaque événement élémentaire {ωi } on attribue un nombre P ({ωi }), que l’on appelle probabilité
de l’événement élémentaire {ωi }, de telle sorte que:
(i) P ({ωi }) ≥ 0 ∀i ∈ {1, 2, ..., n};
Xn
(ii) P ({ωi }) = 1.
i=1
Alors on dit que l’univers Ω est un ensemble probabilisé fini.
Exemple 8
On jette un dé à 6 faces "truqué". L’univers est Ω = {1, 2, 3, 4, 5, 6}. La probabilité d’apparition
des différentes faces est donnée par le tableau ci-dessous:

Faces: {ωi } {1} {2} {3} {4} {5} {6}


1 1 1 1 1 2
P ({ωi })
15 15 15 15 15 3
6
X
On vérifie facilement que P ({ωi }) = 1.
i=1
La probabilité de l’événement "obtenir un nombre pair" est:

P (”obtenir un nombre pair”) = P ({2, 4, 6})


= P ({2} ∪ {4} ∪ {6})
= P ({2}) + P ({4}) + P ({6})
1 1 2
= + +
15 15 3
4
= .
5
Proposition V.2 (formule de Laplace)
Soit Ω = {ω1 , ω2 , ..., ωn } un univers associé à une expérience aléatoire et constitué de n issues ωi . Si
tous les événements élémentaires {ωi } sont équiprobables et que l’événement A est constitué de k

6
k
événements élémentaires {ωi } alors P (A) = .
n
Preuve
P (Ω) = P ({ω1 } ∪ {ω2 } ∪ ... ∪ {ωn }) ⇔ 1 = P ({ω1 }) + P ({ω2 }) + ... + P ({ωn }) axiome 2 et 3
⇔ 1 = n.P ({ω1 }) équiprobabilité des événements élémentaires:
P ({ω1 }) = P ({ω2 }) = · · · = P ({ωn })
1 1
⇔ P ({ω1 }) = on a aussi : P ({ωi }) = i ∈ {1, 2, ..., n}.
n n
Si A = {ω1 , ω2 , ..., ωk } avec 1 ≤ k ≤ n, alors
1 1 1 k
P (A) = P ({ω1 } ∪ {ω2 } ∪ ... ∪ {ωk }) = P ({ω1 }) + P ({ω2 }) + ... + P ({ωk }) = + + ... + = .
n n n n
VI Conditionnement et indépendance
VI.1 Probabilités conditionnelles
Pour introduire la notion de probabilité conditionnelle, considérons le cas d’un espace probabilisé
(Ω, A, P ) constitué par un nombre fini N d’événements élémentaires équiprobables. Considérons
maintenant un événement fixé A (de probabilité non nulle) et remplaçons l’épreuve primitive décrite
par (Ω, A, P ) par une nouvelle épreuve restreinte à A. Dans la pratique, cette nouvelle épreuve
consiste à effectuer l’épreuve primitive mais à n’en retenir le résultat que si A s’est réalisé (sinon on
recommence jusqu’à ce que A soit réalisé; par exemple, on lance 3 dés mais on ne s’intéresse qu’aux
résultats où il y a au moins un As.
On note (ΩA , AA , PA ) l’espace probabilisé qui décrit la nouvelle épreuve et on se propose d’en
exprimer les composant à partir de ceux de l’espace primitif. Pour l’espace fondamental, c’est très
simple: ΩA = {ω ∈ Ω tels que ω ∈ A}, c’est-à-dire ΩA = A. Pour les événements, il s’introduit
naturellement la notion d’événement conditionnel: réalisation d’un événement B sachant que A
est déjà réalisé- on dit en abrégé: réalisation de B si A- représenté par l’intersection A ∩ B; donc
AA = {A ∩ B/B ∈ A}. Quant à la probabilité PA , le cas simple que nous avons choisi pour
introduire la notion de probabilité conditionnelle permet de la déterminer aisément par décompte
du nombre de cas. Avant d’effectuer ce calcul, il importe de bien fixer les notations: la probabilité,
dans le nouvel espace probabilisé (ΩA , AA , PA ); de l’événement B si A; se note PA (B); elle se note
également P (B/A), on verra plus loin pourquoi. On a alors, dans Ω:
nombre de cas possibles: N
nombre de cas favorables: kA , kA∩B
et dans ΩA :
nombre de cas possibles: N = kA
nombre de cas favorables: kB/A = kA∩B
de sorte que
kB/A kB∩A (kB∩A /N ) P (A ∩ B)
PA (B) = P (B/A) = = = = .
NA kA (kA /N ) P (A)
Cette expression, que nous avons démontré dans le cas simple étudié, peut être prise comme définition
générale de la probabilité conditionnelle:
si P (A) 6= 0, la probabilité conditionnelle de l’événement B sachant A est le quotient
P (A ∩ B)
P (B/A) = .
P (A)
Avant d’arriver à l’utilisation pratique de cette notion, donnons quelques remarques.
Remarques 9

7
Imaginons une situation où je m’intéresse à une expérience aléatoire et à un événement B susceptible
d’être réalisé. Mis à part le cas sans problème où l’expérience a été effectuée et où je sais si B s’est
ou ne s’est pas réalisé, on peut envisager trois éventualités:
• l’expérience n’a pas encore été effectuée. Tout ce que je sais sur l’événement B est qu’il possède
une probabilité "a priori" P (B) de se réaliser dans le futur lorsque l’expérience sera effectuée.
• l’expérience a été effectuée mais je n’ai aucune information sur son résultat. Quoiqu’on le
fasse souvent, il n’est plus possible maintenant - en toute rigueur - de parler de la probabilité de
l’événement B: il appartient au passé et sa réalisation n’a plus rien d’aléatoire (que je sache pas si
elle a eu lieu ou non n’y change rien). Néanmoins j’ai toujours une information sur l’événement B:
sa probabilité "a priori" P (B). Et si je dois par exemple prendre une décision qui nécessite un pari
sur la réalisation de B, je tiendrai compte - parmi d’autres critères - de cette probabilité P (B).
• l’expérience a été effectuée et, sans savoir si B lui même s’est réalisé; je sais cependant qu’un
certain événement A s’est réalisé. Je ne peux toujours pas parler de la probabilité de l’événement
B mais mon information s’est précisée. Et si je dois prendre comme précédemment une décision qui
nécessite un pari sur la réalisation de B, je tiendrai compte non plus de P (B) mais de la probabilité
conditionnelle P (B/A), qualifiée parfois de probabilité a posteriori.
Sauf exception, on utilisera la probabilité conditionnelle PA (B) sans se référer explicitement à
l’espace (ΩA , AA , PA ), ce qui explique l’usage de la notation P (B/A). La raison en est double:
éviter la lourdeur de manipuler plusieurs espaces probabilisés simultanément, et surtout permettre
l’utilisation de probabilités conditionnées par des événements A1 , A2 ,... différents.
Mais, si la référence à (ΩA , AA , PA ) est omise, les probabilités conditionnelles restent des probabilités
et se manipulent comme telles. Par exemple,
•• Si A, B et C sont trois événements tels que B ⊂ C et P (A) 6= 0, alors P (B/A) ≤ P (C/A).
•• P (B c /A) = 1 − P (B/A).
•• P [(B ∪ C)/A] = P (B/A) + P (C/A) − P [(B ∩ C)/A].
On n’oubliera pas que, dans ces formules; il est indispensable que le conditionnement soit toujours
par le même événement A.
Exercice 10
On s’intéresse aux compositions possibles, en filles et garçons, des familles de deux enfants. Chaque
composition est représentée par un doublet dont le premier élément est le sexe de l’aîné, le second
celui du cadet:
Ω = {(F, F ), (F, G), (G, F ), (G, G)}.
Si l’on suppose qu’il y a environ la même proportion de filles et de garçons dans la population,
et si l’on néglige l’influence de l’hérédité sur le sexe, l’hypothèse d’équiprobabilité représente une
approximation expérimentalement satisfaisante de la réalité.
Considérons les événements suivants:
A="il y a au moins une fille dans la famille".
B="l’aînée est une fille".
C="la famille est composée de deux filles".
Calculer les probabilités conditionnelles P (C/A) et P (C/B).

8
VI.2 Utilisation pratique
On utilise les probabilités conditionnelles dans trois circonstances.
La première, qui est la plus simple, est celle où les probabilités des événements de l’espace probabilisé
sont connues, et où l’on désire connaître certaines probabilités conditionnelles. Le calcul est immédiat
par application de la formule de définition. Cette circonstance est celle étudiée dans l’exercice .
Un piège très fréquent mérite d’être signalé: lorsque B ⊂ A on a A ∩ B = B et donc
P (A ∩ B) P (B)
P (B/A) = = .
P (A) P (A)
Dans une deuxième circonstance, ce sont au contraire certaines probabilités conditionnelles qui sont
connues et qui servent pour calculer la probabilité des intersections, au moyen de la formule des
probabilités composées
P (A ∩ B) = P (A)P (B/A) = P (B)P (A/B)
qui n’est autre que la formule de définition des probabilités conditionnelles, mise sous forme multi-
plicative.
Cette formule se généralise comme suit.
VI.2.1 Formule des probabilités composées
Proposition VI.1
Soient A1 , A2 , ..., An n événements d’un espace probabilisé (Ω, P(Ω), P ) vérifiant
P (A1 ∩ A2 ... ∩ An−1 ) 6= 0, alors

P (A1 ∩ A2 ∩ ... ∩ An ) = P (A1 ) × P (A2 /A1 ) × P (A3 /A1 ∩ A2 ) × · · · × P (An /A1 ∩ A2 ... ∩ An−1 ).

Preuve
Puisque
A1 ∩ A2 ∩ ... ∩ An−1 ⊂ A1 ∩ A2 ∩ ... ∩ An−2 ⊂ ... ⊂ A1 ∩ A2 ⊂ A1 ,
par croissance d’une probabilité, on a:

P (A1 ∩ A2 ∩ ... ∩ An−1 ) ≤ P (A1 ∩ A2 ∩ ... ∩ An−2 ) ≤ ... ≤ P (A1 ∩ A2 ) ≤ P (A1 ).

Un calcul direct donne alors:


P (A1 ∩ A2 ) P (A1 ∩ A2 ∩ A3 ) P (A1 ∩ A2 ∩ ... ∩ An )
P (A1 ) × × × ... × = P (A1 ∩ A2 ∩ ... ∩ An )
P (A1 ) P (A1 ∩ A2 ) P (A1 ∩ A2 ... ∩ An−1 )

après simplification.
Remarque 11
La formule des probabilités composées est aussi appelée formule de multiplication des probabilités
ou règle des conditionnements successifs.
Exercice 12
Dans une urne contenant 4 boules blanches et 2 boules noires indiscernables au toucher, on tire 3
boules successivement sans remise. Déterminer la probabilité de N : "tirer une boule noire pour la
première fois au troisième tirage".

9
Il est assez rare qu’un événement dont on cherche la probabilité soit "directement" sous la forme
d’une intersection utilisable. Il est par contre fréquent que l’on soit dans la situation suivante: étant
donné un espace fondamental Ω, on connaît une partition de Ω, c’est-à-dire une suite H1 , H2 , · · · , Hn
de sous ensembles non vides deux à deux disjoints et dont la réunion est Ω tout entier. Alors pour
toute partie A ⊂ H, la suite A ∩ H1 , A ∩ H2 , · · · , A ∩ Hn est une partition de A (ils sont non vides
deux à deux disjoints et leur réunion est A, qui fournit un procédé efficace de calcul de P (A).
VI.2.2 Formule des probabilités totales
Proposition VI.2
Soient (Ω, P(Ω), P ) un espace probabilisé et (Hi )1≤i≤n un système complet d’événements de proba-
bilité non nulle.
Alors, pour tout événement A, on a
n
X n
X
P (A) = P (A ∩ Hi ) ⇐⇒ P (A) = P (A/Hi ) × P (Hi ).
i=1 i=1

Preuve n
[
Puisque les (Hi )1≤i≤n forment un système complet d’événements, on a: Ω = Hi et Hi ∩ Hj = ∅
i=1
si i 6= j. Donc pour tout événement A, les A ∩ Hi sont deux à deux incompatibles. Ainsi,
h n
[ i n
h[ i n
X n
X
P (A) = P (A ∩ Ω) = P A ∩ Hi =P (A ∩ Hi ) = P (A ∩ Hi ) = P (A/Hi ) × P (Hi ).
i=1 i=1 i=1 i=1

Remarques 13
• Cas particulier très important: Si H est un événement tel que P (H) 6= 0 et P (H c ) 6= 0, le
système {H, H c } est alors un système complet fini d’événements. Soit A un événement quelconque.
D’après la formule des probabilités totales,

P (A) = P (A/H) × P (H) + P (A/H c ) × P (H c ).

• La formule des probabilités totales est aussi appelée formule du saucisson ou formule des prob-
abilités complètes.
Commentaires 14
Une difficulté majeure de l’utilisation des probabilités conditionnelles consiste à traduirecomme four-
nissant des probabilités conditionnelles des phrases de la langue courante qui n’en ont pas l’air...
Ceci est extrêmement important et constitue sans aucun doute la première difficulté que rencontre
l’étudiant devant un énoncé de probabilités. Un exemple convenablement détaillé constituera la
meilleure manière de faire comprendre le problème.
Exercice 15
Énoncé 1
On considère une population composée de 48% d’hommes et de 52% de femmes. La probabilité
conditionnelle qu’un individu pris au hasard soit daltonien, sachant que c’est un homme, est 0, 05;
sachant que c’est une femme, est 0, 0025. Quelle est la probabilité qu’un individu pris au hasard soit
daltonien?
Énoncé 2
On considère une population composée de 48% d’hommes et de 52% de femmes. La probabilité

10
qu’un homme soit daltonien est 0, 05; qu’une femme soit daltonienne est 0, 0025. Quelle est la prob-
abilité qu’un individu pris au hasard soit daltonien?
Énoncé 3
On considère une population composée de 48% d’hommes et de 52% de femmes. Il y a 5% d’hommes
daltoniens, 0, 25%; de femmes daltoniennes. Quelle est la probabilité qu’un individu pris au hasard
soit daltonien?

Les trois énoncés sont équivalents! Mais il faut savoir reconnaître dans l’expression "la probabil-
ité qu’un homme soit daltonien est 0, 05" comme dans l’expression "5% des hommes sont daltoniens"
une formulation implicite et abrégée de "la probabilité conditionnelle qu’un individu pris au hasard
soit daltonien, sachant que c’est un homme, est 0, 05".

Si l’on examine les énoncés habituels que l’on trouve en calcul des probabilités, on constatera
que leur rédaction n’est pratiquement jamais du type 1, toujours du type 2 ou 3.

Terminer cet exercice en donnant la solution.

La troisième circonstance d’utilisation des probabilités conditionnelles est celle où la symétrie de la


formule des probabilités composées

P (A ∩ H) = P (A)P (H/A) = P (H)P (A/H)

permet de calculer une des deux probabilités conditionnelles connaissant l’autre:

P (A ∩ H) P (H)P (A/H)
P (H/A) = = .
P (A) P (A)
Dans le cas où l’on connaît une partition H1 , H2 , · · · , Hn de Ω, cette formule est sous la forme
suivante appelée formule de Bayes.
VI.2.3 Formule de Bayes
Proposition VI.3
Soient (Ω, P(Ω), P ) un espace probabilisé et (Hi )1≤i≤n un système complet d’événements .
Alors, pour tout événement A de probabilité non nulle, on a pour tout j ∈ {1, ..., n}; on a

P (A/Hj ) × P (Hj )
P (Hj /A) = n .
X
P (A/Hi ) × P (Hi )
i=1

Preuve
P (Hj ∩ A)
Par définition d’une probabilité conditionnelle, P (Hj /A) = . La formule des probabilités
P (A)
composées nous donne P (Hj ∩ A) = P (A/Hj ) × P (Hj ) et la formule des probabilités totales nous

11
n
X
donne P (A) = P (A/Hi) × P (Hi ). Ce qui donne le résultat désiré.
i=1
Remarques 16
• La formule de Bayes est aussi appelée formule de probabilité des causes ou de probabilité des
hypothèses.
• Essayer d’apprendre cette formule par cœur nous semble à la fois un effort inutile et un risque
de remplacer une véritable compréhension des concepts mathématiques par un automatisme qui
dispense de réfléchir.
Exercice 17
Dans une certaine population, un individu sur 1000 est porteur d’un certain virus, disons le virus V .
Les porteurs du virus ne présentent aucun symptôme. Un test sanguin a été développé pour détecter
la présence du virus chez ces individus. Le test a les propriétés suivantes. Chez les individus qui
portent le virus, le test est positif (c’est-à-dire qu’il indique la présence du virus) avec probabilité
0, 98 et chez les individus qui ne portent pas le virus, le test est négatif (c’est-à-dire qu’il indique
l’absence du virus) avec probabilité 0, 97. On choisit un individu au hasard dans cette population
et on lui administre le test. Le résultat du test est positif. Quelle est la probabilité que cet individu
soit porteur du virus?

Exercice 18
Un éleveur de canard élève trois races différentes: le canard de Barbarie (30%), le canard Nantais
(20%) et le canard Mulard (50%). Suite à divers traitements hormonaux accélérateurs de croissance
(utilisés sur plusieurs généérations de volailles), certains animaux n’ont qu’une seule patte: 10% des
canards de Barbarie, 2% des canards Nantais et 25% des canards Mulard. On choisit un canard au
hasard.
1) Quelle est la probabilité qu’il n’ait qu’une seule patte?
2) Sachant qu’il n’a qu’une seule patte, quelle est la probabilité que ce soit un canard Mulard? un
canard Nantais?

12
VII Indépendance
VII.1 Indépendance de deux événements
Définition VII.1
Deux événements A et B d’un espace probabilisé (Ω, P(Ω), P ) tels que P (A) > 0 et P (B) > 0 sont
dits indépendants si on a P (A/B) = P (A) et P (B/A) = P (B).
Remarques 19
• Si A et B sont deux événements tels que P (A) > 0 et P (B) > 0, alors P (A/B) = P (A) si et
seulement si P (B/A) = P (B).
En effet
P (A ∩ B) P (A ∩ B)
P (A/B) = P (A) ⇐⇒ = P (A) ⇐⇒ = P (B) ⇐⇒ P (B/A) = P (B).
P (B) P (A)
• Si les événements A et B sont indépendants alors P (A ∩ B) = P (A)P (B) ().
En effet, d’après la formule des probabilités composées P (A ∩ B) = P (A/B)P (B) = P (A)P (B).
L’égalité () est souvent utilisée comme définition de l’indépendance de deux événements.
• Il ne faut pas confondre l’indépendance et l’incompatibilité de deux événements A et B.
L’indépendance est relative à la probabilité P choisie, alors que l’incompatibilité (A ∩ B = ∅)
ne l’est pas.
Commentaires 20
En terme d’information, l’indépendance de A avec B signifie que l’information sur l’un d’eux ne
modifie pas l’information sur l’autre.
Pour revenir sur les probabilités considérées comme "modèle" des phénomènes aléatoires concrets,
il faut remarquer que, lorsque des phénomènes "physiquement" indépendants, il est raisonnable
de supposer que les événements correspondants sont indépendants "en probabilité" (on dit parfois
stochastiquement indépendants - l’adjectif stochastique étant dans le jargon des mathématiciens
synonyme d’aléatoire, lui-même synonyme d’au hasard). Par contre il peut arriver (par hasard!)
que des événements physiquement indépendants soient indépendants en probabilité.
Exemple 21
On considère un gène possédant deux allèles, symbolisés par A et a, et on croise deux individus,
porteurs tous deux du génotype Aa. On suppose que chaque parent a la probabilité 1/2 de trans-
mettre, soit le gène A, soit le gène a. On suppose de plus qu’il y a indépendance de la transmission
des gènes parentaux (en d’autres termes, la "recombinaison" des gènes s’effectue eu hasard). Quelles
sont les probabilités des génotypes possibles pour un descendant?

Comme il y a indépendance, il suffit d’effectuer des produits de probabilités:


1 1 1
P (1er parent → A et 2e parent → A) = × =
2 2 4
1 1 1
P (1er parent → A et 2e parent → a) = × =
2 2 4
1 1 1
P (1er parent → a et 2e parent → A) = × =
2 2 4
1 1 1
P (1er parent → a et 2e parent → a) = × =
2 2 4
soit, comme probabilités des trois génotypes possibles;
1 1 1
P (AA) = , P (Aa) = , P (aa) = .
4 4 4
13
Historiquement, c’est la concordance de ce modèle avec l’expérimentation statistique qui a permis à
G. Mendel d’établir les lois de l’hérdité (par exemple dans le cas où le gène A est dominant et le gène
a récessif avec donc seulement deux phénotypes A et a; on a l’explication de la bizarrerie apparente
que 3/4 des descendants présentent le phénotype A, et 1/4 le phénotype a).Fait remarquable, la
découverte de Mendel, qui implique l’existence des chromosomes et des gènes, au niveau du modèle
mathématique, précède d’une quarantaine d’années la connaissance des chromosomes comme sup-
port matériel de l’hérédité, au niveau de l’observation biologique.

Dans le cas de trois événements, le concept d’indépendance se généralise de la façon suivante.


VII.2 Indépendance de trois événements
Définition VII.2
Les événements A, B et C sont dit indépendants (ou mutuellement indépendants) si les quatres
égalités suivantes sont vérifiées:

P (A ∩ B) = P (A)P (B)
P (A ∩ C) = P (A)P (C)
P (B ∩ C) = P (B)P (C)
P (A ∩ B ∩ C) = P (A)P (B)P (C).

Remarques 22
• Lorsque seules les trois premières égalités précédentes sont vérifiées, on dit que les événements
A, B et C sont deux à deux indépendants.
• Des événements peuvent être deux à deux indépendants sans toutefois être mutuellement
indépendants comme en témoigne l’exemple qui suit.
Exemple 23
On lance deux pièces de monnaie symétriques et on considère les événements:
A: "la première pièce donne une face",
B: "la deuxième pièce donne une pile",
C: "la deuxième pièces donne le même résultat".
Travaillons avec l’espace probabilisé (Ω, A, P ) tel que:
• Ω = {(P, F ), (P, P ), (F, P ), (F, F )}
• A = P(Ω);
• P : l’équiprobabilité sur (Ω, A).
Ici, par exemple, le résultat qui consiste à obtenir face au premier lance et pile au deuxième lancer
est dénoté (F, P ).
Il est clair que

A = {(F, P ), (F, F )}, B = {(P, P ), (F, P )}, C = {(P, P ), (F, F )}, A∩B = {(F, P )}, A∩C = {(F, F )},

B ∩ C = {(P, P )}, et A ∩ B ∩ C = ∅.

14
D’autre part,
1 1 1
P (A ∩ B) = = × = P (A) × P (B)
4 2 2
1 1 1
P (A ∩ C) = = × = P (A) × P (C)
4 2 2
1 1 1
P (B ∩ C) = = × = P (B) × P (C)
4 2 2
1
P (A ∩ B ∩ C) = P (∅) = 0 6= = P (A)P (B)P (C).
8

Ainsi les événements A, B et C sont deux à deux indépendants mais ne sont pas mutuellement
indépendants.
Les deux définitions précédentes se généralisent ainsi.
VII.3 Indépendance de n événements
Définition VII.3
Soit (Ai )1≤i≤n une collection de n événements. Ces n événements sont dits mutuellement indépen-
\ Y
dants si pour toute partie I de {1, 2, ..., n}, P Ai = P (Ai ).
i∈I i∈I
VII.4 Principe de préservation de l’indépendance
Proposition VII.4
Soient A1 , · · · , An des événements mutuellement (resp. deux à deux) indépendants. Pour
i ∈ J1, nK, on note Bi = Ai ou Bi = Aci . Alors B1 , · · · , Bn sont mutuellement (resp. deux à deux)
indépendants.
Preuve
On montre par récurrence sur p ∈ J0, nK la propriété P(p): "si p des Bi sont Aci (et les autres Ai ),
B1 , · · · , Bn sont mutuellement indépendants".
Les événements A1 , · · · , An étant mutuellement indépendants, P(0) est vraie. Soit p ∈ J1, n − 1K tel
que P(p) est vraie. On suppose que p + 1 des des Bi sont Aci (et les autres Ai ). Quitte à remplacer
B1 , · · · , Bn par la sous-famille considérée, il faut montrer que
P (B1 ∩ · · · ∩ Bn ) = P (B1 ) · · · P (Bn ). Quitte à réordonner les Bi , on suppose que Bi = Ai pour
i ∈ J1, n − p − 1K et que Bi = Aci pour i ∈ Jn − p, nK. On a

P (A1 ∩ · · · ∩ An−p ∩ Acn−p+1 ∩ · · · ∩ Acn ) + P (A1 ∩ · · · ∩ An−p−1 ∩ Acn−p ∩ Acn−p+1 ∩ · · · ∩ Acn )

= P (A1 ∩ · · · ∩ An−p−1 ∩ Acn−p+1 ∩ · · · ∩ Acn )


= P (A1 ) · · · P (An−p−1 )P (Acn−p+1 ) · · · P (Acn )
par hypothèse de récurrence. Ainsi
P (A1 ∩ · · · ∩ An−p−1 ∩ Acn−p ∩ Acn−p+1 ∩ · · · ∩ Acn )
= P (A1 ) · · · P (An−p−1 )P (Acn−p+1 ) · · · P (Acn ) − P (A1 ) · · · P (An−p )P (Acn−p+1 ) · · · P (Acn )
= P (A1 ) · · · P (An−p−1 )P (Acn−p+1 ) · · · P (Acn )(1 − P (An−p ))
= P (A1 ) · · · P (An−p−1 )P (Acn−p )P (Acn−p+1 )P (Acn ).
Ainsi, P(p + 1) est vraie.
En conclusion, pour tout p ∈ J0, nK, P(p) est vraie.
Proposition VII.5
Soient A1 , · · · , An des événements mutuellement indépendants et soit p ∈ J1, n − 1K,
• A1 ∩ · · · ∩ Ap et Ap+1 ∩ · · · ∩ An sont indépendants.
• A1 ∪ · · · ∪ Ap et Ap+1 ∪ · · · ∪ An sont indépendants.

15
• A1 ∩ · · · ∩ Ap et Ap+1 ∪ · · · ∪ An sont indépendants.
• A1 ∪ · · · ∪ Ap et Ap+1 ∩ · · · ∩ An sont indépendants.
Preuve
• On a, par définition de l’indépendance:

P (A1 ∩ · · · ∩ An ) = P (A1) · · · P (An ) = P (A1 ∩ · · · ∩ Ap )P (Ap+1 ∩ · · · ∩ An ).

• D’après la proposition précédente, Ac1 , · · · , Acn sont mutuellement indépendants.


Les événements A = Ac1 ∩ · · · ∩ Acp et B = Acp+1 ∩ · · · ∩ Acn sont donc indépendants par le premier
point. De même Ac = A1 ∪ · · · ∪ Ap et B c = Ap+1 ∪ · · · ∪ An sont indépendants.
• D’après la proposition précédente, A1 · · · ∩ Ap , Acp+1 , · · · , Acn sont mutuellement indépendants.
Les événements A = A1 ∩ · · · ∩ Ap et B = Acp+1 ∩ · · · ∩ Acn sont donc indépendants par le premier
point. De même A et B c = Ap+1 ∪ · · · ∪ An sont indépendants.
• Le dernier point se montre par le précédent.

Nous allons terminer ce chapitre par deux exemples classiques à savoir l’utilisation des probabil-
ités conditionnelles en médecine et le calcul de la fiabilité de réseaux.
VIII Utilisation des probabilités conditionnelles en médecine et calcul de la fiabilité de
réseaux
VIII.1 Utilisation des probabilités conditionnelles en médecine
En médecine, l’utilisation des probabilités conditionnelles est fréquente et apparaît naturelle.
On dira que "un individu a 5 fois plus de chances de développer une maladie coronarienne s’il fume
un paquet de tabac par jour que si il ne fume pas". La connaissance n’est pas figée: avant la
réalisation d’un test, la probabilité d’une maladie est p. Que devient-elle si on sait que le test est
positif?
Soient deux événements non incompatibles A et B: on regarde la probabilité que l’un se réalise alors
que l’autre est déjà réalisé.
Par exemple:
Quelle est la probabilité d’avoir une douleur de la fosse iliaque droite alors que l’on a une appendicite?
Quelle est la probabilité d’avoir une appendicite alors que j’observe une douleur dans la fosse iliaque
droite?
La formule de Bayes(inversion du conditionnement) sera utilisé pour l’ évaluation des examens
complémentaires.
Le tableau à 4 cases
En médecine, des tableaux à 4 cases sont très utilisés et renvoient au conditionnement.
• Evaluation des signes et examens complémentaires.
Maladie + Maladie − Total
Test + a (Vrais positifs) b (Faux positifs) T+=a+b
Test − c (Faux négatifs) d (Vrais négatifs) T-=c+d
Total M+=a+c M-=b+d N=a+b+c+d

P (T + /M +); P (T − /M −); P (M + /T +); P (M − /T −).


Il n’existe pas de signe ou d’examen parfait qui serait toujours présent en cas de présence de la
maladie et absent en cas d’absence de la maladie.
Pour qu’un test diagnostique soit de bonne qualité, il faut obtenir des vrais positifs et vrais négatifs
élevées et des faux positifs et faux négatifs faibles. On va pouvoir étudier la relation entre ces quatres
catégories grâce au calcul de différents paramètres.
Evaluation des examens complémentaires

16
• La prévalence de la maladie dépend de différents facteurs notamment: de la zone géographique
(le paludisme est beaucoup plus fréquent en Afrique qu’en France), de la sélection réalisée par le
premier niveau de soins (la prévalence dans le groupe sélectionné est égale à la V P P du test qui a
servi à la sélection).
La prévalence est la probabilité d’avoir la maladie avant d’avoir fait le test: probabilité pré-test.
a+c
Fréquence de la maladie = Prévalence=P (M +) = .
a+b+c+d
• La sensibilité (probabilités des tests positifs chez les malades) et la spécificité (probabilités des
tests négatifs chez les non malades) sont des caractéristiques intrinsèques du test. Elles supposent
le problème résolu puisqu’un test de référence (gold standard) a permis de déterminer si la personne
était malade ou non. Elles sont influencées notamment par le stade évolutif de la maladie.
La sensibilité est la capacité d’un diagnostic ou d’un test de dépistage à identifier correctement des
individus affectés par une maladie ou par un problème de santé.
a
sensibilité = P (T + /M +) = .
a+c
La spécificité est la capacité d’un diagnostic ou d’un test de dépistage à identifier correctement les
individus non-affectés par une maladie ou par un problème de santé.
d
spécificité = P (T − /M −) = .
b+d
• La valeur prédictive positive (V P P = probabilité d’avoir la maladie si le test est positif) et la
valeur prédictive négative (V P N = probabilité de ne pas avoir la maladie si le test est négatif) sont
les éléments qui servent à la décision médicale. La V P P est la probabilité post-test. Dans le groupe
des sujets ayant un test positif, elle représente la probabilité d’avoir la maladie. Si le généraliste
utilise la positivité du test pour adresser les sujets au spécialiste, la fréquence de la maladie (préva-
lence) dans le groupe adressé au spécialiste sera la V P P .
La V P P est la capacité du test à distinguer les personnes malades (vrais positifs) de l’ensemble des
personnes dont le résultat au test est positif (vrais positifs + faux positifs).
a
V P P = P (M + /T +) =
a+b
La V P N est la capacité d’un test à distinguer les personnes saines (vrais négatifs) de l’ensemble des
personnes dont le résultat au test est négatif (vrais négatifs + faux négatifs).
d
V P N = P (M − /T −) = .
c+d
Les valeurs prédictives dépendent de: la sensibilité du test, la spécificité du test et la prévalence
du test.
Par conséquent, le même test (même sensibilité et spécificité) aura des V P P et V P N très différentes
en fonction de la prévalence de la maladie.
prévalence × sensibilité
V PP = .
prévalence × sensibilité + (1-prévalence) × (1-spécificité)
très différentes en fonction de la prévalence de la maladie.
(1-prévalence) × spécificité
V PN = .
(1-prévalence) × spécificité + (prévalence × (1-sensibilité)
Pour une sensibilité et une spécificité donnée:
• une augmentation de la prévalence entraîne une augmentation de la V P P ;
• une augmentation de la prévalence entraîne une diminution de la V P N .
On peut en déduire d’autres indices (Se=sensibilité, Sp=spécificité):

17
• Rapport de vraisemblance (RV ou LR en anglais pour likelihood ratio). C’est le rapport entre
la fréquence du signe chez les malades et la fréquence du signe chez les non-malades. Ou encore le
rapport de probabilité conditionnelle du signe chez les malades sur la probabilité conditionnelle du
signe chez les non-malades. De manière générale:

taux de vrais positifs Se a/a + c


LR+ = = =
taux de faux positifs 1 − Sp b/b + d

si le signe est associé positivement à la maladie (tabac-cancer du poumon)

taux de faux négatifs 1 − Se c/a + c


LR− = = =
taux de vrais négatifs Sp d/b + d

si le signe est associé négativement à la maladie (vaccin-maladie).


LR+: Combien de fois est-il plus vraisemblable d’être malade (M +) sachant qu’on a le test positif
(T +)?
LR−: Combien de fois est-il plus vraisemblable d’être sain (M −) sachant qu’on a le test négatif
(T −)?

L’utilisation du rapport de vraisemblance est facilité par l’utilisation du nomogramme de Fagan.


Avant de pratiquer le test diagnostique étudié, un patient a une probabilité p0 d’avoir la maladie.
Après le test, cette probabilité sera différente p1 . Le LR d’un test positif permet de calculer cette
probabilité p1 à partir de la connaissance de la probabilité avant le test. La probabilité pré-test
(p
 0 ) ou prévalence
 correspond à la proportion de patients malades au sein de la population générale
a+c
. Sur le diagramme de Fagan tracer la droite passant par les valeurs de prévalence
a+b+c+d
(probabilité p0 pré-test) et de LR; le point d’intersection de cette droite avec l’axe valeur prédictive
détermine la valeur post-test pour le patient considéré.

Si le LR est égal à 1, la probabilité du diagnostic est la même avant et après le test. Le test paraît
donc peu utile. Plus les valeurs du LR s’éloignent de 1 et plus le test présentera de l’intérêt. Des
valeurs supérieures à 10 ou inférieures à 0, 1 sont généralement considérées comme des seuils à partir
desquels la pratique du test entraîne de fortes variations de probabilité de la maladie avant/après le
test susceptibles d’influencer fortement le diagnostic. Les valeurs comprises entre 5 et 10 ou entre
0, 1 et 0, 2 témoignent de modifications importantes dans ces probabilités. Le gain diagnostique
est modéré quand le LR est compris entre 2 et 5 ou entre 0, 2 et 0, 5. En deçà de ces valeurs, les
variations de probabilités sont relativement faibles.
Les valeurs de LR pour un test positif qui sont supérieures à 1 montrent une augmentation de
la confiance dans le diagnostic, alors que les valeurs inférieures à 1 reflètent une infirmation du
diagnostic.
Le LR présente trois avantages importants:
(1) il ne change pas avec la prévalence de la maladie. Il est un bon reflet de la valeur du test
quel que soit le groupe de population auquel celui-ci est appliqué;
(2) il est utilisable pour plusieurs niveaux de résultats d’un test. Pour chaque niveau, il procure
une information différente qui permet d’interpréter au mieux les résultats du test;
(3) il permet de calculer de manière individuelle l’intérêt de réaliser le test à partir de la proba-
bilité initiale de maladie du patient.

18
Exercice 24
Avec le prélèvement de la gorge et l’angine streptococcique

Malades Non-malades Total


Signe présent 27 20 47
Non exposés 3 46 49
Total 30 66 96

Calculer tous les indices définis précedemment.

19
Exercice 25
Le paludisme a une prévalence de 90% en Afrique et de 0, 001 en France. Un test biologique est
utilisé pour le diagnostic avec une sensibilité de 95% et une spécificité de 85%.
1) Quelles seront les probabilités pour des patients Africains et Français d’avoir le paludisme quand
le test est positif et inversement de ne par avoir la maladie quand le test est négatif?
2) Commenter les résultats.

20

Vous aimerez peut-être aussi