0% ont trouvé ce document utile (0 vote)
130 vues13 pages

Cours Bio Stat+L3

Ce document présente un cours de biostatistiques contenant de nombreuses notions de probabilités et statistiques comme les lois usuelles, les variables aléatoires et leur fonction de répartition.

Transféré par

Ninine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
130 vues13 pages

Cours Bio Stat+L3

Ce document présente un cours de biostatistiques contenant de nombreuses notions de probabilités et statistiques comme les lois usuelles, les variables aléatoires et leur fonction de répartition.

Transféré par

Ninine
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours de Biostatistiques

Table des matières

1 Rappel de Probabilités 1
1.1 Notions de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 Dénitions et notations . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.2 Réunion de deux évènements . . . . . . . . . . . . . . . . . . . . . . 1
1.1.3 Intersection de deux évènements . . . . . . . . . . . . . . . . . . . . 2
1.1.4 Système complet d'évènements . . . . . . . . . . . . . . . . . . . . 2
1.1.5 Tribu d'évènements de Ω, espace probabilisable . . . . . . . . . . . 2
1.1.6 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.7 Propriétés élémentaires d'une probabilité . . . . . . . . . . . . . . . 2
1.1.8 Univers équiprobable . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.9 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.10 Formule des probabilités totales . . . . . . . . . . . . . . . . . . . . 3
1.1.11 Formule de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.12 Indépendance de A et B . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Variables aléatoires réelles . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Quelques lois usuelles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.3.1 Lois discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
[Link] Loi de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . 5
[Link] Loi Binomiale . . . . . . . . . . . . . . . . . . . . . . . . . 6
[Link] Loi de Poisson . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.2 Lois continues . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
[Link] Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . 6
[Link] Loi normale centrée réduite . . . . . . . . . . . . . . . . . 7
1.3.3 Loi du Chi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
[Link] Loi de Student . . . . . . . . . . . . . . . . . . . . . . . . 10
[Link] Loi de Fisher-Snédécor . . . . . . . . . . . . . . . . . . . . 11

i
Chapitre 1
Rappel de Probabilités

1.1 Notions de base

1.1.1 Dénitions et notations


− Expérience aléatoire E : une expérience dont le résultat ne peut pas être déterminé
avec certitude.
− L'univers de E , (L'espace échantillonnal), notée Ω est un ensemble de tous résultats
possibles de l'expérience aléatoire E .
− Le résultat élémentaire de E , notée ω et un résultat possible de Ω.
− Ensemble P (Ω) des parties de Ω : ensemble constitué de tous les sous-ensembles
(parties) de Ω.
− Evènement aléatoire : une partie ( un sous-ensemble) de Ω.
− Réalisation d'un évènement : Soit A un évènement de Ω, et soit ω le résultat de
l'expérience;
A se réalise ⇔ ω ∈ A.
− Complémentaire de A, notée Ā ou A : évènement constitué des résultats élémen-
c

taires de Ω qui ne sont pas dans A. Soit ω le résultat de l'expérience :


Ā = {ω ∈ Ω, ω ∈
/ A}

1.1.2 Réunion de deux évènements


− Réunion de A et B : évènement constitué des résultats élémentaires de Ω qui ap-
partiennent à A ou à B ou aux deux. Soit ω le résultat de l'expérience :
A ∪ B = {ω ∈ Ω, ω ∈ A ou ω ∈ B}.

1
1.1.3 Intersection de deux évènements
− Intersection de A et B : évènement constitué des résultats élémentaires de Ω qui
appartiennent à la fois à A et à B. Soit ω le résultat de l'expérience :
A ∩ B = {ω ∈ Ω, ω ∈ A et ω ∈ B}.

1.1.4 Système complet d'évènements


Soient A , A , ..., A n évènements. On dit que (A , A , ..., A ) constituent un système
complet d'évènements s'ils forment une partition de Ω :
1 2 n 1 2 n

1. ∀i ∈ {1, ..., n}; A 6= ∅,


2. Ils sont deux à deux disjoints : ∀i 6= j; A ∩ A = ∅.
i

3. Leur réunion est l'évènement certain Ω : A ∪ A ∪ ... ∪ A = Ω.


i j
1 2 n

1.1.5 Tribu d'évènements de Ω, espace probabilisable


− Soit A une famille de parties de Ω. On dit que A est une tribu ou σ− algèbre sur
Ω si elle vérie :
1. ∅ ∈ A , Ω ∈ A .
2. A est stable par union dénombrable, c'est-à-dire que pour toute famille dénom-
brable (A ) d'éléments de Ω, on a ∪ A ∈ Ω.
3. A est stable par intersection dénombrable, c'est-à-dire que pour toute famille dé-
n n∈N n∈N n

nombrable (A ) d'éléments de Ω, on a ∩ A ∈ Ω.
4. A est stable par passage au complémentaire, c'est-à-dire que pour tout A ∈ A , on
n n∈N n∈N n

a Ā ∈ A .
− (Ω, A ) est dit un espace probabilisable.

1.1.6 Probabilité
Soit (Ω, A ) est dit un espace probabilisable. Une probabilité sur (Ω, A ) est une appli-
cation P : A → [0, 1] telle que :
 0 ≤ P(A) ≤ 1, ∀A ∈ A
 P(Ω) = 1 P
 P(∪ A ) = P(A ), ∀(A ) ensemble d'énombrable d'évènements disjoints.
i∈N i i∈N i i i∈N

1.1.7 Propriétés élémentaires d'une probabilité


 0 ≤ P(A ) ≤ 1.
 P(Ā) = 1 − P(A).
i

 P(∅) = 0.
 A ⊂ B ⇒ P(A) ≤ P(B).
 P(A ∪ B) =PP(A) + P(B) − P(A ∩ B).
P(∩i Ai ) ≤ i P(Ai ).

2
1.1.8 Univers équiprobable
Univers équiprobable est un ensembe Ω dont tous les évènements élémentaires ont la
même probabilité.
Si Ω contient N éléments, alors :
1
p1 = p2 = ... = pN = .
N
Si A ⊂ Ω et si A contient n éventualités, alors :
n nombre de cas favorables .
P(A) =
N
=
nombre de cas possibles
1.1.9 Probabilité conditionnelle
Soit A et B deux événements tels que P(B) 6= 0. La probabilité conditionnelle de A
par rapport à B, est donnée par :
P(A ∩ B)
P(A|B) = .
P(B)

1.1.10 Formule des probabilités totales


Si les événements B , B , ..., B forment une partition de Ω
1 2 n

P(A) = P(B1 )P(A|B1 ) + P(B2 )P(A|B2 ) + ... + P(Bn )P(A|Bn )


Xn
= P(Bi )P(A|Bi ).
i=1

1.1.11 Formule de Bayes


Si P(A) 6= 0 et P(B) 6= 0 alors
P (A)P (B|A)
P (A|B) = .
P (B)

Formule de Bayes − Si les événements A1 , A2 , ..., An forment une partition de Ω alors


P(Ai )P(B|Ai )
P(Ai |B) = Pn .
i=1 P(Ai )P(B|Ai )

1.1.12 Indépendance de A et B
Deux événements A et B sont dits indépendants (A q B) si et seulement si
P(A ∩ B) = P(A)P(B).

3
1.2 Variables aléatoires réelles

Denition 1.2.1 Une variable aléatoire réelle X est une application qui à tout élément
ω de ω associe un nombre réel x
X : Ω −→ R
ω 7→ x.

Denition 1.2.2 • Une variable aléatoire discrète est une variable aléatoire dont le do-
maine de variation contient un nombre ni ou une innité dénombrable de valeurs.
• Une variable aléatoire continue est une variable aléatoire dont le domaine de varia-
tion contient une innité non dénombrable de valeurs

Denition 1.2.3 Soit X une variable aléatoire discrète telle que ΩX = x1 , ..., xN . La
loi de probabilité de X est caractérisée par sa fonction de probabilité qui donne, pour
touti ∈ 1, ..., N
pi = P(X = xi ).

Propriétés.
 p = 1.
N
X
i

 ∀A ⊂ Ω, P(A) =
i=1 X
pi .
i,xi ∈A

Denition 1.2.4 Soit X une variable aléatoire continue. On appelle densité de probabilité
la fonction f (x) dénie par :
P(X ∈ [x; x + ])
f (x) = lim .
→0 
Propriétés.
 fZ(x) ≥ 0, ∀x ∈ R.

+∞
f (x) = 1.
−∞

1.2.1 Fonction de répartition


On appelle fonction de répartition la fonction F dénie par :
F : DX → [0, 1]
xi 7→ P(X ≤ xi )

Propriétés.
1. F (x) ∈ [0, 1]
2. F est une fonction croissante
3. lim F (x) = 0
x→−∞

4
4. lim F (x) = 1
5. Pour une variable aléatoire discrète, F est une fonction en escaliers. Pour une
x→+∞

variable aléatoire continue, F est une fonction continue


1. L'espérance E(X) d'une variable aléatoire X est dénie par :
a. Cas discret
NX
:
E(X) = xi p i .

b. Cas continu
i=1
Z +∞
:
E(X) = xf (x)dx.
2. La variance V ar(X) d'une variable aléatoire X est dénie par :
−∞

V ar(X) = E(X − E(X))2 = E(X 2 ) − E(X)2 .

3. L'écart-type est déni par :


p
σX = V ar(X).

4. La covariance de X et Y est dénie par :


Cov(X, Y ) = E((X − E(X))(Y − E(Y ))) = E(XY ) − E(X)E(Y ).

1.3 Quelques lois usuelles

1.3.1 Lois discrètes


[Link] Loi de Bernoulli
La loi de Bernoulli est la loi d'une variable aléatoire discrète X qui prend la valeur 1
avec probabilité p et la valeur 0 avec probabilité 1 − p. Elle est notée par B (p).
La fonction de probabilité est donnée par

 p, x=1;
P(X = x) = 1 − p, x=0;

0, sinon.
L'espérance de la variable de Bernoulli :
2
X
E(X) = pi xi = p × 1 + (1 − p) × 0 = p.
i=1

La variance de la variable de Bernoulli


1
X
V (X) = x2i pi − E(X)2 = 1 − p.
i=

5
[Link] Loi Binomiale
La loi binomiale est une loi de probabilité discrète qui décrit le nombre de réussites
parmi un ensemble d'expériences aléatoires et indépendantes. Elle est notée par B (n, p)
avec n le nombre d'expériences et p la probabilité de réussite à chaque expérience.
La fonction de probabilité est donnée par :
 
n k
P(X = k) = p (1 − p)n−k , k = 1, ...n,
k

où n

= Cnk = p!
.
L'espérance de la loi Binomiale :
k p!(n−p)!

E(X) = np.

La varaince de la loi Binomiale :


V ar(X) = np(1 − p).

[Link] Loi de Poisson


La loi de Poisson (introduite en 1838 par Siméon Denis Poisson, 1781-1840) est une loi
de probabilité discrète qui décrit le comportement du nombre d'évenements aléatoires et
indépendants se produisant dans le même intervalle de temps ou d'espace. Elle est notée
par P (λ) avec λ l'espérance et la variance de la loi. Si le nombre moyen d'occurrences dans
un intervalle de temps xé est λ, alors la probabilité qu'il existe exactement k occurrences
(k étant un entier naturel, k = 0,1,2,...) est
λk −λ
P(X = k) = e , k = 1, ...n.
k!
L'espérance de la loi de Poisson :
E(X) = np.
La variance de la loi de Poisson :
V ar(X) = np(1 − p).

1.3.2 Lois continues


[Link] Loi normale
La loi normale (ou loi de Gauss-Laplace) est la loi de probabilité des variables aléatoires
continues dépendantes d'un grand nombre de causes indépendantes et additives. Elle est

6
notée par N (µ; σ ) avec µ l'espérance de la loi et σ la variance. La densité de probabilité
2 2

de la loi normale est donnée par :


1 1 x−µ 2
f (x) = √ e− 2 ( σ ) .
σ 2π
La courbe de cette densité est appelée courbe de Gauss.
La fonction de répartition est comme suit :
Z x
1 1 x−µ 2
F (x) = √ e− 2 ( σ ) dx.
−∞ σ 2π
L'espérance de la loi normale :
E(X) = µ.
La variance de la loi normale :
V ar(X) = σ 2 .
La densité.

[Link] Loi normale centrée réduite


La loi normale de moyenne nulle et d'écart type égale à 1 est appelée loi normale
centrée réduite (N (0, 1)). La densité de probabilité est donnée par :
1 1 2
f (t) = √ e− 2 t .

Propriété :
• Si X N (µ, σ ), alors T =
2 X−µ

σ2
N (0, 1).
• f est une fonction paire; f (−t) = f (t).

7
• P(X = a) = 0.
• P(X < a) = P(X ≤ a)
• P(X > a) = 1 − P(X ≤ a)
• P(X ≤ −a) = P(X ≥ a) = 1 − P(X < a)
• P(−a ≤ X ≤ a) = P(|X| ≤ a) = 2P(X ≤ a) − 1.
Allure de la densité normale centrée réduite

Table de la loi N (0, 1) Soit Z une variable aléatoire normale centrée réduite. An
de calculer des probabilités du type P(X > t), P(X < t), P(|X| > t), et P(t < X < t )
quand X suit une loi normale N (µ, σ ), on doit suivre les étapes suivantes :
1 2
2

Etape 1 :Reexprimer les probabilités qu'on veut calculer avec la v.a. centrée réduite
X−µ
Z= σ
.

Etape 2 :En utilisant les propriétés citées ci-dessus, on se ramene à des probabilités
du type P(Z ≤ z) pour certains z ≥ 0.
Etape 3 :Utiliser la table de la loi normale standard N (0, 1).
Exercice 1 Si X N (3, 0.25), calculer P(X > 3.5).
Pour calculer cette probabilité, on doit d'abord centrer et réduire, an d'obtenir une v.a.
Z N (0, 1), d'où
X −2
Z=√ .
0.25
Par conséquent,
P(X > 3.5) = P( √X−2
0.25
> 3.5−3

0.25
)
= P(Z > 1)
= 1 − P(Z < 1)
= 1 − 0.8413 (via la table de la loi N (0, 1)).
= 0.1587

8
Theorem 1.3.1 Soit X1 , ..., Xn n variables aléatoires indépendantes et identiquement
distribuées d'espérance µ et de variance σ 2 :
n
X
1
n n
Xi − µ
X L i=1 L
Y = Xi N (nµ, nσ 2 ) ⇔ p N (0, 1).
i=1 σ 2 /n

1.3.3 Loi du Chi-deux


Denition 1.3.1 Soient X1 , ..., Xn n variables aléatoires indépendantes et identiquement
distribuées de loi normale centrée réduite. La variable aléatoire Y = X12 + ... + Xn2 suit la
du loi χ2 à n degrés de liberté :
n
X
Y := Xi2 χ2n .
i=1

Quelques propriétés Y ≥ 0, Yn'est pas donc symétrique.


Y admet une densité.
L'espérance de Y : E(Y)=n.
La variance de Y : V(Y)=2n.
Si Y χ et Y χ avec Y indépendante de Y , alors Y = Y
1
2
n1 1
2
n2 1 2 1 + Y1 χ2n1 +n2 .

9
[Link] Loi de Student
Denition 1.3.2 Soient X et Y deux variables aléatoires indépendantes telles que X
N (0, 1) et Y χ2n . La variable aléatoire

X
T =p .
Y /n

suit une loi continue dite loi de Student à n degrés de liberté, notée Tn .

L'espérance de la loi de student : E(T ) = 0.


La varaince de la loi de student : V (T ) = n
n−2
, n > 2.
Allure de la densité de Student

10
[Link] Loi de Fisher-Snédécor
Denition 1.3.3 Soient Y1 et Y2 deux variables aléatoires indépendantes telles que Y1
χ2n1 et Y2 χ2n2 . La variable aléatoire

Y1 /n1
Z=
Y2 /n2

suit la loi de Fisher-Snédécor à n1 et n2 degrés de liberté, notée F (n1 ; n2 ).

L'epérance de la variable de Fisher-Snédécor Z : E(Z) = , n n2


n2 −1 2 > 2.

La variance de la variable de Fisher-Snédécor Z : V (Z) = 2


 
n2 2(n1 +n2 −2)
n2 −2 n1 (n2 −4)
, n2 > 4.

Remarque : Si Z 1 F (n ; n ) alors Z = 1/Z


2 1 2 F (n ; n ).
1 1 2
Allure de la densité de Fisher-Snédécor

11

Vous aimerez peut-être aussi