Draft: Statistiques pour les données
Roméo Awi
1
Part I
Introduction Pratique à la
statistique
1 Outils technologiques
1.0.1 Python Packages
Installer Python et pip
Packages utiles
2
1.0.2 Dans le cloud
2 Régression linéaire simple
2.1 Coefficients
On nous donne les données sous la forme
{(xi , yi )}ni=1 .
On émet l’hypothèse qu’il y a une relation linéaire entre x et y
de la forme
y = b0 + b1 x.
3
Le but est de trouver b0 et b1 qui minimisent la somme résiduelle
des carrés (RSS) suivante
n
X n
X
2
RSS = (yi − ŷi ) = [yi − (b0 + b1 xi )]2 .
i=1 i=1
La première dérivée partielle par rapport à b0 devrait être nulle.
D’où:
n
∂E X
0= = −2[yi − (b0 + b1 xi )]
∂b0 i=1
= − 2n[ȳ − b0 − b1 x̄].
On a
b0 = ȳ − b1 x̄. (1)
4
De plus, la première dérivée partielle par rapport à b1 devrait
également être nulle. On a:
n
∂E X
0= = −2xi [yi − (b0 + b1 xi )]
∂b0 i=1
Xn n
X
= − 2[ xi yi − nb0 x̄ − b1 x2i ]
i=1 i=1
n n
)
X X
=−2 xi yi − n(ȳ − b1 x̄)x̄ − b1 x2i
i=1 i=1
Ainsi Pn
xi yi − nx̄ȳ
b1 = Pi=1
n 2 2
. (2)
i=1 xi − nx̄
5
2.2 Autre expression de b1 .
n
X n
X n
X
(xi − x̄)(yi − ȳ) = xi (yi − ȳ) − x̄ (yi − ȳ)
i=1 i=1 i=1
n
X
= xi (yi − ȳ)
i=1
Xn n
X
= xi yi − ȳ xi
i=1 i=1
n
X
= xi yi − nx̄ȳ
i=1
6
Ainsi:
n
X n
X n
X
(xi − x̄)(yi − ȳ) = xi (yi − ȳ) = xi yi − nx̄ȳ (3)
i=1 i=1 i=1
De la meme facon ( en posant yi = xi ), on obtient:
n
X n
X n
X
2
(xi − x̄) = xi (xi − x̄) = x2i − n(x̄)2 (4)
i=1 i=1 i=1
En utilisant les équations (2), (3) et (4) on obtient
Pn
(x − x̄)(yi − ȳ)
b1 = i=1 Pn i 2
. (5)
i=1 (xi − x̄)
7
2.3 Exemple.
Les statistiques suivantes sont données.
X
x̄ = 5; ȳ = 7; (xi − x̄)(yi − ȳ) = 100;
X X
(xi − x̄)2 = 25; (yi − ȳ)2 = 16.
Déterminer l’équation de la droite de regression linéaire.
Solution.
Pn
(x − x̄)(yi − ȳ) 100
Pn i
b1 = i=1 2
= = 4.
i=1 (xi − x̄) 25
b0 = ȳ − b1 x̄ = 7 − 4(5) = −13.
8
2.4 Exemple 2.
Les statistiques suivantes sont données pour 4 observations.
X X X
yi = 10; xi = 10; xi yi = 21;
X X
x2i = 30; yi2 = 30.
Déterminer l’équation de la droite de regression linéaire.
Solution.
Pn
xi yi − nx̄ȳ 21 − 4(10)(10) 379
b1 = Pi=1
n 2
= 2
= .
i=1 (xi − x̄) 30 − 4(10) 370
10 379 10 90 9
b0 = ȳ − b1 x̄ = − = = .
4 370 4 370 ∗ 4 148
9
3 Régression linéaire multiple
Les données sont modélisées pour n observations comme suit:
yi = b0 + xi1 b1 + · · · + xip bp .
Sous forme matricielle
y = Ab
ou
a1 1 x11 · · · x1p b1
a2 1 x21 · · · x2p b2
.. =
.. ..
. . .
on 1 xn1 · · · xnp bp
10
Nous minimisons
n
X
SS = ∥y − ŷ∥ =2
(yi − ŷi )2 = (y − Ab)′ (y − Ab)
i=1
Le dérivé par rapport à b est:
∂SS
=(−A)′ (y − Ab) + (y − Ab)′ (−A)
∂b
=A′ Ab + b′ A′ A − A′ y − y ′ A
=2(A′ Ab − A′ y).
Si A′ A est inversible, alors
b = (A′ A)−1 A′ y.
11
Part II
Rappel de probabilité
4 Bases
4.1 Dénombrement
4.1.1 Cardinal d’un ensemble
Nombre d’éléments dans l’ensemble.
12
4.1.2 Loi d’addition
Si A et B sont disjoints, alors
n(A ∪ B) = n(A) + n(B).
En général,
n(A ∪ B) = n(A) + n(B)−n(A ∩ B).
B
A
13
4.1.3 Cardinal, union et intersection
A C
n(A ∪ B ∪ C) =n(A) + n(B) + n(C)
− n(A ∩ B) − n(A ∩ C) − n(B ∩ C)
+ n(A ∩ B ∩ C)
14
4.1.4 Loi de multiplication
Produit cartésien.
n(A × B) = n(A) · n(B).
4.1.5 Permutation
n!
Pnk = (n−k)!
4.1.6 Combinaisons
n!
Cnk = k!(n−k)!
15
4.2 Axiomes de la probabilité
1. 0 ≤ P r(A) ≤ 1
2. P r(Ω) = 1
P∞
3. P r(∪∞
i=1 Ai ) = i=1 P r(Ai )
pour une famille disjointe.
4.3 Exercises
4.3.1 Problème: D’après SOA Exam P. Sample No. 1
Dans un groupe,
28% ont regardé gymnastics
16
29% ont regardé baseball
19% ont regardé soccer
14% ont regardé gymnastics et baseball
12% ont regardé baseball et soccer
10% ont regardé gymnastics et soccer
8% ont regardé tous les 3 sports.
Quel est le pourcentage de ceux qui n’ont regardé aucun sport?
17
Solution Modélisation:
P r(G) = 28% : gymnastics
P r(B) = 29% : baseball
P r(S) = 19% : soccer
P r(B ∩ G) = 14% : gymnastics et baseball
P r(B ∩ S) = 12% : baseball et soccer
P r(G ∩ S) = 10% : gymnastics et soccer
P r(G ∩ B ∩ S) = 8% : tous les 3 sports.
On veut P r(Gc ∩ B c ∩ S c ).
18
P r(Gc ∩ B c ∩ S c ) =P r((G ∪ B ∪ S)c )
=1 − P r(G ∪ B ∪ S)
=1 − (P r(G) + P r(B) + P r(S)
− P r(B ∩ G) − P r(B ∩ G) − P r(B ∩ G)
+ P r(G ∩ B ∩ S))
=1 − (.48)
=.54
19
4.3.2 Probleme 2: D’après SOA exam P N0. 5
10 000 assurés. Chaque assuré est classé comme:
(i) jeune ou vieux;
(ii) homme ou femme ; et
(iii) marié ou célibataire.
Parmi ces assurés,
3000 jeunes, 4600 hommes et 7000 mariés.
1320 jeunes hommes, 3010 hommes mariés et 1400 jeunes
mariés.
600 jeunes hommes mariés.
Combien sont jeunes, femmes et célibataires ?
20
Solution Modelisation:
n(J) = 3000; n(H) = 4600 ; P r(M ) = 7000
n(J ∩ H) = 1320; n(H ∩ M ) = 3010; n(J ∩ M ) = 1400
n(J ∩ H ∩ M ) = 600.
On veut n(J ∩ H c ∩ M c ).
Rappel
n(A) = n(A ∩ B) + n(A ∩ B c ).
Ainsi
n(A ∩ B c ) = n(A) − n(A ∩ B).
21
n(J ∩ H c ∩ M c ) =n(J ∩ H c ) − n(J ∩ H c ∩ M )
=n(J) − n(J ∩ H) − (n(J ∩ M ) − n(J ∩ H ∩ M ))
=3000 − 1320 − 1400 + 600
=880.
4.4 Probabilité conditionnelle
4.4.1 Définition
Pr (A∩B)
Pr (A|B) = Pr (B)
4.4.2 Intersection et probabilité conditionnelle
Pr (A1 ∩ · · · ∩ An ) = Pr (A1 )Pr (A2 |A1 ) · · · Pr (An |A1 ∩ · · · ∩ An−1 )
22
Exemple: SOA Exam P No. 19.
Statistiques d’une compagnie d’assurance.
Age du Probabilité Proportion
conducteur d’un accident des assurés
16-20 .06 .08
21-30 .03 .15
31-65 .02 .49
66-90 .04 .28
Un conducteur choisi a tout hasard a un accident. Quelle est
la probabilité que le/la conducteur/trice ait un age entre 16 et
20 ans.
23
Solution Modélisation:
A: age entre 16 et 20 ans
B: Il y a accident.
P r(A ∩ B)
P r(A|B) =
P r(B)
(.06)(.08)
= .
(.06)(.08) + (.03)(.15) + (.02)(.49) + (.04)(.28)
4.4.3 Loi de Bayes
Pr (A|Hi )Pr (Hi )
Si les Hi sont mutuellement exclusifs, Pr (Hi |A) = Pr (A)
et
Pr (A) = Σni=1 Pr (A|Hi )Pr (Hi ).
24
4.4.4 Indépendance
A et B sont indépendants signifie Pr (A|B) = Pr (A) ce qui signifie
également Pr (A ∩ B) = Pr (A)Pr (B).
5 Variables aléatoires
5.1 Fonction de distribution
5.1.1 Distribution de probabilité ou fonction de masse
de probabilité (pmf )
P (x) = Pr (X = x)
25
5.1.2 Fonction de distribution ou fonction de distribu-
tion cumulative
F (a) = Pr (X ≤ a) = Σx≤a P (x).
5.1.3 Fonction de survie
S(a) = Pr (X > a) = 1 − F (a).
5.1.4 Variable aléatoire de décompte.
Modéliser par une suite positive dont la somme est 1.
∞
X
pn ∈ [0, 1] and pn = 1.
n=0
26
Exemple: SOA Exam P. No. 14
1
pn = pn−1
5
Trouver P r(n > 1).
Solution Suite géométrique de raison 51 .
∞
X p0 − p0 ( 51 )n 5
pn = lim 1 = p0
n=0
m→∞ 1− 5 4
Alors p0 = 45 . On veut
4 1 4 25 − 20 − 4 1
P r(n > 1) = 1 − p0 − p1 = 1 − − ( )= = .
5 5 5 25 25
27
5.2 Statistiques associées à une variable aléatoire
5.2.1 Espérance mathématique
E(X) = Σxi P (xi ).
On a E(g(X)) = Σg(xi )P (xi ).
Autre expression de l’espérance mathématique.
p1
p2 p2
p3 p3 p3
X ∞ X
X ∞
ipi = pj
i=1 j=i
28
Exemple.
λn
pn = e−λ .
n!
Ceci est bien définie car
n X λn
−λ λ
X
−λ
e =e = e−λ eλ = 1.
n! n!
X λn X λn−1 λ X λn−1
E(X) = ne−λ = e−λ = e−λ λ = λ.
n! (n − 1)! (n − 1)!
Example. pour q ∈ (0, 1):
pn = (1 − q)q n .
29
Remarquer que
∞ ∞
X X 1
pi = (1 − q)q i = (1 − q)q j = qj .
i=j i=j
1−q
Ainsi ∞
X
pi = q 0 = 1.
i=0
Ensuite
∞ ∞ X
∞ ∞
X X X q
E(X) = ipi = pj = qi = .
i=1 i=1 j=i i=1
1−q
5.2.2 Variance
2
V ar(X) = σX = E([X − E(X)]2 ) = E(X 2 ) − [E(X)]2 .
30
5.2.3Ecart type
p
σX = V ar(X).
5.2.4 p-ieme centile
Réel x tel que Pr (X < x) ≤ p ≤ Pr (X ≤ x).
5.2.5 Coefficient de variation
σX
c= µX
.
5.2.6 Variance et transformation affine
V ar(aX + b)=a2 V ar(X)
31
5.2.7 Minimum de deux variable aléatoires
Pr (min(X, Y ) > z) = Pr (X > z et Y > z).
5.2.8 Moments d’odre 1 et 2.
E(X 2 ) = V ar(X) + (E(X))2 ̸= V ar(X). E(aX 2 + bX + c) =
2
a(σX + µ2X ) + bµX + c.
5.2.9 Moyenne vs Médiane
La moyenne est E(X) tandis que la médiane est donnée par
Pr (X ≤ x) = 0.5.
32
5.2.10 Mode
C’est x pour lequel P (x) de f (x) est le maximum.
6 Variables aléatoires discrètes usuelles
6.1 Variable aléatoire Binomiale ou de Bernoulli
[Paramètres : n, p]. X est le nombre de succès après n indépendant
Essais de Bernoulli avec probabilité de succès p.
P (x) = Cnx px (1 − p)n−x
pour x = 0, · · · , n ;
E(X) = np; V ar(X) = np(1 − p).
33
Si X est un binôme de paramètre (n, p), Y est un binôme de
paramètre (m, p) et X et Y sont indépendants, alors X + Y est
un binôme avec paramètre (n + m, p).
6.2 Variable aléatoire de Poisson
k
[Paramètre λ > 0]. P (x) = e−λ λk! . E(X) = λ; V ar(X) = λ.
Si X est Poisson avec le paramètre λ1 , Y est Poisson avec le
paramètre λ2 et X et Y sont indépendants, alors X + Y est
Poisson de paramètre λ1 + λ2 .
34
6.3 Variable aléatoire géométrique
[Paramètre p ] X est le nombre d’essais de Bernoulli indépendants
successifs nécessaires pour obtenir le premier succès.
P (x) = p(1 − p)x−1 .
E(X) = p−1 . V ar(X) = 1−pp2
. P (X ≤ x) = 1 − (1 − p)x .
C’est une variable dite “sans memoir“
P (X > m + n|X > n) = P (X > m).
6.4 Variable aléatoire Binomiale négative
[Paramètre p, k ]. X est le nombre d’essais de Bernoulli indépendants
successifs nécessaires pour obtenir le k ieme succès.
k−1 k
P (x) = Cx−1 p (1 − p)x−k .
35
E(X) = kp−1 . V ar(X) = k 1−p
p2
.
6.5 Variable aléatoire hypergéométrique
[Paramètre r, n, N ]. L’ensemble A est un sous-ensemble de n
éléments de Ω qui est un ensemble de N éléments. On choisit
r éléments dans Ω. X est le nombre d’éléments parmi les r
elements choisis qui appartienent a A.
Cnx CNk−x
−n
P (x) = .
CNk
nr nr N −r N −n
E(X) = N
. V ar(X) = N N N −1
.
36
7 Variable aléatoire continue
La variable aléatoire X est continue avec la Rfonction de densité
de probabilité (pdf) f lorsque Pr (X ∈ B) = B f (x)dx.
Ainsi: Z t
F (t) = Pr (X ≤ t) = f (x)dx.
−∞
Par ailleurs:
Z
E(X) = xf (x)dx
R
Z
E(g(X)) = g(x)f (x)dx
ZR
V ar(X) = (x − E(X))2 f (x)dx.
R
37
7.1 Fonction d’une variable aléatoire continue
Si X ∼ fX ; Y = g(X) et g est monotone dérivable alors
d −1
fY = fX [g −1 (y)] g (y) .
dy
7.2 Distribution uniforme
(
1
b−a
sur [a, b]
f (x) = .
0 sinon
a+b (a−b)2
On a alors: E(X) = 2
. V ar(X) = 12
.
38
7.3 Variable aléatoire Normale
[Paramètres µ et σ 2 ].
1 (x−µ)
f (x) = √ e− 2σ2 .
σ 2π
E(X) = µ. V ar(X) = σ 2 .
Transformation affine. Si Y = aX + b alors Y est la distri-
bution normale avec les paramètres aµ + b et a2 σ 2 .
Normale standard. La normale Z a des paramètres (0, 1).
Pr (X ≤ a) = Pr (Z ≤ a−µ
σ
).
39
Somme. Si X ∼ N (µ1 , σ12 ), Y ∼ N (µ2 , σ12 ) et X et Y sont
indépendants, alors X + Y ∼ N (µ1 + µ2 , σ12 + σ22 ).
7.4 Variable aléatoire exponentielle
[Paramètre: λ]
(
λe−λx pour x ≥ 0
f (x) = .
0 sinon
E(X) = λ1 . V ar(X) = λ12 .
La médiane m est caractérisée par mλ = ln 2. On a F (t) =
1 − e−t/λ .
40
Minimum. Le minimum de variable aléatoires exponentiels
indépendants est un variable aléatoires exponentiel. avec paramètre
la somme des paramètres.
7.5 Variable aléatoire de Gamma
[Paramètres : α > 0 (forme), λ (échelle)].
( −λx α−1
λe (λx)
Γ(α)
pour x ≥ 0
f (x) = .
0 sinon
Ici Z ∞
Γ(α) = e−x xα−1 dx.
0
41
E(X) = αλ . V ar(X) = λα2 .
Si (α, λ) = (1, λ) nous récupérons la variable aléatoire exponen-
tielle.
Si (α, λ) = ( n2 , 12 ) on retrouve la variable Chi-carré avec n degrés
de liberté.
42
Part III
Statistiques
8 Simulation : Méthode d’inversion
Principe. Les petits nombres aléatoires uniformes correspon-
dent à de petites valeurs simulées.
Méthode. La variable aléatoire X est simulée par FX−1 (U ) avec
U distribution uniforme sur [0, 1] : u = FX (x).
Exemple. La durée entre deux pluies dans le mois de décembre
dans une région suit une loi exponentielle de moyenne m = 10.
43
On simule la durée par les nombres uniforme suivants:
0.9, 0.3, 0.11, 0.67.
Calculer la moyenne des nombres ainsi obtenus.
Solution Ici FX (t) = 1 − e−mt . On résout
u =1 − e−mt
e−mt =1 − u
−mt = ln(1 − u)
t = − m−1 ln(1 − u)
On complète le tableau suivant:
u 0.9 0.3 0.11 0.67
−1
t = −m ln(1 − u)
44
Cas d’une distribution non-continue.
+ Si FX a un saut à x = c; FX (c−) = y1 ; FX (c+) = y2 alors
y1 ≤ u ≤ y2 est simule c.
+ Si FX (x) = y0 sur [a, b] alors y0 simule b.
Exemple. On considère une loi avec la fonction de distribu-
tion suivante.
45
Intervalle [0,1) [1,2.5) [2.5,3) [3,5) [5,6) [6, ∞)
4 6 9 11
valeur 0 12 12 12 12
1
3 4 5 11
u 12 12 12 12
x 1 2.5 2.5 6
46
9 Distributions empiriques
9.1 Distribution empirique pour les données
individuelles
Notations.
L’échantillon : x1 ≤ x2 ≤ · · · ≤ xn
cdf : Fn (x) = (#xni ≤x) .
Ensemble de valeurs observées : y1 < y2 < · · · < yk .
sj = (#xi = yj )
Ensemble de risques rk = ki=j si .
P
0,
si x < y1
rj
Fn (x) = 1 − n , if yj−1 ≤ x < yj
1, if x ≥ yk
47
Exemple On considère les nombres
1, 1, 1, 1, 2.5, 2.5, 3, 3, 3, 5, 5, 6
Trouver la fonction de la distribution empirique associée a cette
donnée.
Solution
y1 = 1; y2 = 2.5; y3 = 3; y4 = 5; y5 = 6
Ici n = 12.
s1 = 4; s2 = 2; s3 = 3; s4 = 2; s5 = 1.
On a alors
r1 = 12; r2 = 8; r3 = 6; r4 = 3; r5 = 1.
48
La fonction de distribution prend alors les valeurs suivantes
Intervalle [0,1) [1,2.5) [2.5,3) [3,5) [5,6) [6, ∞)
4 6 9 11
valeur 0 12 12 12 12
1
49
9.2 Distribution empirique des données groupées
Les données sont regroupées par intervalles
(c0 , c1 ], (c1 , c2 ], · · · , (ck−1 , ck ].
nj = (#xi ∈ (cj−1 , cj ]) et n = kj=1 nj .
P
1
Pj
cdf. Fn (cj ) = n i=1 ni . Pour cj−1 ≤ x < cj
Fn (cj ) − Fn (cj−1 )
Fn (x) = Fn (cj−1 ) + (x − cj−1 )
cj − cj−1
Le graphe de Fn est appelé ogive.
50
Exemple. On étudie la taille au sein d’une population de
souris et on relève le nombre d’individus
Taille (1,2.5] (2.5,3] (3,5] (5,6] (6, 7]
Nombre 4 2 3 2 1
Valeurs au points frontières
cj 1 2.5 3 5 6 7
Fn (cj ) 0 4/12 6/12 9/12 11/12 1
2 4 6 8
51
pdf. Pour cj−1 ≤ x < cj
Fn (cj ) − Fn (cj−1 ) nj
fn (x) = =
cj − cj−1 n(cj − cj−1 )
Le graphique de fn est appelé histogramme.
9.3 Lissage du noyau
m
X m
X
F (x) = p(xi )Keri (x) et f (x) = p(xi )keri (x).
i=1 i=1
52
Noyau uniforme avec bande passante b.
0,
si x < y − b
1
kery (x) = 2b , if y − b ≤ x ≤ y + b
0, si x > y + b
0,
si x < y − b
x−y+b
Kery (x) = , if y − b ≤ x ≤ y + b
2b
1, si x > y + b
53
Noyau triangulaire avec bande passante b.
0, si x < y − b
x−y+b , if y − b ≤ x ≤ y
b2
kery (x) = y+b−x
2 , if y ≤ x ≤ y + b
b
0, si x > y + b
0, si x < y − b
(x−y+b)2 ,
if y − b ≤ x ≤ y
2b
Kery (x) = (y+b−x)2
1− 2b
, if y ≤ x ≤ y + b
1, si x > y + b
− αx
xα−1 e y
noyau gamma. kery (x) = (αy α
) Γ(α)
.
54
10 Estimation des paramètres
10.1 Estimations des paramètres : méthode
des centiles
g100 tieme centile lissée. Les données sont triées x1 ≤ x2 ≤
· · · ≤ xn .
1. Trouver l’entier k tel que k ≤ g(n + 1) ≤ k + 1.
2. π̂g = xk + (g(n + 1) − k)(xk+1 − xk ) (interpolation linéaire).
Exemple. Trouver les paramètres d’une loi exponentielle as-
sociée aux nombres
2, 2, 2, 3, 3, 4
55
en utilisant le 50 ieme centile.
Solution. 3 ≤ 3.5 ≤ 4. On a donc
2 + .5(3 − 2) = 2.5
On résout ensuite
.50 = 1 − e−2.5/λ .
10.2 Estimations de paramètres : méthode
des moments
1
Pn
L’estimation empirique du k th moment n i=1 xki correspond à
celui du modèle.
56
Exemple. Trouver les paramètres d’une loi de poisson associée
aux nombres
2, 2, 2, 3, 3, 6
en utilisant le premier moment.
Solution. On a x̄ = 3. Il s’en suit que λ = 3.
10.3 Estimateur de probabilité maximale (MLE)
Fonction de vraisemblance
Y
L(θ) = f (xi |θ).
i
57
Fonction de vraisemblance pour les données groupées
Y
L(θ) = [F (cj |θ) − F (cj−1 |θ).]
j
Log-vraisemblance : l(θ) = ln(L(θ)).
MLE : θ̂ maximise l(θ)
Exemple. On veut paramétrer une variable aléatoire géométrique
avec les données
3, 3, 3, 3, 4, 7
en utilisant la méthode des vraisemblance maximale.
Rappelons que la fonction de probabilité est f (x) = q(1 − q)x−1 .
L(q) = q(1 − q)3−1 q(1 − q)3−1 q(1 − q)3−1 q(1 − q)3−1 ×
q(1 − q)4−1 q(1 − q)7−1
58
L(q) = q 6 (1 − q)17 et l(q) = 6 ln(q) + 17 ln(1 − q)
La dérivée donne
6 17 6(1 − q) − 17q
l′ (q) = − =
q 1−q q(1 − q)
6
q= 23
.
11 Tests d’hypothèse
11.1 Tests d’hypothèse : Kolmogorov-Smirnov
Ce test concerne les données individuelles.
59
Figure 1: Crédit: Wikipedia
Statistique de test. D = maxj Dj où
Dj = max{|F ∗ (xj ) − j−1
n
|, |F ∗ (xj ) − nj |}.
== Le tableau suivant aide.
xj F ∗ (xj ) Fn (x−
j ) =
j−1
n
Fn (x−
j ) =
j
n
Dj
- - - - -
Exemple. On veut tester que les données suivantes correspon-
dent a une loi dont la fonction cumulée de distribution est F (x) =
60
x2 sur [0, 1]. Les données sont:
0.2, 0.4, 0.4, 0.4, 0.9, 0.9, 0.9, 0.9.
xj F ∗ (xj ) Fn (x−
j ) =
j−1
n
Fn (x−
j ) =
j
n
Dj
1
.2 .22 = .04 0 8
= 0.125 0.085
4
.4 .42 = .16 0.125 8
= 0.5 .34
.9 .92 = .81 0.5 1 .31
== Vous pouvez recevoir des valeurs critiques pour les tests.
Par exemple :
α 0, 2 0, 1 0, 05 0, 01
1.07 1.22 1.36 1.63
c √
n
√
n
√
n
√
n
61
11.2 Tests d’hypothèse : Khi deux
Notations.
k : nombre de groupes.
n : taille de la population.
pj : probabilité du groupe j th sous l’hypothèse.
Oj : nombre d’observations dans le groupe j.
Ej = npj : nombre attendu d’observations dans le groupe j.
Pk (Oj −Ej )2 Pk Oj2
Statistique du Khi deux. Q = j=1 Ej
= j=1 Ej −n.
Exemple On a les données suivantes
6, 4, 8, 0, 4, 4, 6, 4, 4, 4
regroupées dans les intervalles [0, 5), [5, 8), [8, 10]. Trouver la
62
valeur du test de Khi deux que les données viennent d’une dis-
tribution uniforme.
(Oj −Ej )2
j pj Ej Oj Ej
4
1 ([0,5) ) 0.5 5 7 5
1
2 ([5,8) ) 0.3 3 2 3
1
3 ([8,10] ) 0.2 2 1 2
Degré de liberté : k − 1 − r avec des paramètres r ajustés à
partir des données.
63
11.3 Tests d’hypothèse : le test du rapport
de vraisemblance
Notations.
L0 = L(θ0 ) : La vraisemblance maximale de l’hypothèse nulle.
L1 = L(θa ) : Le maximum de vraisemblance de l’hypothèse
alternative.
Statistique de test. T = 2 ln( LL10 ) = 2[ln(L1) − ln(L0 )].
Valeurs critiques. Utilisez une distribution du Khi deux avec
degré de liberté la différence des nombres de paramètres libres.
64
11.4 Tests d’hypothèse : critère bayésien de
Schwartz
Notations.
r : nombre de paramètres.
n : nombre de points de données dans l’échantillon.
L : Le maximum de vraisemblance.
Statistique de test. SBC = ln(L) − 2r ln(n).
Modèle sélectionné. Celui avec le plus grand SBC.
65
11.5 Tests d’hypothèse : informations sur Akaike
Notations.
r : nombre de paramètres.
L : Le maximum de vraisemblance
Statistique de test. AIC = ln(L) − r.
Modèle sélectionné. Celui avec le plus grand AIC.
66