0% ont trouvé ce document utile (0 vote)
38 vues66 pages

Statistiques et Régression Linéaire

Le document présente une introduction à la statistique, en abordant des outils technologiques comme Python et des concepts de régression linéaire simple et multiple. Il traite également des bases de la probabilité, y compris des axiomes, des lois d'addition et de multiplication, ainsi que des exercices pratiques. Enfin, il couvre les variables aléatoires et leurs distributions, fournissant des exemples pour illustrer les concepts.

Transféré par

Wilfried Dabiré
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
38 vues66 pages

Statistiques et Régression Linéaire

Le document présente une introduction à la statistique, en abordant des outils technologiques comme Python et des concepts de régression linéaire simple et multiple. Il traite également des bases de la probabilité, y compris des axiomes, des lois d'addition et de multiplication, ainsi que des exercices pratiques. Enfin, il couvre les variables aléatoires et leurs distributions, fournissant des exemples pour illustrer les concepts.

Transféré par

Wilfried Dabiré
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Draft: Statistiques pour les données

Roméo Awi

1
Part I
Introduction Pratique à la
statistique
1 Outils technologiques
1.0.1 Python Packages
Installer Python et pip

Packages utiles

2
1.0.2 Dans le cloud

2 Régression linéaire simple


2.1 Coefficients
On nous donne les données sous la forme

{(xi , yi )}ni=1 .

On émet l’hypothèse qu’il y a une relation linéaire entre x et y


de la forme
y = b0 + b1 x.

3
Le but est de trouver b0 et b1 qui minimisent la somme résiduelle
des carrés (RSS) suivante
n
X n
X
2
RSS = (yi − ŷi ) = [yi − (b0 + b1 xi )]2 .
i=1 i=1

La première dérivée partielle par rapport à b0 devrait être nulle.


D’où:
n
∂E X
0= = −2[yi − (b0 + b1 xi )]
∂b0 i=1
= − 2n[ȳ − b0 − b1 x̄].

On a
b0 = ȳ − b1 x̄. (1)

4
De plus, la première dérivée partielle par rapport à b1 devrait
également être nulle. On a:
n
∂E X
0= = −2xi [yi − (b0 + b1 xi )]
∂b0 i=1
Xn n
X
= − 2[ xi yi − nb0 x̄ − b1 x2i ]
i=1 i=1
n n
)
X X
=−2 xi yi − n(ȳ − b1 x̄)x̄ − b1 x2i
i=1 i=1

Ainsi Pn
xi yi − nx̄ȳ
b1 = Pi=1
n 2 2
. (2)
i=1 xi − nx̄

5
2.2 Autre expression de b1 .
n
X n
X n
X
(xi − x̄)(yi − ȳ) = xi (yi − ȳ) − x̄ (yi − ȳ)
i=1 i=1 i=1
n
X
= xi (yi − ȳ)
i=1
Xn n
X
= xi yi − ȳ xi
i=1 i=1
n
X
= xi yi − nx̄ȳ
i=1

6
Ainsi:
n
X n
X n
X
(xi − x̄)(yi − ȳ) = xi (yi − ȳ) = xi yi − nx̄ȳ (3)
i=1 i=1 i=1

De la meme facon ( en posant yi = xi ), on obtient:


n
X n
X n
X
2
(xi − x̄) = xi (xi − x̄) = x2i − n(x̄)2 (4)
i=1 i=1 i=1

En utilisant les équations (2), (3) et (4) on obtient


Pn
(x − x̄)(yi − ȳ)
b1 = i=1 Pn i 2
. (5)
i=1 (xi − x̄)

7
2.3 Exemple.
Les statistiques suivantes sont données.
X
x̄ = 5; ȳ = 7; (xi − x̄)(yi − ȳ) = 100;
X X
(xi − x̄)2 = 25; (yi − ȳ)2 = 16.

Déterminer l’équation de la droite de regression linéaire.

Solution.
Pn
(x − x̄)(yi − ȳ) 100
Pn i
b1 = i=1 2
= = 4.
i=1 (xi − x̄) 25

b0 = ȳ − b1 x̄ = 7 − 4(5) = −13.

8
2.4 Exemple 2.
Les statistiques suivantes sont données pour 4 observations.
X X X
yi = 10; xi = 10; xi yi = 21;
X X
x2i = 30; yi2 = 30.

Déterminer l’équation de la droite de regression linéaire.

Solution.
Pn
xi yi − nx̄ȳ 21 − 4(10)(10) 379
b1 = Pi=1
n 2
= 2
= .
i=1 (xi − x̄) 30 − 4(10) 370
10 379 10 90 9
b0 = ȳ − b1 x̄ = − = = .
4 370 4 370 ∗ 4 148
9
3 Régression linéaire multiple
Les données sont modélisées pour n observations comme suit:

yi = b0 + xi1 b1 + · · · + xip bp .

Sous forme matricielle


y = Ab
ou     
a1 1 x11 · · · x1p b1
a2  1 x21 · · · x2p  b2 
 
 ..  = 
   
..   .. 
.  .  . 
on 1 xn1 · · · xnp bp

10
Nous minimisons
n
X
SS = ∥y − ŷ∥ =2
(yi − ŷi )2 = (y − Ab)′ (y − Ab)
i=1

Le dérivé par rapport à b est:


∂SS
=(−A)′ (y − Ab) + (y − Ab)′ (−A)
∂b
=A′ Ab + b′ A′ A − A′ y − y ′ A
=2(A′ Ab − A′ y).
Si A′ A est inversible, alors
b = (A′ A)−1 A′ y.

11
Part II
Rappel de probabilité
4 Bases
4.1 Dénombrement
4.1.1 Cardinal d’un ensemble
Nombre d’éléments dans l’ensemble.

12
4.1.2 Loi d’addition
Si A et B sont disjoints, alors

n(A ∪ B) = n(A) + n(B).

En général,

n(A ∪ B) = n(A) + n(B)−n(A ∩ B).

B
A

13
4.1.3 Cardinal, union et intersection

A C

n(A ∪ B ∪ C) =n(A) + n(B) + n(C)


− n(A ∩ B) − n(A ∩ C) − n(B ∩ C)
+ n(A ∩ B ∩ C)

14
4.1.4 Loi de multiplication
Produit cartésien.

n(A × B) = n(A) · n(B).

4.1.5 Permutation
n!
Pnk = (n−k)!

4.1.6 Combinaisons
n!
Cnk = k!(n−k)!

15
4.2 Axiomes de la probabilité
1. 0 ≤ P r(A) ≤ 1

2. P r(Ω) = 1
P∞
3. P r(∪∞
i=1 Ai ) = i=1 P r(Ai )
pour une famille disjointe.

4.3 Exercises
4.3.1 Problème: D’après SOA Exam P. Sample No. 1
Dans un groupe,

ˆ 28% ont regardé gymnastics

16
ˆ 29% ont regardé baseball

ˆ 19% ont regardé soccer

ˆ 14% ont regardé gymnastics et baseball

ˆ 12% ont regardé baseball et soccer

ˆ 10% ont regardé gymnastics et soccer

ˆ 8% ont regardé tous les 3 sports.

Quel est le pourcentage de ceux qui n’ont regardé aucun sport?

17
Solution Modélisation:

ˆ P r(G) = 28% : gymnastics

ˆ P r(B) = 29% : baseball

ˆ P r(S) = 19% : soccer

ˆ P r(B ∩ G) = 14% : gymnastics et baseball

ˆ P r(B ∩ S) = 12% : baseball et soccer

ˆ P r(G ∩ S) = 10% : gymnastics et soccer

ˆ P r(G ∩ B ∩ S) = 8% : tous les 3 sports.

On veut P r(Gc ∩ B c ∩ S c ).

18
P r(Gc ∩ B c ∩ S c ) =P r((G ∪ B ∪ S)c )
=1 − P r(G ∪ B ∪ S)
=1 − (P r(G) + P r(B) + P r(S)
− P r(B ∩ G) − P r(B ∩ G) − P r(B ∩ G)
+ P r(G ∩ B ∩ S))
=1 − (.48)
=.54

19
4.3.2 Probleme 2: D’après SOA exam P N0. 5
10 000 assurés. Chaque assuré est classé comme:
(i) jeune ou vieux;
(ii) homme ou femme ; et
(iii) marié ou célibataire.
Parmi ces assurés,

ˆ 3000 jeunes, 4600 hommes et 7000 mariés.

ˆ 1320 jeunes hommes, 3010 hommes mariés et 1400 jeunes


mariés.

ˆ 600 jeunes hommes mariés.

Combien sont jeunes, femmes et célibataires ?

20
Solution Modelisation:

ˆ n(J) = 3000; n(H) = 4600 ; P r(M ) = 7000

ˆ n(J ∩ H) = 1320; n(H ∩ M ) = 3010; n(J ∩ M ) = 1400

ˆ n(J ∩ H ∩ M ) = 600.

On veut n(J ∩ H c ∩ M c ).
Rappel
n(A) = n(A ∩ B) + n(A ∩ B c ).
Ainsi
n(A ∩ B c ) = n(A) − n(A ∩ B).

21
n(J ∩ H c ∩ M c ) =n(J ∩ H c ) − n(J ∩ H c ∩ M )
=n(J) − n(J ∩ H) − (n(J ∩ M ) − n(J ∩ H ∩ M ))
=3000 − 1320 − 1400 + 600
=880.

4.4 Probabilité conditionnelle


4.4.1 Définition
Pr (A∩B)
Pr (A|B) = Pr (B)

4.4.2 Intersection et probabilité conditionnelle


Pr (A1 ∩ · · · ∩ An ) = Pr (A1 )Pr (A2 |A1 ) · · · Pr (An |A1 ∩ · · · ∩ An−1 )

22
Exemple: SOA Exam P No. 19.
Statistiques d’une compagnie d’assurance.

Age du Probabilité Proportion


conducteur d’un accident des assurés
16-20 .06 .08
21-30 .03 .15
31-65 .02 .49
66-90 .04 .28

Un conducteur choisi a tout hasard a un accident. Quelle est


la probabilité que le/la conducteur/trice ait un age entre 16 et
20 ans.

23
Solution Modélisation:
A: age entre 16 et 20 ans
B: Il y a accident.

P r(A ∩ B)
P r(A|B) =
P r(B)
(.06)(.08)
= .
(.06)(.08) + (.03)(.15) + (.02)(.49) + (.04)(.28)

4.4.3 Loi de Bayes


Pr (A|Hi )Pr (Hi )
Si les Hi sont mutuellement exclusifs, Pr (Hi |A) = Pr (A)
et
Pr (A) = Σni=1 Pr (A|Hi )Pr (Hi ).

24
4.4.4 Indépendance
A et B sont indépendants signifie Pr (A|B) = Pr (A) ce qui signifie
également Pr (A ∩ B) = Pr (A)Pr (B).

5 Variables aléatoires
5.1 Fonction de distribution
5.1.1 Distribution de probabilité ou fonction de masse
de probabilité (pmf )
P (x) = Pr (X = x)

25
5.1.2 Fonction de distribution ou fonction de distribu-
tion cumulative
F (a) = Pr (X ≤ a) = Σx≤a P (x).

5.1.3 Fonction de survie


S(a) = Pr (X > a) = 1 − F (a).

5.1.4 Variable aléatoire de décompte.


Modéliser par une suite positive dont la somme est 1.

X
pn ∈ [0, 1] and pn = 1.
n=0

26
Exemple: SOA Exam P. No. 14
1
pn = pn−1
5
Trouver P r(n > 1).

Solution Suite géométrique de raison 51 .



X p0 − p0 ( 51 )n 5
pn = lim 1 = p0
n=0
m→∞ 1− 5 4

Alors p0 = 45 . On veut

4 1 4 25 − 20 − 4 1
P r(n > 1) = 1 − p0 − p1 = 1 − − ( )= = .
5 5 5 25 25
27
5.2 Statistiques associées à une variable aléatoire
5.2.1 Espérance mathématique
E(X) = Σxi P (xi ).
On a E(g(X)) = Σg(xi )P (xi ).
Autre expression de l’espérance mathématique.

p1
p2 p2
p3 p3 p3

X ∞ X
X ∞
ipi = pj
i=1 j=i

28
Exemple.
λn
pn = e−λ .
n!
Ceci est bien définie car
n X λn
−λ λ
X
−λ
e =e = e−λ eλ = 1.
n! n!
X λn X λn−1 λ X λn−1
E(X) = ne−λ = e−λ = e−λ λ = λ.
n! (n − 1)! (n − 1)!

Example. pour q ∈ (0, 1):

pn = (1 − q)q n .

29
Remarquer que
∞ ∞
X X 1
pi = (1 − q)q i = (1 − q)q j = qj .
i=j i=j
1−q
Ainsi ∞
X
pi = q 0 = 1.
i=0
Ensuite
∞ ∞ X
∞ ∞
X X X q
E(X) = ipi = pj = qi = .
i=1 i=1 j=i i=1
1−q

5.2.2 Variance
2
V ar(X) = σX = E([X − E(X)]2 ) = E(X 2 ) − [E(X)]2 .

30
5.2.3Ecart type
p
σX = V ar(X).

5.2.4 p-ieme centile


Réel x tel que Pr (X < x) ≤ p ≤ Pr (X ≤ x).

5.2.5 Coefficient de variation


σX
c= µX
.

5.2.6 Variance et transformation affine


V ar(aX + b)=a2 V ar(X)

31
5.2.7 Minimum de deux variable aléatoires
Pr (min(X, Y ) > z) = Pr (X > z et Y > z).

5.2.8 Moments d’odre 1 et 2.


E(X 2 ) = V ar(X) + (E(X))2 ̸= V ar(X). E(aX 2 + bX + c) =
2
a(σX + µ2X ) + bµX + c.

5.2.9 Moyenne vs Médiane


La moyenne est E(X) tandis que la médiane est donnée par
Pr (X ≤ x) = 0.5.

32
5.2.10 Mode
C’est x pour lequel P (x) de f (x) est le maximum.

6 Variables aléatoires discrètes usuelles


6.1 Variable aléatoire Binomiale ou de Bernoulli
[Paramètres : n, p]. X est le nombre de succès après n indépendant
Essais de Bernoulli avec probabilité de succès p.

P (x) = Cnx px (1 − p)n−x


pour x = 0, · · · , n ;
E(X) = np; V ar(X) = np(1 − p).

33
Si X est un binôme de paramètre (n, p), Y est un binôme de
paramètre (m, p) et X et Y sont indépendants, alors X + Y est
un binôme avec paramètre (n + m, p).

6.2 Variable aléatoire de Poisson


k
[Paramètre λ > 0]. P (x) = e−λ λk! . E(X) = λ; V ar(X) = λ.
Si X est Poisson avec le paramètre λ1 , Y est Poisson avec le
paramètre λ2 et X et Y sont indépendants, alors X + Y est
Poisson de paramètre λ1 + λ2 .

34
6.3 Variable aléatoire géométrique
[Paramètre p ] X est le nombre d’essais de Bernoulli indépendants
successifs nécessaires pour obtenir le premier succès.
P (x) = p(1 − p)x−1 .
E(X) = p−1 . V ar(X) = 1−pp2
. P (X ≤ x) = 1 − (1 − p)x .
C’est une variable dite “sans memoir“
P (X > m + n|X > n) = P (X > m).

6.4 Variable aléatoire Binomiale négative


[Paramètre p, k ]. X est le nombre d’essais de Bernoulli indépendants
successifs nécessaires pour obtenir le k ieme succès.
k−1 k
P (x) = Cx−1 p (1 − p)x−k .

35
E(X) = kp−1 . V ar(X) = k 1−p
p2
.

6.5 Variable aléatoire hypergéométrique


[Paramètre r, n, N ]. L’ensemble A est un sous-ensemble de n
éléments de Ω qui est un ensemble de N éléments. On choisit
r éléments dans Ω. X est le nombre d’éléments parmi les r
elements choisis qui appartienent a A.

Cnx CNk−x
−n
P (x) = .
CNk
nr nr N −r N −n
E(X) = N
. V ar(X) = N N N −1
.

36
7 Variable aléatoire continue
La variable aléatoire X est continue avec la Rfonction de densité
de probabilité (pdf) f lorsque Pr (X ∈ B) = B f (x)dx.
Ainsi: Z t
F (t) = Pr (X ≤ t) = f (x)dx.
−∞

Par ailleurs:
Z
E(X) = xf (x)dx
R
Z
E(g(X)) = g(x)f (x)dx
ZR
V ar(X) = (x − E(X))2 f (x)dx.
R

37
7.1 Fonction d’une variable aléatoire continue
Si X ∼ fX ; Y = g(X) et g est monotone dérivable alors

d −1
fY = fX [g −1 (y)] g (y) .
dy

7.2 Distribution uniforme


(
1
b−a
sur [a, b]
f (x) = .
0 sinon
a+b (a−b)2
On a alors: E(X) = 2
. V ar(X) = 12
.

38
7.3 Variable aléatoire Normale
[Paramètres µ et σ 2 ].
1 (x−µ)
f (x) = √ e− 2σ2 .
σ 2π

E(X) = µ. V ar(X) = σ 2 .

Transformation affine. Si Y = aX + b alors Y est la distri-


bution normale avec les paramètres aµ + b et a2 σ 2 .

Normale standard. La normale Z a des paramètres (0, 1).


Pr (X ≤ a) = Pr (Z ≤ a−µ
σ
).

39
Somme. Si X ∼ N (µ1 , σ12 ), Y ∼ N (µ2 , σ12 ) et X et Y sont
indépendants, alors X + Y ∼ N (µ1 + µ2 , σ12 + σ22 ).

7.4 Variable aléatoire exponentielle


[Paramètre: λ]
(
λe−λx pour x ≥ 0
f (x) = .
0 sinon

E(X) = λ1 . V ar(X) = λ12 .


La médiane m est caractérisée par mλ = ln 2. On a F (t) =
1 − e−t/λ .

40
Minimum. Le minimum de variable aléatoires exponentiels
indépendants est un variable aléatoires exponentiel. avec paramètre
la somme des paramètres.

7.5 Variable aléatoire de Gamma


[Paramètres : α > 0 (forme), λ (échelle)].
( −λx α−1
λe (λx)
Γ(α)
pour x ≥ 0
f (x) = .
0 sinon

Ici Z ∞
Γ(α) = e−x xα−1 dx.
0

41
E(X) = αλ . V ar(X) = λα2 .
Si (α, λ) = (1, λ) nous récupérons la variable aléatoire exponen-
tielle.
Si (α, λ) = ( n2 , 12 ) on retrouve la variable Chi-carré avec n degrés
de liberté.

42
Part III
Statistiques
8 Simulation : Méthode d’inversion
Principe. Les petits nombres aléatoires uniformes correspon-
dent à de petites valeurs simulées.

Méthode. La variable aléatoire X est simulée par FX−1 (U ) avec


U distribution uniforme sur [0, 1] : u = FX (x).

Exemple. La durée entre deux pluies dans le mois de décembre


dans une région suit une loi exponentielle de moyenne m = 10.

43
On simule la durée par les nombres uniforme suivants:
0.9, 0.3, 0.11, 0.67.
Calculer la moyenne des nombres ainsi obtenus.

Solution Ici FX (t) = 1 − e−mt . On résout


u =1 − e−mt
e−mt =1 − u
−mt = ln(1 − u)
t = − m−1 ln(1 − u)
On complète le tableau suivant:

u 0.9 0.3 0.11 0.67


−1
t = −m ln(1 − u)

44
Cas d’une distribution non-continue.
+ Si FX a un saut à x = c; FX (c−) = y1 ; FX (c+) = y2 alors
y1 ≤ u ≤ y2 est simule c.
+ Si FX (x) = y0 sur [a, b] alors y0 simule b.

Exemple. On considère une loi avec la fonction de distribu-


tion suivante.

45
Intervalle [0,1) [1,2.5) [2.5,3) [3,5) [5,6) [6, ∞)
4 6 9 11
valeur 0 12 12 12 12
1

3 4 5 11
u 12 12 12 12
x 1 2.5 2.5 6

46
9 Distributions empiriques
9.1 Distribution empirique pour les données
individuelles
Notations.
L’échantillon : x1 ≤ x2 ≤ · · · ≤ xn
cdf : Fn (x) = (#xni ≤x) .
Ensemble de valeurs observées : y1 < y2 < · · · < yk .
sj = (#xi = yj )
Ensemble de risques rk = ki=j si .
P

0,
 si x < y1
rj
Fn (x) = 1 − n , if yj−1 ≤ x < yj

1, if x ≥ yk

47
Exemple On considère les nombres
1, 1, 1, 1, 2.5, 2.5, 3, 3, 3, 5, 5, 6
Trouver la fonction de la distribution empirique associée a cette
donnée.

Solution
y1 = 1; y2 = 2.5; y3 = 3; y4 = 5; y5 = 6
Ici n = 12.
s1 = 4; s2 = 2; s3 = 3; s4 = 2; s5 = 1.
On a alors
r1 = 12; r2 = 8; r3 = 6; r4 = 3; r5 = 1.

48
La fonction de distribution prend alors les valeurs suivantes

Intervalle [0,1) [1,2.5) [2.5,3) [3,5) [5,6) [6, ∞)


4 6 9 11
valeur 0 12 12 12 12
1

49
9.2 Distribution empirique des données groupées
Les données sont regroupées par intervalles

(c0 , c1 ], (c1 , c2 ], · · · , (ck−1 , ck ].

nj = (#xi ∈ (cj−1 , cj ]) et n = kj=1 nj .


P

1
Pj
cdf. Fn (cj ) = n i=1 ni . Pour cj−1 ≤ x < cj

Fn (cj ) − Fn (cj−1 )
Fn (x) = Fn (cj−1 ) + (x − cj−1 )
cj − cj−1

Le graphe de Fn est appelé ogive.

50
Exemple. On étudie la taille au sein d’une population de
souris et on relève le nombre d’individus

Taille (1,2.5] (2.5,3] (3,5] (5,6] (6, 7]


Nombre 4 2 3 2 1
Valeurs au points frontières
cj 1 2.5 3 5 6 7
Fn (cj ) 0 4/12 6/12 9/12 11/12 1

2 4 6 8

51
pdf. Pour cj−1 ≤ x < cj

Fn (cj ) − Fn (cj−1 ) nj
fn (x) = =
cj − cj−1 n(cj − cj−1 )

Le graphique de fn est appelé histogramme.

9.3 Lissage du noyau


m
X m
X
F (x) = p(xi )Keri (x) et f (x) = p(xi )keri (x).
i=1 i=1

52
Noyau uniforme avec bande passante b.

0,
 si x < y − b
1
kery (x) = 2b , if y − b ≤ x ≤ y + b

0, si x > y + b


0,
 si x < y − b
x−y+b
Kery (x) = , if y − b ≤ x ≤ y + b
 2b
1, si x > y + b

53
Noyau triangulaire avec bande passante b.


 0, si x < y − b
 x−y+b , if y − b ≤ x ≤ y

b2
kery (x) = y+b−x
 2 , if y ≤ x ≤ y + b
 b


0, si x > y + b



 0, si x < y − b
 (x−y+b)2 ,

if y − b ≤ x ≤ y
2b
Kery (x) = (y+b−x)2


 1− 2b
, if y ≤ x ≤ y + b

1, si x > y + b

− αx
xα−1 e y
noyau gamma. kery (x) = (αy α
) Γ(α)
.

54
10 Estimation des paramètres
10.1 Estimations des paramètres : méthode
des centiles
g100 tieme centile lissée. Les données sont triées x1 ≤ x2 ≤
· · · ≤ xn .

1. Trouver l’entier k tel que k ≤ g(n + 1) ≤ k + 1.

2. π̂g = xk + (g(n + 1) − k)(xk+1 − xk ) (interpolation linéaire).

Exemple. Trouver les paramètres d’une loi exponentielle as-


sociée aux nombres
2, 2, 2, 3, 3, 4

55
en utilisant le 50 ieme centile.

Solution. 3 ≤ 3.5 ≤ 4. On a donc

2 + .5(3 − 2) = 2.5

On résout ensuite
.50 = 1 − e−2.5/λ .

10.2 Estimations de paramètres : méthode


des moments
1
Pn
L’estimation empirique du k th moment n i=1 xki correspond à
celui du modèle.

56
Exemple. Trouver les paramètres d’une loi de poisson associée
aux nombres
2, 2, 2, 3, 3, 6
en utilisant le premier moment.

Solution. On a x̄ = 3. Il s’en suit que λ = 3.

10.3 Estimateur de probabilité maximale (MLE)


Fonction de vraisemblance
Y
L(θ) = f (xi |θ).
i

57
Fonction de vraisemblance pour les données groupées
Y
L(θ) = [F (cj |θ) − F (cj−1 |θ).]
j

Log-vraisemblance : l(θ) = ln(L(θ)).


MLE : θ̂ maximise l(θ)

Exemple. On veut paramétrer une variable aléatoire géométrique


avec les données
3, 3, 3, 3, 4, 7
en utilisant la méthode des vraisemblance maximale.
Rappelons que la fonction de probabilité est f (x) = q(1 − q)x−1 .
L(q) = q(1 − q)3−1 q(1 − q)3−1 q(1 − q)3−1 q(1 − q)3−1 ×
   

q(1 − q)4−1 q(1 − q)7−1


 

58
L(q) = q 6 (1 − q)17 et l(q) = 6 ln(q) + 17 ln(1 − q)

La dérivée donne
6 17 6(1 − q) − 17q
l′ (q) = − =
q 1−q q(1 − q)
6
q= 23
.

11 Tests d’hypothèse
11.1 Tests d’hypothèse : Kolmogorov-Smirnov
Ce test concerne les données individuelles.

59
Figure 1: Crédit: Wikipedia

Statistique de test. D = maxj Dj où


Dj = max{|F ∗ (xj ) − j−1
n
|, |F ∗ (xj ) − nj |}.

== Le tableau suivant aide.

xj F ∗ (xj ) Fn (x−
j ) =
j−1
n
Fn (x−
j ) =
j
n
Dj
- - - - -

Exemple. On veut tester que les données suivantes correspon-


dent a une loi dont la fonction cumulée de distribution est F (x) =

60
x2 sur [0, 1]. Les données sont:

0.2, 0.4, 0.4, 0.4, 0.9, 0.9, 0.9, 0.9.

xj F ∗ (xj ) Fn (x−
j ) =
j−1
n
Fn (x−
j ) =
j
n
Dj
1
.2 .22 = .04 0 8
= 0.125 0.085
4
.4 .42 = .16 0.125 8
= 0.5 .34
.9 .92 = .81 0.5 1 .31
== Vous pouvez recevoir des valeurs critiques pour les tests.
Par exemple :

α 0, 2 0, 1 0, 05 0, 01
1.07 1.22 1.36 1.63
c √
n

n

n

n

61
11.2 Tests d’hypothèse : Khi deux
Notations.
k : nombre de groupes.
n : taille de la population.
pj : probabilité du groupe j th sous l’hypothèse.
Oj : nombre d’observations dans le groupe j.
Ej = npj : nombre attendu d’observations dans le groupe j.

Pk (Oj −Ej )2 Pk Oj2


Statistique du Khi deux. Q = j=1 Ej
= j=1 Ej −n.

Exemple On a les données suivantes


6, 4, 8, 0, 4, 4, 6, 4, 4, 4
regroupées dans les intervalles [0, 5), [5, 8), [8, 10]. Trouver la

62
valeur du test de Khi deux que les données viennent d’une dis-
tribution uniforme.
(Oj −Ej )2
j pj Ej Oj Ej
4
1 ([0,5) ) 0.5 5 7 5
1
2 ([5,8) ) 0.3 3 2 3
1
3 ([8,10] ) 0.2 2 1 2

Degré de liberté : k − 1 − r avec des paramètres r ajustés à


partir des données.

63
11.3 Tests d’hypothèse : le test du rapport
de vraisemblance
Notations.
L0 = L(θ0 ) : La vraisemblance maximale de l’hypothèse nulle.
L1 = L(θa ) : Le maximum de vraisemblance de l’hypothèse
alternative.

Statistique de test. T = 2 ln( LL10 ) = 2[ln(L1) − ln(L0 )].

Valeurs critiques. Utilisez une distribution du Khi deux avec


degré de liberté la différence des nombres de paramètres libres.

64
11.4 Tests d’hypothèse : critère bayésien de
Schwartz
Notations.
r : nombre de paramètres.
n : nombre de points de données dans l’échantillon.
L : Le maximum de vraisemblance.

Statistique de test. SBC = ln(L) − 2r ln(n).

Modèle sélectionné. Celui avec le plus grand SBC.

65
11.5 Tests d’hypothèse : informations sur Akaike
Notations.
r : nombre de paramètres.
L : Le maximum de vraisemblance

Statistique de test. AIC = ln(L) − r.

Modèle sélectionné. Celui avec le plus grand AIC.

66

Vous aimerez peut-être aussi