STAT 4 LICENCE Yode
STAT 4 LICENCE Yode
UFHB, UFRMI
Licence 2
1 Rappels et compléments 4
1.1 Convergences . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2 Théorèmes limites . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.1 Lois des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.2 Théorème Central limite . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2.3 Théorème de Slusky et méthode delta . . . . . . . . . . . . . . . . . . . . 6
1.3 Cas gaussiens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2 Modélisation statistique 8
2.1 Echantillonnage . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.2 Modèles statistiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3 Exhaustivité 11
3.1 Vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3.2 Exhaustivité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
4 Information de Fisher 14
4.1 Définition et propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
5 Estimateurs 16
5.1 Principe général de l’estimation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
5.1.1 Propriétés à distance finie . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
[Link] Loi exacte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
[Link] Biais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
[Link] Risque quadratique . . . . . . . . . . . . . . . . . . . . . . . . . 18
[Link] Borne de Cramer-Rao . . . . . . . . . . . . . . . . . . . . . . . . 19
5.1.2 Propriétés asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
[Link] Convergence ou consistance . . . . . . . . . . . . . . . . . . . . 20
[Link] Normalité asymptotique . . . . . . . . . . . . . . . . . . . . . . 20
6 Méthodes d’estimation 22
6.1 Méthode des moments . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
6.2 Methode du maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . 23
2
TABLE DES MATIÈRES 3
[Link] Méthode non asymptotique . . . . . . . . . . . . . . . . . . . . 29
[Link] Méthode asymptotique . . . . . . . . . . . . . . . . . . . . . . . 30
7.2.3 Densité de probabilité unimodale . . . . . . . . . . . . . . . . . . . . . . . 30
7.3 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
7.3.1 Intervalle de confiance pour la moyenne d’une loi normale . . . . . . . 32
7.3.2 Intervalle de confiance pour la variance d’une loi normale . . . . . . . . 34
7.3.3 Intervalle de confiance pour une proportion . . . . . . . . . . . . . . . . 35
7.3.4 Intervalle de confiance pour la moyenne d’une loi quelconque . . . . . . 36
13 Tests du ¬2 59
13.1 Test d’adéquation à une loi donnée . . . . . . . . . . . . . . . . . . . . . . . . . . 59
13.1.1 Cas d’une loi discrète . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
13.1.2 Cas d’une loi continue . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
13.2 Test d’adéquation à une famille de lois . . . . . . . . . . . . . . . . . . . . . . . . 60
13.3 Test d’indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
1 Rappels et compléments
1.1 Convergences
On considère une suite de variables aléatoires réelles ( X n )n∏1 définies sur le même espace
probabilisé (≠, A , P). On note F X n la fonction de répartition de X n et F X celle de X .
Définition 1.1.1. On dit que la suite ( X n )n∏1 converge en loi vers la variable aléatoire X et
L
on note X n °°°°°! X si
n!+1
lim F X n ( x) = F X ( x)
n!+1
en tout point x où F X est continue.
Définition 1.1.2. On dit que la suite ( X n )n∏1 converge en probabilité vers un réelle a et on
P
note X n °°°°°! X , si quelque soit " > 0,
n!+1
lim P {| X n ° X | ∏ "} = 0.
n!+1
Cependant si X = a où a est une constant, alors il y a équivalence entre les deux modes de
convergence
P L
X n °°°°°! a , X n °°°°°! a.
n!+1 n!+1
8
<E( X n ) °°°°°! a
n!+1 P
Proposition 1.1.1. Soit a 2 R. Si alors X n °°°°°! a.
:Var( X n ) °°°°°! 0 n!+1
n!+1
4
1.2. THÉORÈMES LIMITES 5
1.2.1 Lois des grands nombres
Théorème 1.2.1. Soient ( X n )n∏1 une suite de variables aléatoires réelles indépendantes iden-
tiquement distribuées telles que E( X 1 ) = m < +1 et V ar ( X n ) = æ2 . Alors, nous avons
P
X n °! E( X 1 ) = m.
Ce qu’il y a de remarquable dans la loi des grand nombres, c’est que ce résultat s’applique
quelle que soit la loi des variables aléatoires X n . Ce résultat signifie que lorsque n devient
grand, la moyenne empirique X n se réduit ”presque” à la moyenne théorique m.
0.3
0.2
0.1
1:length(Z2)
1X n
1
On remarque la convergence de X i vert 2 qui est la moyenne de la loi exponentielle
n i=1
E (2).
0.8
dpois(1:10, 1)
Density
0.2
0.4
0.0
0.0
2 4 6 8 10 −1 0 1 2 3 4 −1 1 2 3 4
Index Z Z
0.4
0.4
Density
Density
Density
0.2
0.2
0.2
0.0
0.0
0.0
−2 0 1 2 3 −2 0 1 2 3 −2 0 1 2 3
Z Z Z
0.4
0.4
Density
Density
Density
0.2
0.2
0.2
0.0
0.0
0.0
−3 −1 1 2 3 −3 −1 1 2 3 −3 −1 1 2 3
Z Z Z
p
Autrement dit, quand n est assez grand n( Xæn °m) converge vers la loi noemale centrée
réduite N (0≥ , 1), c’est
¥ à dire que la moyenne empirique X n suit approximativement une loi
2
normale N µ, æn . En pratique, l’approximation est fréquemment réalisée dès que n ∏ 30.
P
Yn °°°°°! c
n!+1
où c est une constante non nul. Alors
L
X n + Yn °°°°°! X + c
n!+1
1.3. CAS GAUSSIENS 7
L
X n Yn °°°°°! cX
n!+1
Xn L X
°°°°°! .
Yn n!+1 c
L’on peut généraliser ces résultats. Quelle condition doit vérifier une fonction g pour
que g( X n ) converge en loi (ou en probabilité) vers g( X ) dès que X n converge en loi (ou en
probabilité) ves X . Le résultat suivant permet de répondre à cette question.
Théorème 1.2.4. Soit g est une fonction continue. Alors
L L
- X n °°°°°! X =) g( X n ) °°°°°! g( X ).
n!+1 n!+1
P P
- X n °°°°°! X =) g( X n ) °°°°°! g( X ).
n!+1 n!+1
Quelles sont les conditions sur la fonction g ? La méthode delta permet de répondre à ce
type de préoccupations.
Théorème 1.2.5. Si la suite de variables aléatoires (Yn ) est asymptotiquement normale, telle
qu’il existe y et æ2y avec
p
n(Yn ° y) °°°°°! N (0, æ2y )
L
n!+1
1 X n
S 2n = ( X i ° X n )2 .
n ° 1 i=1
2 Modélisation statistique
2.1 Echantillonnage
Exemple 2.1.1. Une entreprise de l’industrie textile souhaite étudier le poids et la taille des
ivoiriens et ivoiriennes de plus de 18 ans (population) afin d’ajuster au mieux ses produits
à la morphologie de ses clients.
Pour mener à bien cette étude, l’entreprise a deux solutions : le recensement ou l’échan-
tillonnage.
Recensement : il consiste à mesurer le caractère X de facon exhaustive pour tous les in-
dividus de la population. Le recensement n’est bien évidemment applicable que lorsque la
taille de la population étudiée est relativement faible.
Dans le cas où la taille de la population est grande, il faut recourir à l’échantillonnage.
L’échantillonnage se définit comme la méthode de construction d’un échantillon.
Quel est l’intérêt de constituer un échantillon ? L’idée est d’étudier le caractère pour les
individus sélectionnés dans l’échantillon afin d’en tirer de l’ information sur ce caractère
pour l’ensemble de la population. Par conséquent, d’un côté la taille n de l’échantillon doit
être suffisamment importante pour que l’on puisse obtenir une information fiable sur la po-
pulation, mais d’un autre côté elle doit être la plus petite possible afin de limiter le coût de
l’enquête.
Une question se pose alors : comment choisir les individus qui composent l’échantillon ?
On distingue deux grandes méthodes d’échantillonnage. La première repose sur un choix
déterministe des individus. On parle dans ce cas d’échantillon déterministe (ou certain) :
les individus de l’échantillon ne sont pas choisis au hasard. En pratique la méthode la plus
utilisée est celle de l’échantillonnage aléatoire.
8
2.2. MODÈLES STATISTIQUES 9
Echantillon aléatoire : c’est un échantillon dont les individus sont tirés au hasard parmi
la population. Le tirage de l’échantillon peut se faire avec remise (un même individu de la
population peut apparaı̂tre plusieurs fois dans l’échantillon) ou sans remise (chaque individu
de la population ne peut apparaı̂tre qu’une seule fois dans l’échantillon).
On considère deux situations di↵érentes conduisant à un échantillon :
- la répétition d’une expérience aléatoire
Exemple 2.1.2. On lance n fois une pièce. On note
(
1 si le lancer i est pile
Xi =
0 si lancer i est face.
S’il s’agit de la même pièce et qu’on ne modifie pas la manière dont on lance, alors on
peut dire que les X i sont indépendantes et identiquement distribuées de loi commune
la loi de Bernoulli B (1, µ ). Le paramètre µ représente la probabilité du succès, c’est à
dire la probabilité d’obtenir pile.
- la considération d’un échantillon au sein d’une population
Exemple 2.1.3. Deux candidats Kouko et Yao sont en présence d’une élection. n
personnes sont tirées au hasard parmi les électeurs et interrogées sur leurs intentions
de vote. On note (
1 si l’individu i vote Kouko
Xi =
0 si l’individu i vote Yao.
Les valeurs observées sont considérées comme étant les réalisations de variables aléa-
toires X 1 , . . . , X n indépendantes et identiquement distribuées selon la distribution fi-
nale des voix, c’est à dire la loi de Bernoulli B (1, µ ). Le paramètre µ représente la
probabilité du succès, c’est à dire la probabilité de voter pour Kouko.
Définition
n 2.2.1.
o On appelle modèle statistique la donnée d’une famille de lois de probabilité
d
Pµ , µ 2 £ Ω R ; £ est appelé espace des paramètre.
Echantillon : (X1, . . . , X n)
Réalisation : ( x1 , . . . , xn )
Définition 2.2.3. On appelle statistique toute variable aléatoire ne dépendant que de l’échan-
tillon ( X 1 , . . . , X n ).
f ( x, µ ) = Pµ ( X = x) = µ (1 ° µ )1{0,1} ( x).
n o
2. Modèle gaussien : N (µ, æ2 ), µ = (µ, æ2 ) 2 £ = R £ R§+ Ω R2 :
1 ≥ 1 ¥
f ( x, µ, æ2 ) = p exp ° 2 ( x ° µ)2 .
2ºæ 2æ
n o
3. Modèle exponentiel : E (µ ), µ 2 £ = R§+ Ω R :
µx
f ( x, µ ) = e°µ 1N ( x).
x!
Définition 2.2.4. Le support de Pµ est l’ensemble { x : f ( x, µ ) > 0} .
Exemple
n 2.2.2.
o 1. Le modèle de Bernouilli est un modèle homogène car son support
0, 1 est indépendant de µ .
2. Le modèle uniforme {U [0,µ] , µ > 0} n’est pas homogène. En e↵et, la densité de la loi
1
uniforme sur [0, µ ] étant f ( x, µ ) = 1[0,µ] ( x), son support [0, µ ] dépendant du paramètre.
µ
Définition 2.2.6. Le modèle statistique {Pµ , µ 2 £} est identifiable lorsque l’application µ 7°!
Pµ est injective.
Exercice 2.2.1. Une élection entre deux candidats A et B a lieu : on e↵ectue un sondage à
la sortie des urnes. On interroge n votants, n étant considéré comme petit devant le nombre
total de votants, et on récolte les nombres n A et n B de voix pour A et B respectivement
( n A + n B = n, en ne tenant pas compte des votes blancs ou nuls pour simplifier).
1. Décrire l’observation associée à cette expérience et le modèle statistique engendré par
cette observation.
2. Montrer que le modèle statistique engendré par cette observation est identifiable. Ex-
hiber sa vraisemblance.
Chapitre
3 Exhaustivité
3.1 Vraisemblance
Définition 3.1.1. On appelle vraisemblance d’un échantillon ( X 1 , . . . , X n ) la fonction définie
par
L ( x1 , . . . , x n , · ) : £ ! R+
n
Y
µ 7! L( x1 , . . . , xn , µ ) = f ( x i , µ ).
i =1
Exemple 3.1.1. Soit l’échantillon ( X 1 , . . . , X n ) issu d’une loi de Bernouilli B (1, µ ) avec µ 2
]0, 1[. X 1 suit une loi de Bernouilli B (1, µ ) si
(
x 1° x µ x (1 ° µ )1° x si x 2 {0, 1}
f ( x, µ ) = µ (1 ° µ ) 1{0,1} ( x) =
0 sinon.
La vraisemblance est
n
Y
L( x1 , . . . , xn , µ ) = f ( xi , µ)
i =1
Y n
= µ x i (1 ° µ )1° x i 1{0,1} ( x i )
i =1
≥ µ ¥P n x i
= (1 ° µ )n
i =1
1{0,1}n ( x1 , . . . , xn )
8 1 ° µ P
≥ ¥ n
x
< i =1 i
(1 ° µ )n 1°µ µ si ( x1 , . . . , xn ) 2 {0, 1}n
=
:0 sinon
Exemple 3.1.2. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi exponentielle E (µ ) avec µ > 0.
X 1 suit la loi exponentielle E (µ ) si
(
°µ x µ e°µ x si x 2 R§+
f ( x, µ ) = µ e 1R§+ ( x) =
0 sinon
11
12 CHAPITRE 3. EXHAUSTIVITÉ
La vraisemblance est
n
Y
L( x1 , . . . , xn , µ ) = µ e°µ x i 1R§+ ( x i )
i =1
Pn
= µ n e°µ i=1 x i 1(R§+ )n ( x1 , . . . , xn ).
( Pn
µ n e°µ i=1 x i si ( x1 , . . . , xn ) 2 (R§+ )n
=
0 sinon
Exemple 3.1.3. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, æ2 ) avec m 2 R
et æ > 0. X 1 suit la loi normale N (m, æ2 ) si
1 ° 1 ( x ° m )2
f ( x, m, æ2 ) = p e 2æ 2
2ºæ
La vraisemblance est
n
Y 1 ° 1 ( x ° m )2
L( x1 , . . . , xn , m, æ2 ) = p e 2æ 2
i =1 2ºæ
≥ 1 ¥n Pn
° 1 ( x ° m )2
= p e 2æ2 i=1 i
2ºæ
3.2 Exhaustivité
Un échantillon nous apporte une certaine information sur le paramètre µ . Lorsque l’on
résume cet échantillon par une statistique, il s’agit de ne pas perdre cette information. Une
statistique qui conserve l’information contenue dans l’échantillon sera dite exhaustive.
L( x1 , . . . , xn , µ ) = g(T ( x1 , . . . , xn ), µ ) h( x1 , . . . , xn ).
Exemple 3.2.1. Soit l’échantillon ( X 1 , . . . , X n ) issu d’une loi de Bernouilli B (1, µ ) avec µ 2
]0, 1[.
La vraisemblance est
≥ µ ¥Pn x i
L( x1 , . . . , xn , µ ) = (1 ° µ )n
i =1
1{0,1}n ( x1 , . . . , xn )
1°µ
3.2. EXHAUSTIVITÉ 13
Nous avons
≥X
n ¥ ≥ µ ¥Pn x i
x i , µ = (1 ° µ )n
i =1
g
i =1 1 ° µ
h( x1 , . . . , xn ) = 1{0,1}n ( x1 , . . . , xn ).
Pn
Grâce au théorème de factorisation, on déduit que la statistique i =1 X i est exhaustive pour
µ.
Exemple 3.2.2. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi exponentielle E (µ ) avec µ > 0.
La vraisemblance est
Pn
L( x1 , . . . , xn , µ ) = µ n e°µ x
i =1 i 1(R§+ )n ( x1 , . . . , xn ).
Nous avons
≥X
n ¥ Pn
g x i , µ = µ n e°µ i=1 x i
i =1
h( x1 , . . . , xn ) = 1(R§+ )n ( x1 , . . . , xn ).
Pn
Grâce au théorème de factorisation, on déduit que la statistique i =1 X i est exhaustive pour
µ.
Exemple 3.2.3. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, æ2 ) avec m 2 R
connue et æ > 0 inconnue. La vraisemblance est
≥ 1 ¥n Pn
° 1 ( x ° m )2
L( x1 , . . . , xn , æ2 ) = p e 2æ2 i=1 i
2ºæ
Nous avons
≥X
n ¥ ≥ 1 ¥n Pn
° 1 ( x ° m )2
g ( x i ° m)2 , æ2 = p e 2æ2 i=1 i
i =1 2ºæ
h( x1 , . . . , xn ) = 1.
Pn 2
Grâce au théorème de factorisation, on déduit que la statistique i =1 ( x i ° m) est exhaustive
pour æ2 .
Exercice 3.2.1. 1. On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi de Poisson
P (µ ) avec µ > 0. Déterminer une statistique exhaustive pour µ .
2. On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi uniforme U ([0, µ ]) avec µ > 0.
Déterminer une statistique exhaustive pour µ .
3. On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, æ2 ) avec m 2
R, æ2 > 0. Déterminer une statistique exhaustive pour ( m, æ2 ).
Chapitre
4 Information de Fisher
I ( X ,Y ) (µ ) = I X (µ ) + I Y (µ ).
14
4.2. EXEMPLES 15
4.2 Exemples
Exemple 4.2.1. Soit l’échantillon ( X 1 , . . . , X n ) issu d’une loi de Bernouilli B (1, µ ) avec µ 2
]0, 1[. Le support de la loi de Bernouilli {0, 1} est indépendant de µ . La vraisemblance
≥ µ ¥Pn x i
L( x1 , . . . , xn , µ ) = (1 ° µ )n
i =1
1{0,1}n ( x1 , . . . , xn )
1°µ
Pour tout ( x1 , . . . , xn ) 2 {0, 1}n , L( x1 , . . . , xn , µ ) > 0 et µ 7! L( x1 , . . . , xn , µ ) est deux fois dérivable.
La log-vraisemblance est donc
n
X n
X
ln L( x1 , . . . , xn , µ ) = x i ln(µ ) + ( n ° x i ) ln(1 ° µ )
i =1 i =1
Pn P
@2 ln L( x1 , . . . , xn , µ ) ° i =1 x i n ° ni=1 x i
= °
@µ 2 µ2 (1 ° µ )2
Exemple 4.2.2. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, æ2 ) avec m 2 R
et æ > 0. La vraisemblance est
≥ 1 ¥n Pn
° 1 ( x ° m )2
L( x1 , . . . , xn , m) = p e 2æ2 i=1 i
2ºæ
@2 ln L( x1 , . . . , xn , m) n
=° .
@ m2 æ2
Ainsi, nous avons : ∑ ∏
@2 ln L( X 1 , . . . , X n , m) n
I n ( m) = °Em = .
@ m2 æ2
On en déduit que l’information est d’autant plus grande que la variance est plus petite.
Exercice 4.2.1. Soit un échantillon ( X 1 , . . . , X n ) issu d’une loi normale N (m, æ2 ) avec m 2 R
et æ > 0. Déterminer l’information de Fisher au point æ2 fournie par ( X 1 , . . . , X n ).
Exercice 4.2.2. Soit X une variable aléatoire suivant une loi gamma °(a, Ω ). Nous disposons
de ( X 1 , . . . , X n ), un échantillon aléatoire de taille n de loi parente X . Déterminer l’informa-
tion de Fisher pour Ω fournie par ( X 1 , . . . , X n ).
Chapitre
5 Estimateurs
µbn = T ( X 1 , . . . , X n )
La question est de savoir ce qu’est un ”bon estimateur”. Quelles propriètés doit satisfaire
un estimateur pour être considéré comme ”bon”? Nous devons distinguer deux cas suivant
la taille d’échantillon n :
• propriétés à distance finie (pour n fixé)
• propriétés asymptotiques (pour n ! +1).
16
5.1. PRINCIPE GÉNÉRAL DE L’ESTIMATION 17
Remarque 5.1.1. En dehors du modèle gaussien, il est souvent difficile de déterminer la loi
exacte des estimateurs.
[Link] Biais
b n (µ ) = Eµ (µbn ) ° µ = Eµ (µbn ° µ ).
Le biais de l’estimateur est la moyenne des écarts systématiques entre µbn et µ . L’absence
d’un écart systématique entre µbn et µ se traduit par un biais nul.
Définition 5.1.4. Un estimateur µbn de µ est dit sans biais lorsque pour tout µ 2 £
Eµ (µbn ) = µ .
b ( m) = E m ( X n ) ° m
≥1 X
n ¥ 1X n
Em ( X n ) = Em Xi = Em ( X i )
n i=1 n i=1
Comme Em ( X 1 ) = . . . = Em ( X n ) = m alors nous pouvons ecrire
≥1 X
n ¥ 1X n 1X n nm
Em ( X n ) = Em Xi = Em ( X i ) = m= =m
n i=1 n i=1 n i=1 n
Em ( X n ) = m () b( m) = Em ( X n ) ° m = 0 8 m 2 R.
1X n
- La variance empirique Vn2 = ( X i ° X n )2 est un estimateur biaisé de æ2 . En déduire
n i=1
1 X n
que S 2n = ( X i ° X n )2 est un estimateur sans biais de æ2
n ° 1 i=1
n°1 2
Eæ2 (Vn2 ) = æ 6= æ2 .
n
Cependant
n°1 2
Eæ2 (Vn2 ) =
æ °! æ2
n
n n°1 2 n ≥ n ¥
æ2 = æ = Eæ2 (Vn2 ) = Eæ2 Vn2 = Eæ2 (S 2n ).
n°1 n n°1 n°1
Exercice 5.1.2. On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi densité :
x ° x /µ
f ( x, µ ) = e 1R§+ ( x) µ > 0.
µ2
18 CHAPITRE 5. ESTIMATEURS
On cherche un estimateur sans biais de µ et on considère X n comme un premier essai.
Montrer que X n est biaisé, et montrez comment modifier cet estimateur pour en obtenir un
qui ne l’est pas.
Comme Eµ ( X 1 ) = . . . = Eµ ( X n )
≥1 X
n¥ 1X n Z+1
nEµ ( X 1 )
Eµ ( X n ) = Eµ Xi = Eµ ( X i ) = = Eµ ( X 1 ) = x f ( x, µ ) dx.
n i=1 n i=1 n °1
Z+1 Z Zu
x 1 +1 2 ° x/µ 1
= x 2 e° x/µ 1R§+ ( x) dx = 2 x e dx = 2 lim x2 e° x/µ dx
°1 µ µ 0 µ u!+1 0
Exercice 5.1.3. Deux recherches indépendantes font état d’échantillonnages e↵ectués auprès
d’une même population. Les seules données présentées sont les moyennes X 1 et X 2 et les
tailles des échantillons n1 et n2 . Déterminer la valeur k telle que k( X 1 ° X 2 )2 est un esti-
mateur sans biais de la variance æ2 de la population.
Définition 5.1.6. Soient µbn et µen deux estimateurs de µ . On dit que µbn est préférable à µen si
R (µbn , µ ) ∑ R (µen , µ ) 8µ 2 £ () R (µbn , µ ) ° R (µen , µ ) ∑ 0 µ 2 £.
Un estimateur optimal au sens du risque quadratique est l’estimateur qui a le plus petit
risque quadratique pour toute valeur de µ 2 £. Il est souvent difficile, voire impossible, de
trouver un estimateur optimal.
Remarque 5.1.2. Pour un estimateur sans biais µbn de µ , le risque quadratique est défini par
R (µbn , µ ) = var µ (µbn )
Définition 5.1.7. Soient µbn et µen deux estimateurs sans biais de µ . On dit que µbn est préférable
à µen si
var µ (µbn ) ∑ var µ (µen ) 8µ 2 £ () var µ (µbn ) ° var µ (µen ) ∑ 0 µ 2 £.
Exercice 5.1.4. On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi uniforme U ([0, µ ]).
considérons les deuxestimateurs suivants : µb1 = 2 X n et µb2 = max( X 1 , . . . , X n ).
1. Montrer que µb1 est un estimateur sans biais de µ .
2. Montrer que µb2 est un estimateur biaisé de µ ; déterminer son biais ; déterminec c tel
que µb3 = cµb2 soit un estimateur sans biais de µ .
3. Déterminer la variance de µb1 et la variance de µb3 et dites lequel des deux estimateurs
est meilleur.
c’est à dire ≥Ø Ø ¥
Ø Ø
8" > 0 lim P صbn ° µ Ø ∏ " = 0.
n!+1
Interprétation : La convergence est une des propriétés les plus importantes pour un estima-
teur. On a la garantie qu’à un rang n assez grand et avec grande probabilité, µbn soit proche
du paramètre µ .
Exercice 5.1.6. Considerons un échantillon ( X 1 , . . . , X n ) issu d’une loi de moyenne m et
1X n
variance æ2 > 0. Montrer la moyenne empirique X n = X i est un estimateur convergent
n i=1
de m.
Solution 1. loi des grands nombres.
Solution 2. Inégalité de Bienaymé-Tchebythcev + Théorème des gendarmes. Pour tout
">0
≥Ø Ø ¥ ≥Ø Ø ¥ var ( X )
Ø Ø Ø Ø m n
0 ∑ Pm Ø X n ° mØ > " = Pm Ø X n ° Em ( X n )Ø > " ∑
"2
C’est à dire p 2
n( X n ° m2 ) °°°°°! N (0, 4 m2 æ2 )
L
n!+1
Chapitre
6 Méthodes d’estimation
E( g( X 1 ) = q(µ ). (6.1.1)
1X n
g ( X i ) = q (µ ) (6.1.2)
n i=1
— Résoudre (6.1.2) ; si q est bijective alors l’estimateur par la méthode des moments
est donné par :
≥1 X
n ¥
µbn = q°1 g( X i ) .
n i=1
22
6.2. METHODE DU MAXIMUM DE VRAISEMBLANCE 23
1. Etape 1 :
1 1
Eµ ( X 12 ) = var µ ( X 1 ) + (E µ ( X 1 ))2 = +
µ2 µ2
g( x) = x2 et q(µ ) = µ22 est bijective.
P
2. Etape 2 : n1 ni=1 X i2 = µ22 .
3. Etape 3 :
s
2
µ= 1 Pn 2
n i =1 X i
Exercice 6.1.1. Pendant une année, un assureur a enregistré les montants de sinistres sui-
vants
{500, 1000, 1500, 2500, 4500}.
Il décide de modéliser ces données par une loi Log-normale(µ, æ2 ). En utilisant la méthode
des moments, estimer les paramètres µ et æ2 . Calculer ensuite la probabilité d’avoir un si-
nistre supérieur à 4 500.
Exercice 6.1.2. Soit ( X 1 , . . . , X n ) un échantillon d’une population de loi uniforme sur [µ , 1].
Déterminer par la méthode des moments l’estimateur de µ . Etudier ses propriétés.
Exercice 6.1.3. Soit ( X 1 , . . . , X n ) un échantillon d’une population de loi gamma °(2, Ω ) avec Ω
inconnu. Déterminer par la méthode des moments l’estimateur de Ω . Etudier ses propriétés.
8µ 2 £ L n ( X 1 , . . . , X n , µbn ) ∏ L n ( X 1 , . . . , X n , µ ).
24 CHAPITRE 6. MÉTHODES D’ESTIMATION
La recherche d’un maximum de la vraisemblance n’est pas forcément réduite à un simple
calcul des zéros de la dérivée de L. Cependant, ce cas étant le plus fréquent, il est logique
de poser les deux hypothèses suivantes :
— le support X (≠) ne dépend pas de µ .
— la vraisemblance L est deux fois continûment dérivable par rapport µ .
Alors µbn est solution du système :
8
> @L n ( X 1 , . . . , X n , µ )
>
> (µ̂n ) = 0
>
> @µ
<
>
>
>
> 2
> @ L n ( X 1 , . . . , X n , µ)
: (µ̂n ) < 0.
@µ 2
Puisque la fonction logarithme est croissante, vu la forme de L, il est aussi aisé d’utiliser
le logarithme de la vraisemblance si f ( x, µ ) > 0, 8 x 2 X (≠), 8µ . Un estimateur du maximum
de vraisemblance maximise le logarithme de la vraisemblance L n ( X 1 , . . . , X n , µ ) :
n
X
ln(L n ( X 1 , . . . , X n , µ )) = ln( f ( X i , µ ).
i =1
µ̂n = X n .
6.2. METHODE DU MAXIMUM DE VRAISEMBLANCE 25
Etude des propriétés de µ̂n .
@ ln L( x1 , . . . , xn , µ ) n Xn 1
= ° x i = 0 () µ =
@µ µ i=1 xn
@2 ln L( x1 , . . . , xn , µ ) ≥ 1 ¥
= ° nx2n < 0.
@µ 2 xn
Pour montrer que µ̂n est biaisé (ou sans biais), il faut calculer
µ ∂ µ ∂ µ ∂
1 n 1
E = E Pn = n £ E Pn
Xn i =1 X i i =1 X i
Comme les variables X i sont indépendantes et de même loi E (µ ) = °(1, µ ), on en déduit que
n
X
Xi °( n, µ ).
i =1
X +Y °(a + b, µ )
n
X
Posons Z = X i , nous avons
i =1
µn
Z °( n, µ ) () f Z ( z, µ ) = z n°1 e°µ z 1R+§ ( z)
°( n)
26 CHAPITRE 6. MÉTHODES D’ESTIMATION
Finalement
µ ∂ µ ∂
1 n
E = E Pn
Xn i =1 X i
µ ∂
1
= n £ E Pn
i =1 X i
µ ∂ n
1 X
= n£E Z= Xi
Z i °1
Z+1
1
= f Z ( z, µ ) dz
°1 z
Z
µn +1
= z n°2 e°µ z dz
°( n) 0
Z+1
µn
= z(n°1)°1 e°µ z dz
°( n) 0
µn °( n ° 1)
= £
°( n) µ n°1
Utiliser la formule suivante :
Z+1
°(a)
= xa°1 e°Ω x dx
Ωa 0
°( n) = ( n ° 1)°( n ° 1) n entier ∏ 1
Z+1
°(a) = xa°1 e° x dx.
0
{100, 200, 250, 425, 515, 630, 1000, 1500, 2900, 2900}.
7.1 Introduction
Définition 7.1.1. Soit Æ 2]0, 1[ ; on appelle intervalle de confiance pour le paramètre µ de
niveau de confiance égale à 1 ° Æ, un intervalle aléatoire I ( X 1 , . . . , X n ) Ω £ tel que
Pµ ( I ( X 1 , . . . , X n ) 3 µ ) = 1 ° Æ.
lim Pµ ( I ( X 1 , . . . , X n ) 3 µ ) = 1 ° Æ.
n!+1
Lorsque
I ( X 1 , . . . , X n ) = [T n§ ( X 1 , . . . , X n ), T n§§ ( X 1 , . . . , X n )]
où T n§ ( X 1 , . . . , X n ) et T n§§ ( X 1 , . . . , X n ) sont des statistiques à valeurs dans £, on parle d’inter-
valle de confiance bilatéral. Dans le cas où
I ( X 1 , . . . , X n ) = [T n§ ( X 1 , . . . , X n ), +1[
ou
I ( X 1 , . . . , X n ) =] ° 1, T n§ ( X 1 , . . . , X n )],
on parle d’intervalle de confiance unilatéral.
Remarque 7.1.1. Dans l’univers des échantillons possibles, pour une proportion au moins
1 ° Æ d’entre eux, on obtient un intervalle qui contient µ .
Remarque 7.1.2. A Æ fixé, l’intervalle de confiance est d’autant meilleur que sa longueur est
petite.
Remarque 7.1.3. On doit comprendre un intervalle de confiance de niveau 1 ° Æ comme un
intervalle aléatoire qui a une probabilité 1 ° Æ de contenir le vrai parametre µ .
28
7.2. CONSTRUCTION D’UN INTERVALLE DE CONFIANCE 29
Définition 7.1.3. Soit X une variable aléatoire réelle de fonction de répartition F ( x) = P( X ∑
x). Pour Æ 2]0, 1[, on appelle quantile (ou fractile) d’ordre Æ de la loi de X le nombre
q Æ = inf { x 2 R, F ( x) ∏ Æ} .
Lorsque la fonction de répartition F est continue et strictement croissante, elle est inversible
d’inverse F °1 et pour tout Æ 2]0, 1[, on a qÆ = F °1 (Æ).
Définition 7.2.2. Une fonction asymptotiquement pivotale pour µ est une variable aléatoire,
¡( X 1 , . . . , X n , µ ) qui converge en loi vers une variable aléatoire dont la loi ne dépend pas de
µ.
c’est à dire
h i
Pµ ¡( X 1 , . . . , X n , µ ) ∑ q 1 = Æ1
h i
Pµ ¡( X 1 , . . . , X n , µ ) ∏ q 2 = Æ2
avec Æ1 + Æ2 = Æ.
3. La double inéquation
q 1 ∑ h( X 1 , . . . , X n , µ ) ∑ q 2 (7.2.1)
T1 ( X 1 , . . . , X n ) ∑ µ ∑ T2 ( X 1 , . . . , X n ),
Tn ° µ L
°°°°°! N (0, 1)
s n (µ ) n!+1
Remarque 7.2.1. Pour les intervalles de confiance unilatéraux, on utilise la méthode ci-
dessus.
Æ
P(° b ∑ X ∑ b) = 1 ° Æ , P( X ∑ b) = 1 ° .
2
2. La loi de Student T (n). L’intervalle le plus court est de la forme [°b, b] où b = t(1n°) Æ
2
Æ
est le quantile d’odre 1 ° de T (n).
2
> curve(dnorm(x),-3,3)
7.2. CONSTRUCTION D’UN INTERVALLE DE CONFIANCE 31
0.4
0.3
dnorm(x)
0.2
0.1
0.0
−3 −2 −1 0 1 2 3
x
32 CHAPITRE 7. ESTIMATION PAR INTERVALLE DE CONFIANCE
Loi de Student
0.4
0.3
dnorm(x)
0.2
0.1
0.0
−3 −2 −1 0 1 2 3
L
T ( n) °°°°°! N (0, 1)
n!+1
7.3 Exemples
Si X ,! N (µ, æ2 ) alors
X °m
,! N (0, 1)
æ
où z1° Æ2 est le quantile d’ordre 1 ° Æ2 de la loi normale centrée réduite N (0, 1)
Taille d’échantillon. Fixons " > 0. Nous cherchons à choisir une taille d’échantillon
telle que ME ∑ ". Ainsi, on cherche la taille n d’échantillon tel que
æ
|µ ° X̄ n | ∑ z1° Æ p ∑ "
2 n
c’est à dire
æ2 z12° Æ
2
n∏ .
"2
Cette variable aléatoire est une fonction pivotale pour µ. De plus la densité de la loi
de Student vérifie les hypothèses de la Proposition 7.2.1. Ainsi,
0 p ≥ ¥ 1
n Xn °µ
P @° t 1° Æ ∑ ∑ t 1° Æ A = 1 ° Æ
2 S 2
S
ME = t 1° Æ p .
2 n
Taille d’échantillon. Fixons " > 0. Nous cherchons à choisir une taille d’échantillon
telle que ME ∑ ". Ainsi, on cherche la taille n d’échantillon tel que
S
|µ ° X̄ n | ∑ t 1° Æ p ∑ "
2 n
c’est à dire
S 2 t21° Æ
2
n∏ .
"2
nV 2
,! ¬2 ( n).
æ2
( n ° 1)S 2
,! ¬2 ( n ° 1).
æ2
7.3. EXEMPLES 35
Ainsi, nous avons
µ ∂
( n ° 1)S 2
P q1 ∑ ∑ q 2 = 1°Æ
æ2
h ( n ° 1)S 2 i h ( n ° 1)S 2 i
P < q1 + P > q 2 = Æ.
æ2 æ2
Ainsi q1 = ¬(Æn2°1) et q2 = ¬(1n°°Æ1)1 avec Æ1 + Æ2 = Æ. On déduit que
p q
On remplace alors le numérateur p(1 ° p) et X n (1 ° X n ) et on obtient toujours
p
n( X n ° p ) L
q °°°°°! N (0, 1).
n!+1
X n (1 ° X n )
où z1° Æ2 est le quantile d’ordre 1 ° Æ2 de N (0, 1). Les approximations ci-dessus sont valables
si la taille de l’échantillon est suffisamment grande ( n ∏ 30)
Chapitre
37
38 CHAPITRE 8. GÉNÉRALITÉS SUR LES TESTS D’HYPOTHÈSES
- Erreur de deuxième espèce : décider que la machine est aux normes alors qu’en
réalité elle n’est pas aux normes : production de mauvaises pièces pouvant aboutir à
un mécontentement de la clientèle, voire à des problèmes de sécurité.
Définition 8.1.1. On appelle test une statistique √( X 1 , . . . , X n ) à valeurs dans {0, 1} telle que
√( X 1 , . . . , X n ) = 0 =) on accepte H0
√( X 1 , . . . , X n ) = 1 =) on accepte H1 .
Æ√ : £0 °! [0, 1]
µ 7°! Pµ (W ).
sup Æ√ (µ ).
µ 2£
sup Æ√ (µ ) = Æ.
µ 2£
Remarque 8.1.1. Le niveau du test est le plus gros risque de première espèce possible.
Ø√ : £1 °! [0, 1]
µ 7°! Pµ (W ).
L’idéal serait de diminuer les deux risques d’erreur en même temps. Malheureusement,
on montre qu’ils varient en sens inverse. Dans la pratique des tests statistiques, il est de
règle de se fixer Æ, ce qui fait jouer à H0 un rôle prééminent.
Un test est déterminé par sa région critique W . La région critique dépend du niveau Æ et
d’une statistique appelée variable de décision. Pour la déterminer, il est indispensable de
connaı̂tre la loi de la variable de décision sous l’hypothèse H0 . Lorsque ( x1 , . . . , xn ) sont des
valeurs observées de cet échantillon,
- si ( x1 , . . . , xn ) 2 W , alors on rejette H0 et on accepte H1 ;
- si ( x1 , . . . , xn ) 62 W , alors on accepte H0 et on rejette H1 .
∞√ : £1 °! [0, 1]
µ 7°! Pµ (W ).
8.2. ETAPES DES TESTS 39
La puissance
— croı̂t avec le niveau de signification Æ.
— croı̂t avec la taille del’échantillon
— dépend de la région critique.
Remarque 8.1.2. Nous avons 8µ 2 £1 , ∞√ (µ ) = 1 ° Ø√ (µ ).
Remarque 8.1.3. Un bon test est un test qui, pour un niveau Æ donné, maximise la puissance.
Définition 8.1.7. Un test √( X 1 , . . . , X n ) est sans biais lorsque la puissance du test est supé-
rieure au niveau Æ sur £1 :
∞(µ ) ∏ Æ 8µ 2 £1 .
• Test de H0 : µ = µ0 contre H1 : µ = µ1 .
© ™
- W = µ̂n > l Æ si µ1 > µ0
© ™
- W = µ̂n < l Æ si µ1 < µ0 .
Pour déterminer l Æ , il faut résoudre l’équation Pµ0 (W ) = Æ.
40 CHAPITRE 8. GÉNÉRALITÉS SUR LES TESTS D’HYPOTHÈSES
8.4 La p-value
En pratique, plutôt que de calculer la région critique en fonction de Æ, on préfère donner
un seuil critique de Ƨ appelée p-value, qui est telle que
- si Ƨ < Æ, on rejette H0
- si Æ < Ƨ , on accepte H0 .
Les logiciels statistiques calculent et présentent les p-valeurs qui sont difficiles à obtenir sans
moyen de calcul approprié.
Chapitre
9.2 Exemples
9.2.1 Test sur une proportion
On considère un échantillon ( X 1 , . . . , X n ) issu d’une loi de Bernouilli B (1, p) avec p 2]0, 1[
inconnue. On veut tester H0 : p = 1/4 contre H1 : p = 1/2 au seuil Æ = 0.05.
Le rapport de vraisemblance est : Nous avons
µ ∂Pn µ ∂
L( X 1 , . . . , X n , p 1 ) p 1 (1 ° p 0 ) i=1 X i 1 ° p 1 n
=
L( X 1 , . . . , X n , p 0 ) p 0 (1 ° p 1 ) 1 ° p0
Si p 0 = 1/4 et p 1 = 1/2, nous obtenons
L( X 1 , . . . , X n , 1/2) Pn
= 3 i=1 X i (2/3)n
L( X 1 , . . . , X n , 1/4)
Ainsi, nous avons
L( X 1 , . . . , X n , 1/2) Pn
> k Æ , 3 i=1 X i (2/3)n > k Æ
L( X 1 , . . . , X n , 1/4)
° ¢
X n ln ( 32 )n k Æ
, Xi > = KÆ.
i =1 ln(3)
41
42 CHAPITRE 9. TEST D’HYPOTHÈSE SIMPLE CONTRE HYPOTHÈSE SIMPLE
D’après Neyman-Pearson, la région critique est de la forme :
Ω n æ
X
W= X i > KÆ
i =1
Si la taille de l’échantillon est suffisamment grand (n > 30), nous pouvons utiliser le Théoréme
n
X
Central Limite qui permet d’approximer la loi de X i par la loi normale N ( np, np(1 ° p)).
i =1
n µ ∂
X n 3n
Détermination de K Æ . Sous H0 , X i suit approximativement la loi normale N ,
i =1 4 16
et nous avons
" #
n
X
Æ = P1/4 X i > KÆ
i =1
2X n 3
n
6 Xi ° n 7
6 i=1 4 KÆ ° 4 7
= P1/4 6 q > q 7
4 3n 3n 5
16 16
2X
n 3
n
6 Xi ° n 7
6 i=1 4 KÆ ° 4 7
= 1 ° P1/4 6 q ∑ q 7
4 3n 3n 5
16 16
0 1
n
K
B Æ ° C
= 1°©@ q 4 A.
3n
16
Ce qui implique
0 1
n
B KÆ ° C 4
©@ q A = 1 ° Æ.
3n
16
10.1 Introduction
On appelle test de Student un test de comparaison de la moyenne dans un échantillon
gaussien, c’est à dire un échantillon ( X 1 , . . . , X n ) issu de la loi normale N (m, æ2 ). Soit m 0
une valeur possible de m. La moyenne empirique X n est un estimateur efficace de m.
Deux résultats importants :
µ p ≥ ¥
2∂ n Xn °m
æ
X n ,! N m, () ,! N (0, 1).
n æ
p ≥ ¥
n Xn °m
,! T ( n ° 1)
Sn
qui est la loi de Student à n ° 1 dégrés de liberté avec
√ !1/2
1 X n
Sn = ( X i ° X n )2 .
n ° 1 i=1
Sous l’hypothèse H0 ,
µ ∂ p ≥ ¥
æ2 n X n ° m0
X n ,! N m 0 , () ,! N (0, 1).
n æ
44
10.2. H0 : M ∑ M0 CONTRE H1 : M > M0 45
Ce qui implique alors
0p ≥ ¥ 1
n X n ° m0 p
nl ÆA
Pm0 @ > = Æ.
æ æ
on accepte H1 au niveau Æ = 0.05. Ainsi, on peut conclure que les tablettes de cette
marque contiennent une teneur en cacao supérieure à 430 g par k g.
où t1°Æ,n°1 est le quantile d’ordre 1 ° Æ de la loi de Student à n ° 1 degrés de liberté T (n ° 1).
Exercice 10.2.2. Une marque de tablettes de chocolat annonce que ses tablettes contiennent
une teneur en cacao supérieure à 430 g par k g. On e↵ectue un contrôle de qualité sur
un échantillon de 10 tablettes et on obtient les teneurs suivantes en g/k g : 505.1 423.5
462.0 391.9 412.1 487.2 439.0 434.1 441.1 474.2. On admet que chaque mesure suit une loi
normale N (m, æ2 ). Que peut-on conclure au niveau Æ = 0.05 ?
Solution 10.2.2. Au niveau Æ = 0.05, nous voulons tester H0 : m ∑ 430 contre H1 : m > 430.
La région critique du test est :
p ≥ ¥
Ω 10 X ° 430 æ
10
W= > t 0.95,9
S 10
où t0.95,9 = 1.833 est le quantile d’ordre 0.95 de la loi de Student à 9 degrés de liberté. Par
suite, nous obtenons :
p ≥ ¥
Ω 10 X ° 430 æ
10
W= > 1.833
35
Puisque
1
x10 = (505.1 + 423.5 + 462.0 + 391.9 + 412.1 + 487.2 + 439.0 + 434.1 + 441.1 + 474.2) = 447.02
10
et
p
10 (447.02 ° 430)
= 1.5378 < 1.833,
35
on rejette H1 au niveau Æ = 0.05. Ainsi, on peut conclure que les tablettes de cette marque
ne contiennent pas une teneur en cacao supérieure à 430 g par k g.
10.3. H0 : M ∏ M0 CONTRE H1 : M < M0 47
où q0.05 = ° q0.95 = °1.644 est le quantile d’ordre 0.05 de la loi normale centrée-
15
réduite. 200 ° p § 1.64 = 193.65
15
3. Puisque 195 > 193.65, on accepte H0 . Même si x̄ < 200 g, il n’y a pas d’éléments
significatifs indiquant que le poids moyen des boites est inférieure à 200 g.
où tÆ,n°1 est le quantile d’ordre Æ de la loi de Student à n ° 1 degrés de liberté T (n ° 1).
où t0.05,14 = °1.761 est le quantile d’ordre 0.05 de la loi de Student à 14 degrés de
liberté (T (14)).
p
3. Puisque 15(195 15
°200)
= °1.291 > °1.761, on accepte H0 .Au niveau Æ = 0.05, il n’y a
pas d’éléments significatifs indiquant que le poids moyen des boites est inférieure à
200 g.
10.4 H0 : m = m 0 contre H1 : m 6= m 0
Exercice 10.4.1. Une entreprise de vente par correspondance demande un montant fixe pour
les frais d’envoi, indépendamment du poids du colis. Une étude réalisée il y a quelques
années a montré que le poids moyen d’un colis était de 17.5 kg avec un écart-type de 3.6
kg. La comptabilité soupçonne que le poids moyen est maintenant di↵érent de 17.5 kg. Un
échantillon aléatoire de 100 colis est prélevé et fournit un poids moyen de x̄ = 18.4 kg. On
suppose que les poids des colis sont distribués normalement. Que conclure au niveau Æ = 0.05
où q0.975 = 1.96 est le quantile d’ordre 0.975 de la loi normale centrée-réduite.
æ 3.6
m 0 + p q 1° Æ = 17.5 + p § 1.96 = 18.2056
n 2
100
æ 3.6
m 0 ° p q 1° Æ = 17.5 ° p § 1.96 = 16.7944
n 2
100
3. Puisque x̄ > 18.2056, on rejette H0 i.e le poids moyen des colis a changé.
10.4. H0 : M = M0 CONTRE H1 : M 6= M0 49
2
10.4.1 On suppose que la variance æ est inconnue.
où t1° Æ2 ,n°1 est le quantile d’ordre 1 ° Æ2 de la loi de Student à n ° 1 degrés de liberté T (n ° 1).
Exercice 10.4.2. Une entreprise de vente par correspondance demande un montant fixe pour
les frais d’envoi, indépendamment du poids du colis. Une étude réalisée il y a quelques années
a montré que le poids moyen d’un colis était de 17.5 kg. La comptabilité soupçonne que le
poids moyen est maintenant di↵érent de 17.5 kg. Un échantillon aléatoire de 100 colis est
prélevé et fournit un poids moyen de x̄ = 18.4 kg avec un écat-type estimé égal à 3.6. On
suppose que les poids des colis sont distribués normalement. Que conclure au niveau Æ = 0.05
où t0.975,100 = 1.9842 est le quantile d’ordre 0.975 de la loi de Student à 99 degrés de
liberté T (99).
p
100 (18.4 ° 17.5)
3. Puisque = 2.5 > 1.9842, on rejette H0 i.e le poids moyen des colis
3.6
a changé.
Chapitre
11.1 Introduction
Soient P1 et P2 deux populations. On étudie un caractère (rendement, chi↵re d’a↵aire,
seuil de perception, etc.) sur ces deux populations. Le caractère a pour espérance m 1 et
pour variance æ21 dans la population P1 et a pour espérance m 2 et pour variance æ22 dans
la population P2 . Pour des raisons techniques, on supposera que le caractère est distribué
selon une loi normale. On dispose alors de deux échantillons ( X 1 , . . . , X n1 ) et (Y1 , . . . , Yn2 ) issus
respectivement de P1 et P2 , tels que X i et Y j sont indépendantes :
- ( X 1 , . . . , X n1 ) est issu de N (m 1 , æ21 )
- (Y1 , . . . , Yn2 ) est issu de N ( m 2 , æ22 ).
Dans cette section, on comparera les moyennes et les variances des deux échantillons. Les
moyennes empiriques, variances empiriques modifiées des deux échantillons sont notées res-
pectivement X n1 , S12 , Y n2 et S22 .
moyenne Variance S 2
Groupe 1 12.8 3.4
Groupe 2 11.3 2.9
On suppose que les notes sont reparties dans les deux groupes selon des lois normales et
qu’elles sont toutes independantes. Peut-on considérer que le premier groupe est meilleur que
le deuxième, c’est-à-dire qu’un point et demi d’écart entre les moyennes est significatif d’une
di↵érence de niveau ? La procédure à suivre consiste à tester d’abord l’égalité des variances,
puis l’égalité des moyennes.
Exemple 11.1.2. Deux variétés de blé ont été cultivées chacune sur 8 parcelles (n1 = n2 = 8).
Les rendements observés (en quintaux/hectare) sont regroupés dans le tableau ci-dessus :
moyenne variance æ2
Echantillon 1 80.0 1.00
Echantillon 2 81.5 1.00
50
11.2. TEST DE FISHER DE COMPARAISON DES VARIANCES 51
Si l’on considère que les 16 parcelles, la variété 2 présente en moyenne un rendement su-
périeur (de 1.5 q/ ha) à celui de la variété 1. Peut-on généraliser ce résultat ? Autrement
dit, la di↵érence observée (de 1.5 q/ha) doit être considérée comme une conséquence d’un
rendement moyen di↵érent selon la variété ou, au contraire, est-il fortuit ? Selon un autre
point de vue, la question peut être posée ainsi : la di↵érence de moyenne obervée doit être
imputée au hasard (c’est-à-dire à la variété ”naturelle” dite aussi ”résiduelle” pour exprimer
que l’on ne sait l’expliquer par la statistique) ?
( ) ( )
S 12 §
S 12
W= < fÆ [ > f 1§° Æ
S 22 2 S 22 2
H0 : m 1 = m 2 contre H0 : m 1 6= m 2 .
Lorsque H0 est vraie, on observe très rarement une parfaite égalité des moyennes. La question
est donc de savoir à partir de quel écart de moyenne va-t-on choisir H1 ?
La région critique est de la forme
nØ Ø o
Ø Ø
W = Ø X n1 ° Y n2 Ø > l Æ .
X n ° Y n2
V= r1 ,! N (0, 1).
æ21 æ2
n1 + n22
s
ΩØ Ø æ
Ø Ø æ21 æ22
W = Ø X n1 ° Y n2 Ø > u 1° Æ +
2 n1 n2
Exemple 11.3.1. Revenons à l’exemple 11.1.2. Les variances sont connues, æ21 = æ22 = 1,
n 1 = n 2 = 8 et les rendements moyens observés x̄8 = 80 q/ h et ȳ8 = 81.5 q/ h. On suppose que
le seuil du test est Æ = 0.05. De ce fait, u0.975 = 1.96 Nous avons donc
s
1 1
u 0.975 + = 0.98 x̄8 ° ȳ8 = °1.5 < °0.98.
8 8
On note que lorsque n1 et n2 sont grands, le caractère gaussien des observations n’est plus
requis, et que T n1 ,n2 suit approximativement, sous H0 , une loi N (0, 1)..
11.3. TEST DE STUDENT DE COMPARAISON DES MOYENNES 53
Supposons que æ21 = æ22 .
où t1° Æ2 ,n1 +n2 °2 est le quantile d’odre 1 ° Æ2 de la loi de Student T (n1 + n2 ° 2).
X n ° Y n2
T n1 ,n2 = r 1 .
S 2n1 S 2n2
n1 + n2
où q1° Æ2 est le quantile d’odre 1 ° Æ2 de la loi de Student [∫] degrés de liberté.
54 CHAPITRE 11. TESTS DE STUDENT : DEUX ÉCHANTILLONS
Figure 11.1 –
Chapitre
où q1°Æ est le quantile d’ordre 1 ° Æ de loi normale centrée-réduite N (0, 1).
où q1° Æ2 est le quantile d’ordre 1 ° Æ2 de loi normale centrée-réduite N (0, 1).
55
56 CHAPITRE 12. TESTS DE COMPARAISON DES PROPORTIONS
H0 : p 1 = p 2 contre H1 : p 1 6= p 2
et s µ ∂
1 1
X n1 ° Y n2 p(1 ° p) + ,! N (0, 1) .
n1 n2
n 1 X n1 + n 2 Y n2
Comme p est inconnu, en remplaçant p par son estimateur p̂ = le résultat
n1 + n2
ci-dessus reste approximativement vrai. En posant
v √ !µ
u ∂
u n1 X n + n2 Y n n 1 X n1 + n 2 Y n2 1 1
æ̂ = t 1 2
1° + ,
n1 + n2 n1 + n2 n1 n2
X n1 ° Y n2
U= ,! N (0, 1) .
æ̂
où q1°Æ est le quantile d’ordre 1 ° Æ de loi normale centrée-réduite N (0, 1).
Exercice 12.2.3. Une étude des décisions rendues par des jurys dans des cas de vols par
e↵raction où l’accusé était de race noire a révélé les faits suivants : parmi les 28 cas où
les victimes étaient de race noire, l’accusé a été trouvé coupable dans 12 cas ; parmi les 36
cas où la victime était de race blanche, l’accusé a été trouvé coupable dans 23 cas. Peut-on
conclure que les jurys ont une plus forte tendance à déclarer coupables ceux qui sont accusés
d’avoir commis des vols contre des Blancs ?
Chapitre
13 Tests du ¬2
On suppose que le vecteur P est inconnu. Soit P § = ( p§1 , . . . , p§k ) un vecteur de probabilités
k
X
connu ( p§j = 1). On veut resoudre le problème de test suivant :
j =1
H0 : P = P § contre H1 : P 6= P § .
Pour j = 1, . . . , k, on note
Nj
pb j =
n
la fréquence empirique de a j ; N j représente le nombre d’obervations de la modalité a j dans
l’échantillon observé de taille n. Le vecteur des fréquences empiriques est
Pb = ( pb1 , . . . , pbk ).
T n mesure l’écart entre les e↵ectifs observés et les e↵ectifs ”théoriques” sous l’hypothèse H0
où ¬21°Æ,k°1 est le quantile d’ordre 1 ° Æ de la loi de khi-deux ¬(k ° 1) à k ° 1 degrés de liberté.
59
60 CHAPITRE 13. TESTS DU ¬2
Remarque 13.1.1. En pratique, ce test marche bien si n ∏ 30 et np§j ∏ 5 pour tout j. Si cette
condition n’est pas satisfaite, on peut regrouper les valeurs de a j pour lesquelles p§j est trop
faible.
Exercice 13.1.1. Lors de cent lancers d’un dé à six faces, on observe les résultats suivants :
x 1 2 3 4 5 6
E↵ectif observé 20 13 17 12 23 15
E↵ectif théorique 100/6 100/6 100/6 100/6 100/6 100/6
Tester au niveau 5% l’hypothèse H0 ={le dé n’est pas pipé} contre l’hypothèse H1 ={le dé
est pipé}.
Solution : Posons P § = (1/6, 1/6, 1/6, 1/6, 1/6, 1/6). Il s’ agit ici de tester au niveau 5%
H0 : P = P § contre H1 : P 6= P § .
Pour tout j = 1, . . . , k, nous avons 100 £ p§j ∏ 5 et la taille n = 100 ∏ 30. Les conditions
d’utlisation du test sont respectées.
Au niveau 5%, la région critique du test est
Ω æ
W = T100 > ¬20.95,5
où
6 ( N j ° 100 £ p§ )2
X j
T100 = .
j =1 100 £ p§j
où ¬21°Æ,(r°1)(s°1) est le quantile d’ordre 1 ° Æ de la loi de khi-deux ¬(r ° 1)( s ° 1)) à (r ° 1)( s ° 1)
degrés de liberté.
Exercice 13.3.1. Une enquête sur l’influence de la ceinture de sécurité a donné les résultats
suivants : sur 10.779 conducteurs ayant subit un accident l’enquête rapporte les e↵ectifs dans
le tableau qui suit selon la gravité et le port au non de la ceinture de sécurité :
Nature des blessures Port de la ceinture Pas de ceinture
Graves ou fatales 5 141
Blessures sérieuses 25 330
Peu ou pas de blessures 1229 9049
La ceinture de sécurité a-t’elle une influence sur la gravité des blessures lors d’un acci-
dent ?
Chapitre
Voici quelques indications concernant la fiche de TD stat 4. Laissez les étudiants exprimer
leurs talents au tableau. Cette fiche ne doit en aucun cas se retrouver dans les mains des
étudiants.
Exercice 1. Afin de mieux gérer les demandes de crédits de ses clients, un directeur d’agence
bancaire réalise une étude relative à la durée de traitement des dossiers, supposée suivre une
distribution normale. Un échantillon de 30 dossiers a donné :
Durée de taitement (en jours) [0, 10[ [10, 20[ [20, 30[ [30, 40[ [40, 50[ [50, 60[
E↵ectif 3 6 10 7 3 1
63
64 CHAPITRE 14. EXERCICES AVEC SOLUTIONS
— Méthode 1 : Maximiser une fonction à deux variables à valeurs réelles, c’est à
dire, résoudre le problème de maximisation :
≥ ¥
max ln L( m, æ2 , X 1 , . . . , X n ) .
( m,æ2 )2R£R+
Puis, résourdre ≥ ¥
c2 = arg max ln L( m
æ b n , æ2 , X 1 , . . . , X n ) .
n
m2R
On obtient :
n
m
bn = Xn c2 = 1 X ( X ° X )2 .
æ n i n
n i=1
Attention : en ce qui concerne la variance, il faut dériver par rapport à
æ2 et non par rapport à æ.
— E(mb n) = m ) m
b n est un estimateur sans biais de m.
— la variance de mb n est
æ2
V( m
b n) = .
n
— L’information de Fisher apportée par l’échantillon ( X 1 , . . . , X n ) sur le paramètre
m est : ≥ ¥
≥ @2 ln L( m, æ2 , X 1 , . . . , X n ) ¥ n
I n ( m) = °E = 2.
@ m2 æ
æ2 1
b n est un estimateur sans biais de m et V( m
— m b n) = = )m
b n est un esti-
n I n ( m)
mateur efficace de m.
Propriétés asymptotiques
— m
b n est un estimateur convergent de m. On peut le montrer de deux manières :
— soit la définition en utilisant l’inégalité de Bienaymé-Tchebithev
— soit par la loi des grands nombres :
— soit en montrant que E(m b n ) °! m et V( m
b n ) °! 0.
65
— m
b n est un estimateur asymptotiquement normal, c’est à dire,
p loi
b n ° m) °! N (0, æ2 ).
n( m
n
c2 = 1
X
Intéressons nous æ n (Xi ° Xn )2 .
n i=1
Propriétés non asymptotiques
c2 ) = n ° 1 æ2 6= æ2 ) æ
— E(æ c2 est un estimateur biaisé de æ2 .
n n
n
c
— æn est un estimateur biaisé de æ2 ) æ
2 c2 n’est pas un estimateur efficace de æ2 .
n
(Pas la peine de calculer l’information de Fisher et la borne de Cramer-
Rao, la condition sans biais n’étant pas vérifiée.)
Propriétés asymptotiques
c2 ) = n ° 1 æ2 °! æ2 ) æ
— E(æ c2 est un estimateur asymptotiquement sans biais de æ2 .
n n
n
— Vérifier que la variance V(æc2 ) °! 0 pour assurer la convergence de æ
c2 vers æ2 .
n n
— Pas la peine d’établir la normalité asymptotique ; c’est un peu compli-
qué pour eux je crois ! Si vous trouvez simple, faites moi signe !
2. Donner les estimations ponctuelles de la moyenne m et de la variance æ2 .
Utiliser les centres des intervalles pour faire les estimations :
1X 30 1 X6
X 30 = ci = n j c j.
n i=1 30 j=1
X30 1 X6
d
æ 2 = 1 ( c i ° X 30 )2 = n j ( c j ° X 30 )2 .
30 30 i=1 30 j=1
où t(0n.975
°1)
est le quantile d’ordre 0.975 de la loi de Student à n ° 1 degrés de liberté et
r
n c2
Sn = æn .
n°1
Exercice 2. La société ”Votre santé” est une entreprise de vente par correspondance de
produits de beauté dits ”naturels”. Elle gère un fichier de 350000 clients et propose chaque
mois une o↵re promotionnelle accompagnée d’un cadeau. Le taux de réponse à cette o↵re est
généralement de 15%, la marge moyenne par réponse de 340 fcfa. Mlle Claire, nouvellement
en charge de ce fichier, a retenu comme cadeau un abonnement gratuit de six mois, au
mensuel ”Votre beauté Madame”. Elle pense que cela pourrait augmenter le taux de réponse
à la prochaine o↵re ; toutefois cette proposition ne serait rentable que si le taux de réponse
dépassait les 17.5% (avec la même marge moyenne évidemment). Elle envisage de tester
la réalité de ces hypothèses sur un échantillon de clientes. La précision voulue pour son
estimation est de l’ordre de 2%.
1. Quelle taille d’échantillon doit-elle choisir afin d’atteindre la précision voulue (avec
un niveau de confiance de 0.95) ?
q
puisque X n (1 ° X n ) ∑ 12 . La marge d’erreur est donc :
s
X n (1 ° X n ) 1
ME = q 1° Æ ∑ q 1° Æ p .
2 n 2 2 n
67
Nous déterminons n tel que
1 ≥ q 1° Æ ¥2
2
q 1° Æ p ∑ 0.02 ) n ∏ = 2401.
2 2 n 0.04
— Méthode plus optimiste (on pense que le taux de réponse sera proche
du taux habituel qui est 15%) : L’intervalle de confiance de niveau 1 ° Æ
est donné par
s s
h X n (1 ° X n ) X n (1 ° X n ) i
X n ° q 1° Æ , X n + q 1° Æ
2 n 2 n
avec sans doute X n (1 ° X n ) sans doute proche de son ancienne 0.15(1 ° 0.15).
Nous déterminons alors n tel que
s s
X n (1 ° X n ) 0.15(1 ° 0.15)
ME = q 1° Æ = q 1° Æ ∑ 0.02
2 n 2 n
) n ∏ 1224.51 ) n = 1225.
2. Les résultats d’un sondage sur un échantillon de 1225 clientes vous sont donnés en
annexe.
Y 850 ° Z 375
Tq
1 1
pb(1 ° pb)( 850 + 375 )
où
850 £ Y 850 + 375 £ Z 375
pb = .
850 + 375
La région critique du test est :
n o
W = T > q 1°Æ .
— Pour Æ = 0.05 q0.95 = 1.64 et t = 2.13. On voit que 2.13 > 1.64. Ainsi, au niveau
Æ = 0.05, nous acceptons H1 , c’est à dire que les anciens sont plus recptifs que les
nouveaux.
Théorème 14.0.1. Posons
n 1 X n1 + n 2 X n2
pb = .
n1 + n2
- La région critique du test H0 : p 1 ∑ p 2 contre H1 : p 1 > p 2 est :
8 9
>
< >
=
X n1 ° X n2
W= q > q 1°Æ .
> >
: pb(1 ° pb)( n11 + n12 ) ;
où t(257)
Æ est le quantile d’ordre 0.05 de la loi de Student à 257 degrés de liberté.
On peut utiliser la table de la loi normale centrée réduite car la loi de Student
converge vers la loi normale N (0, 1) lorsque le nombre de degrés de liberté n ! +1
( n > 30 en pratique.)
— On a t = °0.97 et t(257)
Æ = °1.65. Nous avons donc °0.97 > °1.65. Nous en dédui-
sons qu’au niveau 5%, on conerve H0 ,c’est à dire en moyenne, la marge ne di↵ère
pas significativement de 340.
2. Montrer que µbn peut être obtenu par la methode des moments.
Nous avons
1 1 1
E( X 1 ) = ) Xn = )µ=
µ µ Xn
P 1
X n °°°°°! .
n!+1 µ
1
Comme, l’application x 7! est continue sur R§+ , alors
x
1 P
°°°°°! µ .
Xn n!+1
4. Montrer que µbn est un estimateur biaisé de µ . En déduire un estimateur µen sans biais
de µ .
Montrer que
E(µbn ) 6= µ .
Utiliser la linéarité de l’espérance pour tirer µen .
5. L’estimateur µen est-il efficace ?
Je crois que µen n’est pas efficace malgré qu’il soit sans biais. Mais il faut vérifier que
la variance :
V(µen ) > BCR (µ ),
où BCR (µ ) est la borne de Cramer-Rao.
71
Exercice 4. Pour 30 femmes et 20 hommes, on a observé le salaire mensuel. Les résultats
mesurés en euros sont ci-dessous :
2283 2010 1970 2019 1941 2024 2046 1962 1948 2071
2108 1880 2008 2119 2030 2014 1919 1837 2094 2169
Au seuil de 5%, le salaire moyen des hommes est-il significativement supérieur à celui
des femmes ?
Il s’agit ici de faire un test de comparaison des moyennes dans un échantillon gaussien.
— ( X 1 , . . . , X n1 ) est issu de N (m 1 , æ21 )
— (Y1 , . . . , Yn2 ) est issu de N (m 2 , æ22 ).
— ( X 1 , . . . , X n1 ) et (Y1 , . . . , Yn2 ) sont indépendants.
Problème : tester H0 : m 1 = m 2 contre H1 : m 1 6= m 2 au niveau Æ.
La variable de décision dépend du fait que les variances æ21 et æ22 soient égales ou non. Il
faut donc commencer par comparer les variances :
où
m = n 1 + n 2 ° 2 si æ1 = æ2
et ≥ S2
n1 S 2n ¥2
2
n1 + n2
m= si æ1 6= æ2 .
S 4n1 S 4n2
+
n21 ( n 1 °1) n22 ( n 2 °1)
72 CHAPITRE 14. EXERCICES AVEC SOLUTIONS
Année Universitaire 2018-2019
Examen (2 heures)
Enseignant : Prof. YODE Armel
Exercice 1. Une enquête concernant l’utilisation des cartes bancaires (CB) a été e↵ectuée
en septembre 2005 auprès des personnes agées de 18 ans. Les résultats (partiels) de cette
enquête sont présentés dans le tableau ci-dessous :
Description E↵ectif
Personnes interrogées 501
Porteurs de CB 433
ayant e↵ectué au moins un achat par CB 400
ayant e↵ectué au moins un achat par CB sur Internet 144
- La population étudiée est l’ensemble des clients ayant e↵ectué au moins un achat
par CB.
- On dispose d’un échantillon de taille 400 issu de cette population.
- Soit X i la variable aléatoire définie par :
(
1 si le client i a e↵ectué au moins un achat par CB sur intenet
Xi =
0 sinon
X i suit une loi de Bernouilli B (1, p). De plus les variables aléatoires X 1 , . . . , X n
sont indépendantes.
n
Y
L( p, X 1 , . . . , X n ) = f ( X i , p)
i =1
Y n
= p X i (1 ° p)1{0,1}
i =1
≥ p ¥P n X i
= (1 ° p)n
i =1
1{0,1}n
1° p
≥ ¥ X n ≥ p ¥
ln L( p, X 1 , . . . , X n ) = n ln(1 ° p) ° X i ln
i =1 1° p
73
La log-vraisembleance est
n
X n
X
ln L( X 1 , . . . , X n , p) = X i ln( p) + ( n ° X i ) ln(1 ° p)
i =1 i =1
Condition du premier ordre
Pn Pn
i =1 X i n° i =1 X i
@ ln L( X 1 , . . . , X n , p) 1X n
= ° = 0 () p = Xi = X n
@p p (1 ° p) n i=1
Condition du deuxième ordre
@2 ln L( X 1 , . . . , X n , p) ° nX n n ° nX n
(X n) = ° < 0.
@ p2 2
Xn (1 ° X n )2
pbn = X n .
(a) E ( pb) = p
(b) L’information de Fisher est :
≥ @2 ln L( X , . . . , X , p) ¥ n
1 n
I n = °E = .
@ p2 p(1 ° p)
p(1 ° p)
var ( pbn ) = = BCR ( p).
n
6. En janvier 2005, une enquête similaire évaluait à 32% la part de personnes ayant
e↵ectué au moins un achat par CB sur Internet parmi celles ayant e↵ectué au moins
un achat par CB.
(a) Les données de l’enquête de septembre 2005 permettent-elles de conclure à une
augmentation significative de la part de personnes utilisant leur CB sur Internet,
en prenant un risque de première espèce de 1% ?
Il s’agit ici de tester H0 : p ∑ 0.32 contre H1 : p > 0.32 au seuil Æ = 0.01. La région
critique est donc
n p400( p
bn ° 0.32) o
W= p > q 0.99
0.32 § 0.68
où q0.99 = 2.33 est le quantile d’ordre 0.99 de la loi normale centrée réduite.
Comme
p
400( pbn ° 0.32)
p = 1.714 < 2.33, alors au seuil de 1%, les données de septembre
0.32 § 0.68
2005 ne permettent pas de conclure àune augmentation significative de la part des
personnes utilisant leur CB sur internet.
(b) Quelle est la puissance du test lorsque p = 34% ?
La puissance du test au point p = 0.34 est donée par :
≥ p400( p
bn ° 0.32) ¥
∞(3) = P34 p > 2.33
0.32 § 0.68
s
≥ 0.32 § 0.68 ¥
=P p b400 > 2.33 + 0.32
400
≥ p
0.34 § 0.66 ¥ 400( pbn ° 0.34)
Sous l’hypothèse H1 , pbn ª N 0.34, , p ª N (0, 1). Ainsi,
400 0.34 § 0.66
nous obtenons :
s s
≥ p400( p
bn ° 0.34) 400 h 0.32 § 0.68 i¥
∞(3) = P0.34 p > 2.33 + 0.32 ° 0.34
0.34 § 0.66 0.34 § 0.66 400
≥1¥
Exercice 2. On considère un échantillon ( X 1 , . . . , X n ) issu de la loi exponentielle E avec
µ
µ > 0 inconnu.
Exercice 3. Une étude a été réalisée sur le cancer de la gorge. Pour cela, une population
de 1000 personnes a été interrogée. les résultats obtenus sont donnés dans le tableau de
contingences suivant :
Exercice 4. Sur deux groupes de même taille 9 malades, on expérimente les e↵ets d’un
nouveau médicament. On observe les résultats suivants :
Groupe 1 15 18 17 20 21 18 17 15 19
Groupe 2 12 16 17 18 17 15 18 14 16
1. Comparer au niveau 5% les variances des deux populations
2. Comparer au niveau 5% les moyennes des deux populations