0% ont trouvé ce document utile (0 vote)
39 vues52 pages

Cours de Probabilités : Échantillonnage et Estimation

Pdf

Transféré par

akimk5171
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
39 vues52 pages

Cours de Probabilités : Échantillonnage et Estimation

Pdf

Transféré par

akimk5171
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Cours de Probabilités

(2e Partie)

Professeur Diakarya BARRO

Année Universitaire 2022-2023


Table des matières
1 Distributions d’échantillonnage 2
1.1 Généralités sur l’échantillonnage . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Problématique de l’échantillonnage . . . . . . . . . . . . . . . 2
1.1.2 Terminologies et exemples . . . . . . . . . . . . . . . . . . . . 3
1.1.3 Méthodes d’échantillonnage . . . . . . . . . . . . . . . . . . . 4
1.1.4 Avantages et inconvénients de l’échantillonnage . . . . . . . . 5
1.2 Variables d’échantillonnage . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.1 Notion des distributions d’échantillons . . . . . . . . . . . . . 7
1.2.2 Distributions de moyennes d’échantillons . . . . . . . . . . . . 8
1.2.3 Distribution des proportions d’échantillons . . . . . . . . . . . 12
1.2.4 Distribution de la variance d’échantillons . . . . . . . . . . . . 15
1.3 Généralités sur l’estimation . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.1 Présentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2 Qualités de l’estimateur . . . . . . . . . . . . . . . . . . . . . 19
1.4 Méthodes d’estimation ponctuelle . . . . . . . . . . . . . . . . . . . . 23
1.4.1 Utilisations des résultats d’échantillonnage . . . . . . . . . . . 23
1.4.2 Méthode du maximum de vraisemblance . . . . . . . . . . . . 23
1.4.3 Méthode des moments . . . . . . . . . . . . . . . . . . . . . . 27
1.5 Estimation par intervalle de con…ance . . . . . . . . . . . . . . . . . . 28
1.5.1 Position du problème . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.2 Intervalle de con…ance pour une moyenne . . . . . . . . . . . . 29
1.5.3 Intervalle de con…ance de la proportion . . . . . . . . . . . . . 32
1.5.4 Intervalle de la variance d’une loi normale . . . . . . . . . . . 33

2 Introduction aux tests d’hypothèses 37


2.1 Généralités sur les tests . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.1.1 Présentation des tests d’hypothèses . . . . . . . . . . . . . . . 37
2.1.2 Mécanismes et di¤érents types de tests . . . . . . . . . . . . . 37
2.1.3 Di¤érentes étapes d’un test d’hypothèses . . . . . . . . . . . . 40
2.2 Tests de comparaison . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2.1 Comparaison d’une moyenne à une moyenne standard . . . . . 41
2.2.2 Comparaison d’une proportion à une proportion standard . . . 42
2.3 Tests d’homogénéité . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.3.1 Comparaison de deux moyennes . . . . . . . . . . . . . . . . . 43
2.3.2 Comparaison de deux proportions . . . . . . . . . . . . . . . . 44
2.4 Les tests de Khi-deux . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.4.2 Test d’adéquation, test d’ajustement . . . . . . . . . . . . . . 45
2.4.3 Tests d’indépendance . . . . . . . . . . . . . . . . . . . . . . . 48

1
Chapitre 1 Distributions d’échantillonnage
1.1 Généralités sur l’échantillonnage
1.1.1 Problématique de l’échantillonnage

Dans notre vie quotidienne, il existe très souvent un désir d’exprimer en terme
quantitatif certains aspects, de déterminer certaines caractéristiques numériques.
Par exemple, on peut vouloir
- déterminer l’âge moyen des étudiants en L2-SEG dans les universités en Afrique,
- estimer le temps moyen passé sur les réseaux sociaux des étudiants en Afrique,
L’idée fondamentale dans ce cas est l’étude d’une population …nie où tous les
individus présentent les mêmes centres d’intérêt. Naturellement, on doit se poser la
question suivante : pourquoi ne pas etudier le caractere en question sur chaque
individu de la population pour obtenir une reponse vraie et exacte?
Malheureusement cela n’est pas toujours possible surtout lorsque l’on a une large
population ou pour certains types d’études. En e¤et, di¤érents types de contraintes
peuvent empêcher une étude exhaustive de la populations. On peut citer ; par
exemple
des contraintes budgétaires. Exemple : Assemblée Nationale, Conseil de Sécurité
des contraintes de réalisabilité . Exemple : Pollution par moto à Ouagadougou
des contraintes d’accès à l’information. Exemple : Enquête sur le sida, la sexua-
lité, le revenu.

Dans un tel contexte, on procède par échantillonnage c’est à dire que l’on restreint
l’étude du caractère à une partie de la population appelée echantillon: La théorie
de l’échantillonnage est l’étude des liens existant entre les caractéristiques de la
population et celles de l’échantillon.

Le problème fondamental de l’échantillonnage est le suivant : comment peut-on


généraliser à toute la population des résultats statistiques (moyenne, écart-type,
proportion) obtenus seulement sur l’échantillon ?
Pour cela il faut que l’échantillon soit représentatif c’est à dire qu’il ré‡ète la
situation réelle de la population, d’où les techniques ou mécanismes d’échantillon-
nage.

2
1.1.2 Terminologies et exemples

a) Quelques terminologies de l’échantillonnage


Nous donnons ici quelques termes techniques de l’échantillonnage.
Etude Statistique : C’est l’étude des caractéristiques (variables statistiques)
d’un ensemble d’objets (population composée d’individus).
Enquête ; Une enquête est une recherche d’information statistique.
Sondage : On n’étudie qu’une partie de la population appelée échantillon. Cette
théorie cherche alors à extrapoler à la population entière les propriétés mises
en évidence sur l’échantillon statistique inférentiel.
Echantillon : c’est un ensemble d’individus représentatifs d’une population.
Echantillonnage : C’est une opération consistant à sélectionner, selon un méca-
nisme approprié, une fraction d’une population plus vaste. L’échantillon obtenu
doit re‡éter le mieux possible la diversité de la population entière.

Inférence statistique : C’est l’ensemble des méthodes qui permettent de faire


des prévisions, des interpolations sur une population à partir des résultats re-
cueillis sur les échantillons. On utilise alors des raisonnements inductifs per-
mettant de passer du particulier au général (approximation, extrapolation) en
utilisant des repères et modèles théoriques tels que les lois de probabilités.
Recensement : Le recensement est une collecte d’informations statistiques por-
tant sur la totalité des individus. Les valeurs des variables sont disponibles sur
l’ensemble de la population statistique descriptive (pas besoin de statistique in-
férentielle). Problème du recensement : coûteux, long, souvent impossible (po-
pulation in…nie), mesures destructrices (ex : tests en vieillissement accéléré)
b) Deux exemples d’échantillonnage
Nous donnons ici quelques exemples d’échantillonnages autour de nous
Exemple 1 : Quelques chi¤res du dernier RGPH au Burkina Faso

Depuis 1976 est e¤ectué au Burkina Faso, le Recensement Général de la Po-


pulation et de l’Habitation (RGPH). Les données suivantes résultent du RGPH de
0
Cours de Probabilités 3 L2-SEG Promotion 2022 Prof D. BARRO Mai 2024

3
2006.
13 730 258 habitants vivaient au Burkina Faso (Burkinabè et étrangers),
dont 51,7% de femmes, 2 295 701 menages.
79,7% en milieu rural, le nombre de citadins a doublé en dix ans, un burkinabé sur 5.
Rapport de masculinité : 94 hommes pour 100 femmes.
Citadinisation croissante (exode rural, communalisation intégrale).
RGPH, normalement chaque dix ans : 1975, 1985, 1996 et 2006.
Source : INSD.

Exercice Retrouver les informations statistiques ci-dessus pour le dernier RGPH


de 2019.
Exemple 2 : Quelques chi¤res du sondage d’opinion le "Présimètre"

Depuis 2016 est e¤ectué au Burkina Faso un sondage d’opinion à partir d’une
nouvelle plateforme de veille citoyenne, un outil de suivi des politiques gouverne-
mentales. Les données suivantes résultent du dernier sondage, en décembre 2018..

Note de 4,91 sur 10, obtenu par le Président du Faso contre 4,79 e déc.2017
Accès à l’eau potable : 58,3% pas satisfaits, 39,3% satisfaits et 2,4% sans avis.
Gratuité des soins : 49,3% satisfaits ; 49,3% pas satisfaits, 1,4% sont sans avis
Connaître le PNDES : 48,7% oui contre 42,1% non et 9,3% sont « sans avis
Retour de Blaise Compaoré : 58% pour 25% contre et 17% sans avis.
Sources : CGD, Journal, [Link], [Link]/.

1.1.3 Méthodes d’échantillonnage

a) Echantillonnage représentatif ou sur la base du jugement


Par exemple, dans les campagnes électorales certains districts électoraux sont
des indicateurs …ables de l’opinion publique).
b) Echantillonnage aléatoire
C’est une méthode probabiliste dans laquelle tous les échantillons pos-
sibles de même taille ont la même probabilité d’être choisis et tous les
éléments de la population ont une chance égale de faire partie de l’échan-
tillon. On utilise souvent une table de nombres aléatoires pour s’assurer
que le choix des éléments s’e¤ectue vraiment au hasard.
Application 1.1 (Exemple d’utilisation de la table aléatoire)*
Une banque locale est rachetée par un grande banque sous régionale
qui décide d’effecuer un audit avant de commencer. Pour ce faire,
service est demandé à un expert auditeur comptable qui constitue
un échantillon de bulletin d’opérations bancaires pour vérification
pour l’exercice 2021. On suppose que durant l’exercice 41633
dossiers ont été traités des numéros 20596 à 62228. En utilisant
de la tables des nombres aléatoire, dresser la liste des 15 premiers
numéros de l’échantillon
0
Cours de Probabilités 3 L2-SEG Promotion 2022 Prof D. BARRO Mai 2024

4
1) par la première méthode pour une marche à 2 pas, droite
à gauche, bas en haut, 8e ligne et 6e colonne.
2) par la deuxième méthode pour une marche à 3 pas, gauche
à droite, haut en bas, 4e ligne, 7e colonne.
3) par la méthode mixte pour une marche à 1 pas, droite à
gauche, bas en haut, 8e ligne et 6e colonne.
Remarque 1.1
Il existe d’autres méthodes d’échantillonnage aléatoire (voir la théorie du son-
dage). Leur avantage est de nous permettre de juger objectivement de la valeur des
estimations faites sur les caract´eristiques de la population. : Échantillonnage sys-
tématique, échantillonnage strati…é, échantillonnage par grappes, échantillonnage à
plusieurs degrés., échantillonnage à plusieurs phases.

1.1.4 Avantages et inconvénients de l’échantillonnage

a) Quelques avantages
— Coût moindre.
— Gain de temps.
— C’est la seule méthode qui donne des résultats dans le cas d’un test destructif.
b) Inconvénients
L’échantillonnage a pour but de fournir su¢ samment d’informations pour pou-
voir faire des déductions sur les caractéristiques de la population. Cependant, les
résultats obtenus d’un échantillon à l’autre sont en général di¤érents et di¤érents
également de la valeur de la caractéristique correspondante dans la population. On
dit qu’il y a des ‡uctuations d’échantillonnage. Pour tirer des conclusions valables
dans de tels cas, il faut déterminer les lois de probabilités qui régissent ces ‡uctua-

5
tions à travers les variables d’échantillonnage.

Extrait d’une table de nombres aléatoires à 5 chi¤res

1 11164 36318 75061 37674 26320 75100 20418 19215 91791 76831
2 76831 58678 87054 31687 93205 43685 19732 08468 10438 44482
3 66558 37649 08882 90870 12462 41810 01806 02977 36792 26236
4 33266 66583 60881 97395 20461 36742 02852 50564 73944 04773
5 12032 51414 82384 38370 00249 80709 72605 67497 49563 12872
6 14063 93104 78483 72717 68714 18048 25005 04151 64208 48237
7 41701 73117 33242 42314 83049 21933 92813 04763 51486 72875
8 38605 29341 80749 80749 33835 52602 79147 08868 99756 26360
9 64516 17971 46478 09610 04638 17141 09227 10606 71325 55217
10 13015 72907 00431 45117 33827 33827 92873 02953 85474 65285
11 97198 12138 53010 94601 15838 16805 61004 43516 17020 17264
12 57327 38114 29301 38109 34976 65692 98566 29550 95639 99754
13 31199 92558 68368 04985 51092 37780 40261 14479 61555 76404
14 86210 11808 12841 45147 97439 60022 12645 62000 78137 98768
15 04689 87130 79225 08153 84967 64539 79493 74917 62490 99215
16 84987 28759 19177 14733 24550 28067 68894 38490 2416 63444
17 21283 07044 92729 37284 13211 37485 10415 36457 16975 95428
18 33226 55903 31605 43817 22250 03918 46999 98501 59138 39542
19 71168 57609 91510 77904 74244 50940 31553 62562 29478 59652
20 50414 31966 87912 87154 12944 49862 96566 48825 38712 31512
21 08588 61490 72294 42862 87334 05866 66269 58722 03678 19186
22 69602 34625 75958 56869 17907 81867 11535 26188 69497 51351
23 47799 20477 71786 52560 66827 79419 70886 12893 54048 07255
24 86149 99090 70958 50775 31768 52903 27645 33186 81346 85095
25 37282 85536 72661 32180 40229 19209 74939 79893 29448 88392
26 97198 12138 53010 94601 15838 16805 61004 43516 17020 17264
27 57327 38114 29301 38109 34976 65692 98566 29550 95639 99754
28 13015 72907 80709 72605 67497 49563 12872 02953 85474 65285
29 37282 85536 72661 32180 40229 19209 74939 79893 29448 88392
30 31199 92558 68368 04985 51092 37780 40261 14479 61555 76404
31 12032 51414 82384 38370 00249 80709 72605 67497 49563 12872
32 57327 38114 29301 38109 34976 65692 98566 29550 95639 99754
33 13015 72907 00431 45117 33827 33827 92873 02953 85474 65285
34 80709 72605 67497 49563 12872 75100 20418 197215 91791 76831
35 57327 38114 29301 38109 34976 65692 98566 29550 95639 99754
36 86149 99090 70958 50775 31768 52903 27645 33186 81346 85095
37 71168 57609 91510 77904 74244 50940 31553 62562 29478 59652
38 12032 51414 82384 38370 00249 80709 72605 67497 49563 12872
39 12032 51414 82384 38370 00249 80709 72605 67497 49563 12872
40 14063 93104 78483 72717 68714 18048 25005 04151 64208 48237

0
Cours de Probabilités 3 L2-SEG Promotion 2022 Prof D. BARRO Mai 2024
6
1.2 Variables d’échantillonnage
1.2.1 Notion des distributions d’échantillons

On considère une population de taille N sur laquelle on s’intéresse à un carac-


tère modélisé par une variable X. On note m la moyenne de X et son écart
type. Lorsque, pour des contraintes diverses l’on n’est pas à mesure d’e¤ectuer une
étude exhaustive, et pour un entier n …xé (avec n N ) on peut s’intéresser aux
échantillons de taille n extraits de cette population de la façon suivante :
- un 1 er échantillon de taille n de la population et on note X1 la valeur prise par
la variable X dans cet échantillon
- un 2 e échantillon de même taille n on obtient une autre valeur d’échantillon X2 .
- Plus généralement, on constitue un ensemble de n valeurs X1 ; X2 ; ::; Xn où
Xi est la valeur prise par la variable X au ieme tirage, Xi 0. De plus, chaque
X i est régie par la moyenne m et l’écart type de X. Les variables X i sont donc
indépendantes et identiquement distribuées (i.i.d).

Dé…nitions 1.1 (échantillon aléatoire)

Le vecteur ( X1 ; ::; Xn ) est appelé échantillon aléatoire associé à la variable X


X est la variable de la population mère et Rn est dit espace échantillonnal.
Un échantillon aléatoire est commposé de variables aléatoires i.i.d
Une réalisation est tout n-uplet (x1 ; ::; xn ) de valeurs prises par l’échantillon
Une statistique est une transformation, une fonction de l’échantillon X1 ; ::; Xn :

Cet échantillon aléatoire ( X1 ;.::; Xn ) est caractérisé par les statistiques sui-
vantes :_ Pn
X
Xn = i=1 i , la moyenne empirique ou variable des moyennes d’échantillons
n
2 1 Pn 2
Sn = i=1 Xi Xn ; la variance empirique ou variable des variances
n
d’échantillons.
0
Cours de Probabilités II L2-SEG Pr D. BARRO Avril 2023

7
1 PN 2
S~n2 = Xi Xn ; la variance empirique corrigée.
n 1 i=1
Le problème consiste à déterminer les distributions d’échantillons de ces statis-
_
tiques c-à-d déterminer les caractéristiques espérance et variance des variables Xn
et S2n :

Dé…nitions 1.2 (distributions d’échantillons)

On appelle distribution d’échantillonnage d’une statistique (moyenne, variance,


proportions, quantiles), toute distribution de toutes les valeurs possibles de cette
statistique, calculées à partir des échantillons de la même taille prélevés aléatoire-
ment dans la même population.
Déterminer la distribution d’échantillonnage d’une statistique c’est donc déter-
miner les caractéristiques (espérance et variance) de cette statistique:

Il faut noter qu’après le ie tirage la variable aléatoire Xi prend


P la valeur xi : On
xi
remplace donc Xi par xi où xi est une réalisation. Ainsi, xn = est la moyenne
n
1 PN
observée de l’échantillon et Sn2 = i=1 (xi m)2 sa variance observée.
n
Remarque 1.2 :
Le fait que les X i soient i.i.d les rend simples à manipuler. Ainsi, pour toute
réalisation x = (x1 ; x2 ; ::; xn ) de X ;
n
- si la variable aléatoire X est discrète alors PX (x1 ; :; :x n ) = PXi (xi ) :
i=1
n
- Dans le cas où X est une variable aléatoire continue. fX (x1 ; :; :x n ) = fXi (xi ) :
i=1

Le tableau suivant résume les propriétés de la population et celles de l’échantillon.

////// Population Echantillon


Ensemble des individus ou
Sous-ensemble de la popula-
Dé…nition unités statistiques considérées
tion considéré pour l’étude
pour l’étude
Caractéristiques Ce sont les paramètres Ce sont les statistiques
Taille : N Pn
Taille n ( n N ) P
n
nx nx
Moyenne : m = i=1N i i Moyenne : x = i=1n i i
Ecart
rP type Ecartrtype
Notations Pn
N
i=1 ni (xi m)2 i=1 ni (xi x)2
= X =
N n
Proportion p Proportion de l’échantillon p̄

1.2.2 Distributions de moyennes d’échantillons

Dans l’échantillon (X1 ; :::; Xn ) lorsque les Xi désignent la moyenne,


P alors on
_ Xi
détermine la distribution d’échantillonnage des moyennes, Xn = .
n

8
a) Caractéristiques de la variable Xn
Les variables X1 ; :::; Xn étant i.i.d de loi commune X(m; ); il vient alors que
E (Xi ) = m et V(Xi ) = 2 .
Espérance mathématique de Xn .
X X
Xi E (X i ) /
nm
E Xn = E = = = = m:
n n n n/

Propriété 1 (Espérance de la moyenne emprique)


Si pour la variable X de la population, E (X) = m alors pour la variable des
moyennes Xn on obtient aussi. E Xn = m
Conclusion : L’espérance de la moyenne empirique est l’espérance de la
moyenne de la population-mère

donc l’écart-type de la moyenne empirique n’est autre que l’écart-type divisé par
la racine carrée de n ).
Variance de Xn
X X
2
Xi V (Xi ) n/ 2 2
V Xn = V = = = = :
n n2 n2 n2 n

Propriété 1 (variance de la moyenne emprique)


2
Si pour la variable X de la population, V (X) = alors pour la variable des
2
moyennes Xn on obtient aussi. V Xn = soit Xn = p pour un tirage
n n
e¤ectué avec remise ou des variables i.i.d
Conclusion : La variance de la moyenne empirique est la variance de la
population-mère divisée par l’e¤ectif de l’échantillon n

Remarque : Lorsque le tirage est e¤ectué sans remise ou lorsque


r l’hypothèse
N n
d’indépendance des variables n’est pas prouvée alors Xn = p
n N 1
Précisions sur le type de tirage

Avec remise ' Tirage non exhaustif ' variables i.i.d ' grd échantillon
Sans remise ' Tirage exhaustif ' variables non i.i.d ' tirage séquentiel

Application
Une population est constituée de temps de 5 étudiants en statistique. Chaque étu-
diant donne le temps hebdomadaire (en heures) consacré à l’étude des statistiques:
Aziz : 8, Benjamine : 5, Cherifa : 7, Donald : 4. Estelle : 6:
TAF : Extraire tous les échantillons de taille 3 de cette population et déterminer
la relation entre la moyenne échantillonale et la véritable moyenne de la population.
9
Eléments de Solution
Taille N = 5,
Population Moyenne m = 6: p
Ecart type = 2:
Taille n = 3,
Echantillon Nombre d’échant. k = {35 = 10:
Moy. et Ecart type (à déterminer)
Tableau des di¤érents échantillons.
Temps
No Echantillons Moyenne xi x2i
d’étude
1 A,B,C 8,5,7 6.67 44:444
2 A,B,D 8,5,4 5.67 32: 149 Les caractéristiques de l’échantillon
3 A,B,E 8,5,6 6.33 40: 069 sont : taille n = 3; moyenne mX = 6 ;
4 A,C,D 8,7,4 6.33 40: 069 écart type : X = [Link] Plus généra
5 A,C,E 8,7,6 7.00 49.00 lement on obtient les
6 A,D,E 8,4,6 6.00 36.00 propriétés suivantes.
7 B,C,D 5,7,4 5.33 28: 409
8 B,C,E 5,7,6 6.00 36.00
9 B,D,E 5,4,6 5.00 25.00
10 C,D,E 7,4,6 5.67 32: 149
Total 60 363: 33

Les caractéristiques de l’échantillon sont : taille n = 3; moyenne mX = 6 ; écart


type : X = [Link] Plus généralement on obtient les propriétés suivantes.
b) Loi de la variable des moyennes d’échantillons
La propriété précédente nous a permis de caractériser la variable, mais sa loi
dépend de celle de X.

Propriété 1.2 (Loi de la variable des moyenne d’échantillons)

Lorsque n est su¢ samment grand (n 30), on peut approximer la distribution


de Xn par la loi normale quelle que soit la distribution de la population mère.
Si la population est une loi normale, alors la variable d’échantillonnage Xn
est aussi de loi normale même si n < 30.

Par conséquent, dans ces deux cas, la variable de la moyenne d’échantillons est
pop pop
normale de moyenne m et d’écart type p i.e X N m; p :
n n
c) Loi de somme de moyennes d’échantillons
Comme dans l’analyse des probabilités, il existe des situations où on a plu-
tôt besoin du comportement aléatoire de la somme de deux variables de moyennes
d’échantillons extraits de deux populations distinctes: Rappelons d’abord ce résultat

10
de probabilité.

Rappels (sommes de lois normales)

Soient X et Y deux variables aléatoires d’espérances respectives E (X) et E (Y )


telles que la loi du couple (X,Y) soit normale régulière (c-à-d que leur coe¢ cient
de corrélation n’est pas égal à 1). Alors, pour tous nombres réels et , on a :
q
2V 2
Z= X+ Y N E (X) + E (Y ) ; (X) + V (Y ) + 2 Cov (X; Y ) :

En particulier, si les variables sont indépendantes (i.e Cov(X; Y ) = 0), alors,


q
Z= X+ Y N E (X) + E (Y ) ; 2 V (X) + 2 V (Y ) :

Remarque 1.2 :

variables modélisant des échantillons extraits


Populations distinctes ()
de ces populations sont indépendantes

En appliquant cette propriété (rappel) aux lois des varaibles d’échantillonnage,


on obtient le résultat suivant.

Propriété 1.3 (loi de la somme ou de la di¤érence de moyennes)

_ _
1 2
Si X n1 N m1 ; p et X n2
sont des variables de moyennes N m2 ; p
n1 n2
échantillons extraits de deux populations !distinctes, alors la loi de leur somme est :
r 2 2
_ _
1 2
X n1 + X n2 N m1 + m2 ; + , loi de somme de moyennes d’échantillons
n1 n2
r !
_ _ 2 2
1 2
X n1 X n2 N m1 m2 ; + ; loi de di¤érence de moyennes d’échant.
n1 n2

Application 1.3

Lors d’un examen portant sur un grand nombre d’étudiants de la L2, un échantillon
de 200 copies donne une moyenne 8,48 et un écart type de 0,12 pour une matière
A tandis que 320 copies pour la matière B donnent plutôt une moyenne 9,82 et un
écart type de 0,09. Estimer la proportion de l’ensemble des étudiants ayant
i) été exclus à cause de la matière A,
ii) validé la matière B
iii) plus travaillé dans la matière B que dans A.

Eléments de solution .......................................................................................................

..........................................................................................................................................................................................

0
Probabilités 2 L2-SEG P.2019 et P.2020 Pr D. Barro Avril-mai 2022

11
1.2.3 Distribution des proportions d’échantillons

a) Position du problème .
Soit une population dont les individus possèdent un caractère avec une probabi-
lité p. A partir d’un échantillon de taille n extrait dans cette population, on cherche
à déterminer la probabilité p qu’un individu véri…e un certain caractère ou la pro-
portion des personnes véri…ant ce caractère). Pour ce faire, on considère les variables
X1 ; ::; Xn où la variable Xi est telle que

1 si la ie personne véri…e le caractère


Xi = :
0 sinon
X
Xi
Ainsi, la variable Pn = n
est dite variable de la proportion d’échantillons.

Dé…nition 1.3
Déterminer la distribution de la proportion d’échanmtillons c’est trouver les carac
téristiques (moyenne et écart type) de Pn

b) Caractéristiques de la variable P̄n


X ! X X
Xi E(Xi ) p /
np
Espérance : E Pn = E n
= n
= n
= =p
n/
Variance : X X
X Xi V (Xi ) p (1 p) np (1 p) p (1 p)
V Pn = V = = = = :
n n2 n2 n 2 n
On obtient alors les propriétés suivantes.

Propriété 1.4 (Loi de la variable des proportions)

Soit P̄ n la variable de la proportion d’échantillons de taille n associée à un caractère


donné de probabilité p8alors,
q on a :
>
< p(1 p)
(tirage e¤ectué avec remise )
r n r
E Pn = p et Pn = p (1 p) N n
>
: (tirage e¤ectué sans remise )
n N 1
Pour n assez grand (n 30) alors la variable Pn suit une loi normale
q
Pn N p; p(1n p) :

Application
Une population est constituée de temps de 5 étudiants en statistique. Chaque étu-
diant donne le temps hebdomadaire (en heures) consacré à l’étude des statistiques:
Aziz : 8, Benjamine : 5, Cherifa : 7, Donald : 4. Estelle : 6:
TAF : Extraire tous les échantillons de taille 3 de cette population et déterminer
la relation entre la moyenne échantillonale et la véritable moyenne de la population.
Eléments de Solution
12
Taille N = 5, Taille n = 3,
Population Moyenne m = 6: p Echantillon Nombre d’échant. k = {35 = 10:
Ecart type = 2: Moy. et Ecart type (à déterminer)
Tableau des di¤érents échantillons.

No Echantillons Nombre de …lles Proportion pi (pi p)2


1 A,B,C 66.67% 0:004489
2 A,B,D 33.33% 0:07 111 3
3 A,B,E 66.67% 0:004489
4 A,C,D 33.33% 0:07 111 3
5 A,C,E 66.67% 0:004489
6 A,D,E 33.33% 0:07 111 3
7 B,C,D 66.67% 0:004489
8 B,C,E 100% 0.16
9 B,D,E 66.67% 0:004489
10 C,D,E 66.67% 0:004489
Total 600%

Interpretations:

L’espérance de la fréquence de l’échantillon est la probabilité


d’apparition du caractère dans la population.
Lorsque la taille de l’échanillon augmente, la variance de P̄ n
diminue : plus on a d’informations, plus il est probable que la
proportion observée dans l’échantillon soit proche de la proportion
de la population.

c) Distribution de la somme de proportions


On considère deux populations distinctes dont les individus véri…ent un certain
caractère dans des proportions p1 et p2 :

Propriété 1.5 (Distribution


r de somme ou de di¤érence
r de proportions)
p1 (1 p1 ) p2 (1 p2 )
Soient Pn1 N p1 ; et Pn2 N p2 ; des variables
n1 n2
de proportions d’échantillons extraits de deux populations distinctes, alors les va-
riables Pn1 + Pn2 et Pn1 r Pn2 sont aussi de lois normales. De plus, on a :
p1 (1 p1 ) p2 (1 p2 )
Pn1 +Pn2 N p1 + p2 ; + ; somme de proportions
r n1 n2
p1 (1 p1 ) p2 (1 p2 )
Pn1 -Pn2 N p1 p2 ; + ; di¤érence de proportions.
n1 n2

Application 1.4
Une étude socioéconomique révèle que 27% des agents du ministère M1
possède un véhicule dans un échantillon de 1676 agents sondés contre 621
agents dans un échantillon de 1848 agents sondés dans un autre ministère
M2 . Quelle est la probabilité que
13
1. la proportion des personnes véhiculées du ministère M1 soit entre
22% et 32% ?
2. plus du tiers des agents du ministère M2 soient véhiculés.
3. moins d’agents du ministère M1 soient véhiculés que d’agents de M2 .
Eléments de solution

14
1.2.4 Distribution de la variance d’échantillons

a) Position du problème
On considère un échantillon de variables aléatoires X1 ; ::; Xn indépendantes et
identiques, associées à une population. On suppose que la variable caractéristique X
de la population est telle que E (X) = , l’espérance mathématique et V (X) = 2 la
variance inconnue. Pour avoir une valeur approchée de 2 on associe à cet échantillon
la variance empirique ou variable des variances d’échantillons :
1 Pn 2
Sn2 = Xi Xn dont la réalisation est la variance échantillonale
n i=1
1 Pn
s2n = i=1 (xi )2 :
n
Problème : Quelles sont les caractéristiques E (Sn2 ) et V (Sn2 ) de la variable Sn2 ?
b) Espérance de la variance d’échantillons
Commençons par préciser la relation entre Sn2 et la moyenne de la population.

Propriété 1.6 (Autre expression de la variance empirique Sn2 )


1 Pn 2
La variance empirique véri…e la relation Sn2 = (Xi - )2 - Xn :
n i=1

En e¤et, soit X ( ; ) la variable aléatoire d’intérêt de la population. La variance


1 Pn 2
empirique Sn2 étant dé…nie par Sn2 = Xi Xn , alors on a :
n i=1

1X 1X
n n
2 2
Sn2 = Xi Xn = (Xi ) Xn
n i=1 n i=1
1X
n
=) Sn2 = (Xi )2 + (Xn )2 2(Xi )(Xn )
n i=1
" n #
1 X X X
n n
=) Sn2 = (Xi )2 + (Xn )2 2(Xn )(Xi )
n i=1 i=1 i=1
" n !#
1 X X
n
=) Sn2 = (Xi )2 + n(Xn )2 2(Xn ) (Xi )
n i=1 i=1
" n !#
1 X Xn
Xi
=) Sn2 = (Xi )2 + n(Xn )2 2(Xn ) n n )
n i=1 n
" n #i=1
1 X
=) Sn2 = (Xi )2 + n(Xn )2 2n(Xn )2 )
n i=1
" n #
1 X 1P n
=) Sn2 = (Xi )2 n(Xn )2 D0 ou Sn2 = (Xi )2 (Xn )2 :
n i=1 n i=1

Calcul de l’espérance mathématique de Sn2


0
Cours de Probabilités 3 L2-SEG Promotion 2022 Prof D. BARRO Mai 2024

15
En utilisant la propriété ci-dessus, le calcul de l’espérance est tel que:
! " n #
1 Xn
1 X h i
2
E(Sn2 ) = E (Xi )2 (Xn )2 = E (Xi )2 E Xn ;
n i=1 n i=1

1 Xn h i
2
= E (Xi )2 E Xn
n i=1
1X
n h i 1X n
2 2
= E (Xi E (Xi )) E Xn E Xn = V ar (Xi ) V ar(Xn ):
n i=1 n i=1

Or les variables Xi sont identiquement distribuées et sont des copies de la variable


X, alors V ar (Xi ) = V ar (X) = 2 : Dans ce cas
Pn 2
2 n/ 2
E(Sn ) = i=1
V ar(Xn ) = V ar(Xn ) = 2 V ar(Xn ):
n n/
Premier cas : on suppose que les variables Xi sont supposées i:i:d ou les tirages
2
sont e¤ectués avec remise, on a donc V (Xn ) = et dans ce cas :
n
2 2
(n 1)
E(Sn2 ) = 2
= :
n n
2
N n
2e cas : les variables Xi ne sont pas i:i:d, on a : V (Xn ) = et donc
n N 1
2
N n N (n 1) N (n 1) 2
E Sn2 = 2
= 2
1 =
n N 1 n(N 1) n(N 1)

On obtient alors le résultat suivant

Propriété 1.7 (Espérance de variance d’échantillons)

L’espérance mathématique de la variable des variances d’échantillons est dé…-


nie par :
(n 1) 2
E (Sn2 ) = tirage avec remise ou variables échantillonales i.i.d .
n
N (n 1) 2
E (Sn2 ) = tirage sans remise ou variables échantillonales non i.i.d .
n(N 1)

De la même façon, calculons l’espérance de la variance empirique corrigée.

1 X
n
n n n
S~n2 = (Xi Xn )2 = Sn2 =) E(S~n2 ) = E Sn2 = E(Sn2 ):
n 1 i=1
n 1 n 1 n 1

2
- Si les variables Xi sont i:i:d, on a V (Xn ) = et dans ce cas :
n
n n n n 1
E(S~n2 ) = E Sn2 = E(Sn2 ) = : 2
= 2
:
n 1 n 1 n 1 n
16
N (n 1) 2
- mais si les variables Xi ne sont pas i:i:d, on a E (Sn2 ) =
n(N 1)

n n n N (n 1) 2 N 2
E(S~n2 ) = E Sn2 = E(Sn2 ) = : = :
n 1 n 1 n 1 n(N 1) N 1

On obtient alors le résultat suivant

Propriété 1.7 bis (Espérance de variance empirique corrigée)


L’espérance mathématique de la variance empirique corrigée est dé…nie par :
E S~n2 = 2 tirage avec remise ou variables échantillonales i.i.d.
N 2
E S~n2 = tirage sans remise ou variables échantillonales non i.i.d .
N 1

Remarque : On verra plus loin que S~n2 et S2n sont des estimateurs respectivement
sans biais et asymptotiquement sans biais de 2 :
c) Variance des variances d’échantillonnages V (Sn2 )
La variance des variances d’échantillons est telle que :
2
V (Sn2 ) = E [(Sn2 )2 ] [E(Sn2 )] où E(Sn2 ) dépend du type de tirage (avec ou sans
remise). Dans ce cas
8 2
>
> 2 2 (n 1) 2
< E [(S n ) ] tirage avec remise
2 n
V Sn = 2
>
> N (n 1) 2
: E [(Sn ) ]
2 2
tirage sans remise
n(N 1)

En particulier, dans le cas d’un tirage avec remise, on établit que

(n 1)2 n 1
V (Sn2 ) = ( 4
4
)+2 4
où k = E(X )k :
n3 n3
Par conséquent, on obtient le résultat suivant.

Propriété 1.8 (Variance de variance d’échantillons)


La variance de la variable des variances d’échantillons est dé…nie par
2 (n 1)2 4 n 1
V (Sn ) = 3
( 4 ) + 2 3 4:
n n

Cas de la variance empirique corrigée S~n2


Variance V (S~n2 )
n n2 V (Sn2 ) (n 1)2 n 1
V (S~n2 ) = V Sn2 = où V (S 2
n ) = ( 4
4
)+2 4
:
n 1 (n 1)2 n3 n3
Par suite :
n2 (n 1)2 n 1 1 2 4
V (S~n2 )= ( 4
4
)+2 4
= ( 4+
4
)+
(n 1)2 n3 n3 n n(n 1)
0
Cours de Probabilités 3 L2-SEG Promotion 2022 Prof D. BARRO Mai 2024

17
Par conséquent, on obtient le résultat suivant.

Propriété 1.8 bis (Distribution de variance empirique corrigée)


L’espérance mathématique de la variance empirique corrigée est telle que
1 2 4
V (S~n2 ) = ( 4 + 4 ) + :
n n(n 1)

Estimation statistique

1.3 Généralités sur l’estimation


1.3.1 Présentation

Une estimation porte sur une grandeur inconnue que l’on cherche à déterminer.
Lors d’une étude statistique portant sur un caractère d’une population, générale-
ment la distribution (ou la loi) exacte de la variable X modélisant ce caractère est
partiellement ou non connue du statisticien. Souvent la loi de X dépend d’un para-
mètre inconnu noté généralement : On cherche à estimer la valeur inconnue d’une
statistique à partir d’un échantillon X1 ; X2 ; :::Xn , prélevé dans la population.
Nous supposons que, par des méthodes de statistique descriptive il est établi que
la loi des variables Xi appartient à une famille de lois paramétrées F ; 2 Rd .
On cherche alors à se faire une idée du paramètre à partir des données observées
sur l’échantillon. Dans ce cas, la réalisation de la variable x = (x1 ; :::; xn ) est régie
par ce paramètre:
Exemples.
Une population de pygmés d’un endroit donné en Afrique centrale est régie par la
taille moyenne m.
Une population de commerçants est régie par le volume de commerce (vente, im-
portations, exportations).
Pour des chercheurs sur une thématique donnée, le paramètre central est sans
doute le résultat de recherche (nombre et la qualité de travaux réalisés, publi-
cations, brevets, études ménées).
En particulier pour le premier exemple (pygmés), on peut associer à cette po-
pulation un échantillon X1 ; :::; Xn d’observations de la taille, toute réalisation
x = (x1 ; :::; xn ) dépendra de la population et donc du paramètre m ; on note
f (x= ) ou f (x) la fonction densité de cette variable où = m: Il faut procéder
0
Cours de Probabilités 3 L2-SEG Promotion 2022 Prof D. BARRO Mai 2024

18
à une estimation du paramètre vrai m qui se traduit par la valeur m̂.

Dé…nition 2.1

Un estimateur est toute variable aléatoire Tn construite uniquement à partir


des observations X1 ; :::; Xn . En particulier, il ne doit pas dépendre de quan-
tités inconnues telles que ou P .
Une estimée est le résultat tn du calcul d’un estimateur sur les données x1 ; :::; xn .
(On remplace les X j par les x j dans la dé…nition de l’estimateur correspondant.)

Remarques
Souvent, il est plus judicieux d’estimer une fonction de , comme l’espérance ou
la variance.
Ne pas confondre prévision et estimation. En e¤et, toute estimation a un carac-
tère incertain et porte sur un paramètre inconnu mais qui existe, alors que la
prédiction est la "devinette" d’une observation future.

1.3.2 Qualités de l’estimateur

[Link] Problématique
Il faut noter qu’il est possible d’utiliser plusieurs estimateurs pour un même
paramè[Link] exemple, pour la moyenne m d’une population, on peut citer :
xi
m^ = ; la moyenne arithmétique de l’ensemble des valeurs.
n
m^ = mediane fxi g ; la médiane de la série
m^ = mode fxi g ; la valeur modale
Dans ce cas, on peut alors se poser la question suivante : quel est le meilleur
estimateur de la moyenne ? Répondre à cette question c’est déterminer la qualité de
l’estimateur. Pour cela, on se sert de plusieurs critères pour comparer les estimateurs.
On dispose de quatre résultats théoriques pour identi…er cet estimateur.

[Link] Estimateur sans biais


a) Caractérisation
On souhaite que l’estimateur d’un paramètre ne soit pas systématiquement dé-
calée par rapport à la valeur vraie de ce paramètre. Notons que tout estimateur Tn
d’un paramètre peut s’écrire sous la forme E (Tn ) = ^ + B (n; ) :

Dé…nition 2.2
Le biais d’un estimateur ^ est la quantité B (n; )=E ^ - ; écart entre l’espé-
rance mathématique et la valeur vraie du paramètre.
Un estimateur ^ est dit sans biais de ou centré lorsque, son biais est nul
() E(^) = .
X
Xi
Pour la moyenne d’échantillons, on a : Xn = , on a : E(Xn ) = m:
n
19
La variable des moyennes d’échantillons est un estimateur sans biais de la
moyenne de la population
X
Xi
Pour la variable des proportions d’échantillons, Pn = , on a : E(Pn ) = p:
n
La variable des proportions d’échantillons est un estimateur sans biais de la
proportion de la population.
1 P n
Pour la variance empirique corrigée S~n2 = (Xi X)2 ; on a établi que
n 1 i=1
lorsque, le tirage est e¤ectué avec remise, on a : E S~n2 = 2 :
La variance empirique corrigée S~n2 est un estimateur sans biais de la variance
de la variance 2 de la population.

[Link] Estimateur asymptotiquement sans biais


a) Dé…nition

Dé…nition 2.3
Un estimateur ^ est dit asymptotiquement sans biais si le biais diminue
lorsque la taille de l’échantillon augmente.
^ asymptotiquement sans biais () lim E(^) = .
n !+1

b) Exemples
1P n
Pour la variance d’échantillonnage Sn2 = (Xi Xn )2 , rapelons que
n i=1
8
> (n1) 2
< tirage e¤ectué avec remise
E Sn2 = n
> N (n 1) 2
: tirage exhaustif
n(N 1)
:
Par conséquent, si le tirage est e¤ectué
2
(n 1)
- avec remise alors : lim E (Sn2 ) = lim = 2
n !+1 n !+1 n
- sans remise, on a :

N (n 1) 2 (n 1) 2
lim E Sn2 = lim lim = lim = 2
n !+1 N !+1 n !+1 n(N 1) n !+1 n

car N est plus grand que n et lorsque n tend vers l’in…ni lim E (Sn2 ) = 2
:
n !+1

Conclusion :
S 2n est donc un estimateur asymptotiquement sans biais de 2 . C’est
à dire que la variable des variances d’échantillons est un estimateur
asymptotiquement sans biais de la variance de la population.

0
Cours de Probabilités 3 L2-SEG Promotion 2022 Prof D. BARRO Mai 2024

20
2.4. ESTIMATEUR EXHAUSTIF 23

2.4 Estimateur exhaustif


Un échantillon X1 ; : : : ; Xn contient une certaine information vis-à-vis d’un paramètre inconnu  de la popula-
tion. Une statistique Tn résumant l’information contenue dans l’échantillon, il sera très important de ne pas perdre
d’information : c’est cette qualité que l’on nomme l’exhaustivité.

Définition 2.4.1. On appelle vraisemblance du paramètre  la fonction


 Qn
L(x1 ; : : : ; xn ; ) = Qin=1 f (xi ; ) si les Xi sont continues
i=1 IP(Xi = xi ; ) si les Xi sont discrètes

où f (:; ) est la densité de la variable aléatoire X1 et IP(Xi = xi ; ) est la probabilité de l’événement fXi = xi g
paramétrée par .

Soit Tn une statistique fonction de X1 ; : : : ; Xn de loi g (t; ) (densité dans le cas continu, P (T = t) dans le cas
discret).
Définition 2.4.2. La statistique T est exhaustive pour  si

L(x1 ; : : : ; xn ; ) = g(t; )h(x1 ; : : : ; xn ):


En d’autre terme, elle est exhaustive si la loi de l’échantillon sachant T = t ne dépend pas de 
Ce qui signifie que si T est connue, l’échantillon n’apportera plus aucune autre information supplémentaire sur
.
Pn
Exemple. Pour la loi normale de moyenne connue , la statistique T = i=1 (Xi )2 est exhaustive pour 2 .
Théorème 2.4.1 (de Darmois). Soit X1 ; : : : ; Xn un échantillon dont le domaine de définition de la loi ne dépend
pas de . Une condition nécessaire et suffisante pour que l’échantillon admette une statistique exhaustive est que la
densité soit de la forme :

f (x; ) = exp[a(x) () + b(x) + ()℄


Une telle densité est dite de la P
famille exponentielle. P
Si de plus l’application x1 ! ni=1 a(xi ) est bijective et C 1 alors T = ni=1 a(Xi ) est une statistique exhaustive
particulière.
Qn
Exemple. Montrer que T = ln i=1 Xi est une statistique exhaustive pour une loi Gamma de paramètre  inconnu,
dont la densité est
x 1
f (x) =
()e x
Exercice. Donner des statistiques exhaustives pour les lois de Bernoulli, exponentielle et normale (avec soit la
variance connue, soit la moyenne).
La notion d’exhaustivité renseigne sur le pouvoir d’une statistique à véhiculer l’information contenue dans
un échantillon vis-à-vis d’un paramètre inconnu  que l’on cherche à estimer. La quantité d’information sur le
paramètre apportée par l’échantillon s’exprime elle par l’information de Fisher.
Définition 2.4.3. On appelle quantité d’information de Fisher In () apportée par un n-échantillon sur le paramètre
 la quantité suivante (si elle existe) :
" 2 #
lnL
In () = E

Théorème 2.4.2. Si le domaine de définition de la loi de l’échantillon ne dépend pas de , on a :
 2 
 lnL
In () = E
2
24 CHAPITRE 2. ESTIMATION

Propriété 2.4.1. (i) Si le domaine de définition de la loi de l’échantillon ne dépend pas de , In () = nI1 ()
(ii) Si la loi de l’échantillon est une loi normale de variance connue, ( = ), alors I1 () = 12
 2 
(iii) en notant IT () = E lng(t;) l’information de Fisher apportée par la statistique T , avec g (t; ) la
densité de T , on a IT ()  In (). On a égalité si T est exhaustive, et réciproquement si le domaine de
définition de la loi de l’échantillon est indépendant de .

La propriété 1 dit que chaque observation a la même importance, ce qui n’est pas le cas lorsque le domaine de
définition dépend de , comme pour une loi uniforme sur [0; ℄, où la plus grande valeur de l’échantillon apporte
plus d’information que les autres sur .
La propriété 2 nous assure l’information apportée par une observation est d’autant plus grande que la dispersion est
petite.

2.5 Estimation sans biais de variance minimale


Nous avons vu précédemment que les deux qualités les plus importantes pour un estimateur étaient d’être sans
biais, et de variance minimale. Il existe un certain nombre de théorèmes facilitant la recherche d’un tel estimateur.

Théorème 2.5.1 (Unicité). S’il existe un estimateur de  sans biais de variance minimale, il est unique presque
sûrement.

Théorème 2.5.2 (Rao-Blackwell). Soit T un estimateur sans biais de  et U une statistique exhaustive pour .
Alors T  = E [T jU ℄ est un estimateur sans biais de  au moins aussi bon que T (d’un point de vue variance).

Théorème 2.5.3. S’il existe une statistique exhaustive U , alors l’unique estimateur T de  sans biais de variance
minimale ne dépend que de U .

Définition 2.5.1. Une statistique U est complète si E [h(U ) = 0℄ 8 ) h = 0p.s.


Théorème 2.5.4 (Lehmann-Scheffé). Si T  est un estimateur sans biais de  dépendant d’une statistique exhaustive
complète U alors T  est l’unique estimateur sans biais de variance minimale. En particulier si l’on dispose d’un
estimateur T sans biais de , T  = E [T jU ℄.

Exemple. Le nombre de bug informatique par semaine d’un logiciel donné suit une loi de Poisson de paramètre
. On cherche à évaluer la probabilité de n’avoir aucune panne pendant une semaine P (X = 0) = e  . Que
proposez-vous ?

Le résultat suivant nous indique une borne à laquelle ne peut être inférieure la variance d’un estimateur.

Théorème 2.5.5 (Inégalité de Fréchet-Darmois-Cramer-Rao). Si le domaine de définition de la loi de l’échantillon


ne dépend pas de , tout estimateur T vérifie

1
V (T ) 
In ()
et si T est un estimateur sans biais de h()
[h0 ()℄2
V (T ) 
In ()
Définition 2.5.2. Un estimateur qui atteint la borne de Cramer-Rao est dit efficace. Autrement dit, un estimateur
est efficace s’il n’est pas possible de trouver un estimateur sans biais de variance plus faible.

Théorème 2.5.6 (efficacité). — la borne de Cramer-Rao ne peut être atteinte que si la loi de l’échantillon
est de la famille exponentielle :

f (x; ) = exp[a(x) () + b(x) + ()℄


2.6. MÉTHODE DU MAXIMUM DE VRAISEMBLANCE 25

— dans ce cas il n’existe qu’une seule fonction du paramètre  (à une transformation linéaire près) qui
puisse être estimée efficacement, c’est
0 ()
h() = 0 ()
L’estimateur de h() est alors
n
1X
T= a(Xi )
n i=1
et la variance minimale est
h0 ()
V (T ) =
n 0 ()
Exemple. Donner un estimateur de l’écart-type d’une loi normale de moyenne connue.

La recherche d’estimateur sans biais de variance minimale passe donc par la recherche d’estimateur exhaustif.
Or cette recherche peut ne pas aboutir, et elle est de plus assez lourde. La méthode du maximum de vraisemblance
est une méthode systématique permettant de trouver des estimateurs.

2.6 Méthode du maximum de vraisemblance


La méthode du maximum de vraisemblance permet de trouver des estimateurs dans toutes les situations, même
les plus compliquées. C’est une des méthodes d’estimation les plus utilisées.
Cette méthode consiste à recherche le paramètre  qui maximise la fonction de vraisemblance L(x1 ; : : : ; xn ; ),
c’est-à-dire pour lequel la densité de l’échantillon est la plus grande.
L’estimateur du maximum de vraisemblance (EMV) est donc une solution de l’équation de vraisemblance


lnL(X1; : : : ; Xn ; ) = 0

 2 lnL(X ; : : : ; X ; ^) < 0. Un certain nombre de propriété nous prouve l’intérêt de cette estimateur.
vérifiant  2 1 n
Propriété 2.6.1. (i) S’il existe une statistique exhaustive U , alors l’EMV en dépend.
(ii) Si ^ est l’EMV, f (^) est l’EMV de f ()
(iii) Il existe une suite ^n de racines de l’équation de vraisemblance qui converge presque sûrement vers . de
plus, il existe un rang à partir duquel le maximum est atteint.
(iv) ^n
L! N (;
In () ).
1

La dernière propriété nous assure que l’EMV est asymptotiquement efficace. Il est donc important d’avoir un
échantillon important pour utiliser cet estimateur.
Lorsque le modèle comporte plusieurs paramètres 1 ; : : : ; p , il sera nécessaire de résoudre le système d’équation
simultanées

i
lnL = 0 81  i  p
Remarque 2.6.1. — L’équation de vraisemblance n’a pas nécessairement une unique racine.
— La solution de l’équation de vraisemblance n’est pas toujours calculable analytiquement. Dans ce cas,
des algorithmes de recherche de maximum (de type Newton) peuvent être utilisés.

2.7 Estimation par intervalles


Il est souvent plus intéressant de donner une estimation d’un paramètre d’intérêt sous la forme d’un intervalle,
associé à une certaine probabilité d’être dans cet intervalle, plutôt que de donner une estimation ponctuelle de ce
paramètre.

Exemple. Sondages électoraux.


1.4 Méthodes d’estimation ponctuelle
L’estimation ponctuelle consiste à chercher une valeur unique prise par le pa-
ramètre dans l’échantillon. Pour ce faire, on choisit une statistique dont la valeur
est, après tirage de l’échantillon, l’estimation du paramètre. Cette statistique est
l’estimateur du paramètre.

1.4.1 Utilisations des résultats d’échantillonnage

Toute estimation résulte d’un calcul e¤ectué sur les valeurs observées dans l’échan-
tillon. Dans cette sous-section, nous nous intéresserons à l’estimation des caractéris-
tiques principales d’une variable dans une population : la moyenne, la proportion et
l’écart type.
Moyenne

Soit Xn la variable des moyennes d’échantillons. On a : E Xn = m:


Par conséquent, m^ = Xn est une bonne estimation de m. La moyenne
d’un échantillon est choisie comme estimation ponctuelle de la moyen-
ne m de la population observée.

Fréquence ou proportion

Soit Pn la variable des proportions d’échantillons. On a : E Pn = p. Par


conséquent, p^ = Pn est une bonne estimation de p. La proportion p cal-
culée sur l’échantillon est considérée comme estimation ponctuelle de la
proportion p des individus véri…ant ce caractère dans la population.

Ecart type

L’estimation de la variance inconnue 2 de la population n’est pas donnée


par la variance s2 de l’échantillon.
r La meilleure estimation de 2 est le nom-
n 2 n
bre se soit = se
n 1 n 1

1.4.2 Méthode du maximum de vraisemblance

a) Présentation
La vraisemblance d’un modèle (X; P ) et d’un échantillon fX1 ; X2 ; :::Xn g corres-
pond à la probabilité d’avoir obtenu cet échantillon lorsqu’on a ce modèle. e principe
de l’estimation par maximum de vraisemblance est de se dire que plus la probabilité
d’avoir obtenu les observations est forte, plus le modèle est proche de la réalité. La
méthode va consister alors à trouver la valeur numérique la plus vraisemblable pour
le paramètre ou à rechercher la valeur de qui rend maximale la probabilité d’appa-
rition de l’échantillon fx1 ; :::; xn g. On suppose que le modèle est P , la vraisemblance
des observations x1 ; :::; xn s’´ecrit sous la forme L(x1 ; :::; xn ; ) = P (x1 ; :::; xn ) où L

23
est appelée fonction de vraisemblance. En particulier, les variables étant i.i.d, on
obtient
8 n
< P (x1 ):::P (xn ) = P (x1 ) pour une loi discrète.
i=1
L(x1 ; :::; xn ; ) = n
: f (x ):::f (x ) = f (x ) pour des v.a continues.
1 n 1
i=1

où P (resp. f ) est une fonction de masse et (respect. la densité) à F . La forme


de produit est justi…ée par l’hypothèse que les observations sont indépendantes.
b) Estimateur du maximum de vraisemblance
On considère un échantillon fX1 ; X2 ; :::Xn g asscociée à une population.

Dé…nition 2.6
On appelle estimateur du maximum de vraisemblance d’un paramètre
^n = arg max $( ; fx1 ; :::; xn g);
la valeur ^ qui rend maximum la fonction de vraisemblance.

Ainsi, on retient le modèle pour lequel la vraisemblance de notre échantillon est la


plus élevée. En pratique, le problème ci-dessus est compliqué à résoudre directement

en raison de la présence du produit mais il su¢ t de prendre le logarithme.


Condition nécessaire et su¢ sante d’optimalité.

Propriété 2.4

Un
8 EMV doit véri…er le système d’équations di¤érentielles suivant :
> @LnL (x; )
< =0
2
@
: @ LnL (x; ) < 0
>
@ 2
Par conséquent, on véri…e la propriété suivante :

Propriété 2.4 bis

On véri…e que les conditions suivantes sont équivalentes


@LnL (x; )
E =0
" @ #
2
1 @LnL (x; ) @ 2 LnL (x; )
E = E
L (x; ) @ @ 2
S’il existe un estimateur e¢ cace sans biais de , alors il es donné
par la méthode du maximum de vraisemblance.

Pour trouver le maximum, on résoud l’équation du premier ordre :


@ log L( ; fx1 ; :::; xn g)
# ^ =0
@ = n

0
Cours de Probabilités 3 L2-SEG Promotion 2022 Prof D. BARRO Mai 2024
24
Remarque
Il faut toujours raisonner avec x1 ; :::; xn sans chercher à remplacer
par les valeurs observées. Cette étape ne doit intervenir qu’à la …n,
lorsque l’expression de l’estimateur.
La théorie nous dit que la solution de cette équation nous donne
toujours un maximum. On obtient ^n sous la forme ^n = g(x1 ; :::; xn ).

[Link] Recherche d’EMV de paramètres de quelques lois.


a) Estimation des paramètres d’une loi normale
Soient X1 ; X2 ; :::; Xn des variables aléatoires i.i.d de loi normale de moyenne m et
1 1
d’écart type ; i.e Xi N (m; ) et donc de densité f (xi ) = p exp 2
(xi m)2 :
2 2
La fonction de vraisemblance étant le produit des densités, on a
n h
!
Yn Y i n X n
L(x) = f (xi ) = p1 exp
2
1
2 2
(xi m)2 = p12 exp 2 1 2 (xi m)2
i=1 i=1 i=1

1 X
n
1
=) log L (x; m) = n log p 2
(xi m)2
2 2 i=1

EMV de la moyenne m
n
Pour déterminer l’EMV de m, on pose L(x1 ; :::; xn ) = L (x; m)) = f (xi ; m).
i=1
" # " #
@ log L (x; m) @ Xn
1 @ Xn
= 1
2 2
(xi m)2 = 2 @m
x2i 2xi m + m2
@m @m i=1
2
" n # i=1 " n #
X 1 X
=) @ log @m
L(x;m))
= 212 ( 2xi + 2m) = 2 xi + nm :
i=1 i=1

Par conséquent, " n #


@ log L (x; m)) X 1X
n
1
= 0 () 2 xi + nm = 0 =) m = xi = Xn .
@m i=1
n i=1
@ 2 log L (x; m)) n
De plus : 2
= 2 <0
@m
Conclusion : L’EMV Xde la moyenne m de la population est la moyenne
xi
d’échantillons Xn = : De plus Xn est estimateur sans biais de m.
n
2
EMV de la variance .
n
Pour déterminer l’EMV de on pose : L(x1 ; :::; xn ) = L (x; ) = f (xi ; ) .
i=1

1 X
n
1
=) log L (x; ) = n log p 2
(xi m)2
2 2 i=1
" # " #
1 X 1 X
n n
@ log L (x; ) @ p 1
=) = n log 2 2
(xi m)2 = 2
(xi m)2 -n
@ @ 2 i=1 i=1
25
1X
n
@ 2
ln [L( ; xi ; :::; xn )] = 0 =) = (xi )2 (3)
@ n i=1
De plus :

!
3 X 1X
n n
@ 2 log L (x; ) n n
= (xi )2 = 2
3 (xi )2
@2 4
i=1
4 n i=1
2
@ log L (x; ) n 2 2 2n
=) 2
= 4 3 = 2
< 0:
@
s
1X
n
c’est la variance empirique et donc ^ = (xi m)2 :
n i=1
s
1X
n
Conclusion : L’EMV pour est l’écart type empirique ^ = (xi m)2 :
n i=1

b) Estimation du paramètre d’une loi de Poisson


Soient X1 ; :::; Xn des variables i.i.d distribuées suivant la loi de Poisson de pa-
ramètre ( > 0), donc Xi P ( ) : La fonction densité de probabilité associée :
xi
f (xi ) = e ; xi 2 N: Dans ce cas, la fonction de vraisemblance est telle que
xi !
Y
n Y
n xi Y
n xi
n
L(x1 ; :::; xn ; ) = f (xi ) = e =e = L (x; ) :
i=1 i=1
xi ! i=1
xi !

X
n X
n
=) log L (x; ) = n+ xi log log (xi !)
i=1 i=1
" #
@ log L (x; ) @ X
n X
n
1X
n
=) = n+ xi log log (xi !) = n+ xi
@ @ i=1 i=1 i=1

X
n
xi
@ log L (x; ) X
n
i=1
1
Par conséquent : = 0 () n+ xi = 0 =) = =
@ i=1
n
xn :

1X
n
Conclusion : L’EMV du paramètre est la moyenne d’échantillons Xn = xi :
n i=1

c) Estimation du paramètre d’une loi Géométrique


Si X1 ; :::Xn sont de loi Géométrique de Q paramètre p, alors la fonction
P
de vrai-
semblance du modèle est L(p; (x1 ; :::; xn )) = p(1 p)xi 1 = pn (1 p) xi n
0
Cours de Probabilités 3 L2-SEG Promotion 2022 Prof D. BARRO Mai 2024

26
La log-vraisemblance vaut :
X
L(p; fx1 ; :::; xn g) = n log(p) + ( xi n) log(1 p)

@L(p; fx1 ; :::; xn g) n P


xi n
L’équation du premier ordre s’écrit: 0 = = 1 p
@p p
1 1
ou encore = (x n 1)=(1 p) dont la solution est p =
p xn

Conclusion
1
L’EMV du paramètre p est l’inverse de la moyenne d’échantillons i.e p^n =
Xn

1.4.3 Méthode des moments

La méthode des moments est relativement intuitive et utilise les moments d’une
loi par leur version empirique. Par exemple,
L’espérance E (X) correspond à une moyenne théorique et peut être estimée
P
par la moyenne observée : Xn = n1 Xi
La variance : V ar(X) = E(X E (X))2 = E(X 2 ) [E (X)]2 peut être estimée
par la variance observée :

1X 1X 2
Sn2 = (Xi Xn )2 = Xi (Xn )2 :
n n
Lorsque l’on souhaite estimer un paramètre ,
i) on essaie de l’exprimer en fonction de E (X) et de V ar(X) : = g(E (X) ; V ar(X)):
ii) On sait ensuite que E (X)et de V ar(X) peuvent être estimés respectivement
par Xn et Sn2
iii) On propose donc d’estimer par ^ = g(Xn ; Sn2 ): Ce principe se généralise
avec l’ensemble des moments d’ordre p; p 2 N .
Exemples :
1
Si X1 ; :::Xn sont de loi Géométique de paramètre p, alors, E (Xi ) = .
p
1
L’estimateur des moments de p est donc p^n = .
Xn
a+b
Si X1 ; :::Xn sont de loi uniforme sur l’intervalle [a; b] alors : E (Xi ) = et
2
(b a)2
V ar(Xi ) = .
12
p p
Par conséquent a = E (Xi ) 3var(Xi ) et b = E (Xi ) + 3var(Xi ): Les esti-
p p
mateurs des moments de a et b sont donc : a ^n = Xn 3Sn2 et ^bn = Xn + 3Sn2
Remarques
27
De manière générale, l’estimation par la méthode des moments est plus rapide
que l’estimation par méthode de vraisemblance.
Les deux approches ne donnent pas toujours le même résultat. Par exemple, voir
le cas de la loi uniforme.
De plus la méthode du maximum de vraisemblance présente des avantages théo-
riques, qui ne seront pas détaillés ici, qui assurent un bon comportement des
estimateurs.

1.5 Estimation par intervalle de con…ance


1.5.1 Position du problème

L’estimation ponctuelle d’un paramètre ou d’une valeur inconnue, consiste à


proposer une valeur plausible pour cette grandeur inconnue. Mais nous commettons
nécessairement une erreur : l’aspect aléatoire de l’échantillon fait que nous ne don-
nons pas exactement la valeur théorique, mais une valeur approchée. On se propose
maintenant de donner la marge d’erreur commise. Plus précisément, il va s’agir de
construire un intervalle dans lequel la grandeur recherchée a une probabilité forte
de se trouver.
L’idée d’un intervalle de con…ance est donc de donner une plage de valeurs pos-
sibles du paramètre, avec un degré de con…ance associé.

Problème : Soit 2]0; 1[: Comment construire un intervalle [ 1 ; 2 ] qui


contient le paramètre inconnu avec une probabilité de 1 ? c’est à dire
P[ 1 2 ] = 1 .

Par exemple, un intervalle [T1 ; T2 ] de niveau 95% pour , signi…e qu’il y a une
probabilité de 95% que soit bien compris entre T1 et T2 .

Dé…nitions

L’intervalle [ 1 ; 2 ] est dit intervalle de con…ance du paramètre au niveau


de con…ance de 1 :
Le nombre est le risque d’erreur ou le seuil de signi…cation
Le nombre 1 est le degré de con…ance ou taux de sécurité

Remarques
Les niveaux de con…ance les plus fréquemment utilisés sont 90%, 95%, 99% cor-
respondant aux risques 10%, 5% et 1% respectivement.

Plus le niveau de con…ance est élevé, plus la certitude est grande que l’intervalle
contient la vraie valeur du paramètre et plus l’intervalle augmente d’amplitude.

28
1.5.2 Intervalle de con…ance pour une moyenne

On envisage deux cas selon que la variable aléatoire mesurée est normale ou pas.
a) Cas où la variance est connue
Lorsque la variable aléatoire mesurée est de loi normale et le nombre de réa-
lisations est quelconque et si la variance 2 de la population est donnée, alors la
variables des moyennes d’échantillons Xn est telle que :
Xn m
Xn N m; p () T = N (0; 1) :
n p
n

Problème
On se …xe un seuil 2]0,1[ et on construit un intervalle [m1 ; m2 ] tel
que la moyenne m de la population véri…e : P [m1 m m2 ] = 1 .
Solution
Rappelons que la fonction F de la loi N(0; 1) est bijective de R dans [0; 1] : Par
conséquent, toute valeur de [0; 1] a son antécédent dans R. En particulier, puisque
1 2 2]0; 1[ et tenant compte de la symétrie de F, il existe un nombre t 2 tel que
Symetrie
F t 2 = P N (0; 1) t2 = 1 =) P t2 N (0; 1) t2 = 1 :
2
Par exemple :
0:05 table de N(0,1)
- pour = 5%, on a : F t 2 = 1 = 0:975 =) t 2 = [Link]
2
0:03 table de N(0,1)
- pour = 3%, on a : F t 2 = 1 = 0:985 =) t 2 = [Link]
2
Plus généralement, le tableau suivant donne les trois valeurs usuelles de t 2 :

Valeurs de 1% 5% 10%
:
Valeurs de t 2 2:58 1:96 1,65

Construction de l’intervalle de con…ance [m1 ; m2 ]


Pour un seuil …xé, on calcule t 2 tel que P t2 N (0; 1) t2 = 1 : Or
!
Xn m Xn m
dans notre cas, T = N (0; 1) i.e P t2 t2 =1
p p
n n

() P t2 p Xn m t2 p =1
n n

() P Xn t2 p m Xn + t 2 p =1
n n

() P Xn t2 p m Xn + t 2 p =1 :
n n
Par conséquent, les bornes m19et m2 cherchées sont telles que :
m1 = Xn t 2 p > =
n l’intervalle cherché est IC (m) = xn t 2 p ; xn + t 2 p
m2 = Xn + t 2 p > ; n n
n
29
où xn est la valeur de la moyenne obtenue
h sur l’iéchantillon.
On note plus simplement : IC (m) = xn t pn : D’où le résultat suivant.

Propriété 3.1 (Forme de l’intervalle de con…ance)

Pour un réel …xé dans [0; 1] l’intervalle de con…ance de la moyenne au seuil


de signi…cation est de la forme : IC (m) = xn t2p ; xn + t 2 p
n n
où x est la moyenne de l’échantillon et t 2 , le fractile de la loi normale tel que :
F t2 = 1 2:
0
Conséquence sur la taille de l echantillon
Lorsque, pour un risque …xé, l’on dispose d’information sur l’intervalle de
con…ance, alors on peut chercher la taille minimale de l’échantillon nécessaire. En
e¤et, soit E l’amplitude maximale de l’IC ou soit " l’erreur maximale commise sur
la moyenne, avec E = 2". On a :
p 2
E 2t 2 p =) 2" 2t 2 p =) n t2 =) n t2 :
n n " "

30
" # " #
2 t2 2 t2 2
On prend n0 = +1 = + 1 la taille minimale de l’échantillon
E "
où [:] est la fonction partie entière. On obtient alors la propriété suivante.

Propriété (Taille de l’échantillon)

Lorsque l’intervalle de con…ance est donné et un risque …xé la taille minimale


n 0 de l’échantillon nécessaire est donnée par :
2 t 2
n0 = E
2
+ 1 où E est l’amplitude de l’IC.

b) Cas où la variance est inconnue


Lorsque la variable aléatoire mesurée n’est pas normale et le nombre de réa-
lisations important (n 30), la variance est estimée par la variance empirique
modi…ée : r
2 1
P 2 n
Sn = n Xi Xn i.e un estimateur ponctuel de est ^ = sn :
n 1
Xn m
La variable centrée réduite sn St(n 1) suit alors la loi de Student à n-1
p
n
degré de liberté: Dans ce cas l’IC au niveau 1 de la moyenne est donné par :

sn sn
IC (m) = xn t1 p ; xn + t1 p ;
2
n 1 2
n 1
où xn est une réalisation de l’échantillon.

c) Intervalle de con…ance de somme de moyennes


La construction d’un IC peut porter sur une somme ou une di¤érence de moyennes
de deux populations distinctes.

Propriété (Intervalle de con…nance de la somme ou de la di¤érence)

Pour un …xé, l’intervalle


" de con…ance de la somme des moyennes est du type #:
r 2 2
r 2 2
1 2 1 2
IC (m1 + m2 ) = (xn1 + xn2 ) t2 + ; (x1 + x2 ) + t 2 +
n1 n2 n1 n2
Et pour la di¤érence"de moyennes , on a : #
r 2 2
r 2 2
1 2 1 2
IC (m1 m2 ) = (xn1 xn2 ) t2
+ ; (xn1 xn2 ) + t 2 +
n1 n2 n1 n2
où x1 et x2 sont les moyennes des échantillons et t 2 , le quantile de la loi normale
tel que : F t 2 = 1 2 :
r 2 2
n1 1 + n2 2
Remarque : Dans ce cas l’écart type associé à la variance pondérée .
n1 + n2

31
1.5.3 Intervalle de con…ance de la proportion

a) Position du problème
Soit p la proportion de la population véri…ant un caractère. On note X la va-
riable aléatoire représentant le nombre d’individus véri…ant ce caractère dans un
échantillon
X de taille n, assez grande,n 30: On sait que X B(n; p): On pose :
Xi
Pn = la fréquence empirique ou distribution d’échantillonnage de la propor-
n
tion. On véri…e que, si p̄ est la proportion échantillonnale, on a :
r !
p (1 p) Pn p
Pn N p; et donc T = r N (0; 1)
n p (1 p)
n

Problème : Pour un risque …xé, comment construire l’intervalle


IC(p) = [p1 ; p2 ] qui contient la proportion p au niveau 1
i.e. P [p1 p p2 ] = 1 :
b) Propriétés.
Comme pour la moyenne, on établit le résultat suivant.

Propriété 3.4 (Forme de l’intervalle de con…ance de la proportion)

Pour un …xé, l’intervalle de con…ance de la proportion des individus


véri…ant un caractère donné
" est du type : #
r r
p (1 p) p (1 p)
IC (p) = p t 2 ;p + t2
n n
où p est la proportion échantillonnale et t 2 tel que F t 2 = 1 2 :

Remarques
r r
p (1 p) N n
Pour un tirage e¤ectué sans remise, on établit que : p = :
n N 1
c) Cas de somme de proportions
Comme dans le cas de la moyenne la construction d’un intervalle de con…ance
peut porter sur la somme de proportions des individus satisfaisant à un critère

32
donné dans deux populations distinctes à un seuil de signi…cation donné.

Propriété 3.5 (Intervalle de con…ance de la somme)

Pour un risque …xé, l’intervalle de con…ance de la somme de proportions


des individus satisfaisant à un critère donné dans deux populations dis-
tinctes au seuil de signi…cation est de la forme :
q q
IC (p)= (p1 +p2 ) -t 2 p1 (1n1 p1 ) + p2 (1n2 p2 ) ; (p1 +p2 ) + t 2 p1 (1n1 p1 ) + p2 (1n2 p2 )
Pour la di¤érence de proportions, on a :
q q
IC (p)= (p1 -p2 ) -t 2 p1 (1n1 p1 ) + p2 (1n2 p2 ) ; (p1 -p2 ) + t 2 p1 (1n1 p1 ) + p2 (1 p2 )
n2
1
où t 2 est le fractile tel que t 2 = F 1 2
:

Applications (Travaux Dirigés)


Sur 2304 personnes interrogées lors d’une élection mettant en prise deux candi-
dats A et B, 1267 se prononcent en faveur de A.
1. Estimer le pourcentage de voix que A pourrait obtenir avec un degré de
con…ance de 0,95. puis 99%.
2. Le jour du vote A récolte le pourcentage p des voix. Quel est le nombre d’élec-
teurs ayant voté si, à 99%, on a commis une erreur maximale de 0,01 sur p ?
Considérer que p(1-p) est très voisin de 0,25
Eléménts de solutions ................................................................................................
.......................................................................................................................................

1.5.4 Intervalle de la variance d’une loi normale

Comme dans le cas de la moyenne, on distinguera deux cas selon que la moyenne
est donnée ou pas.
a) Cas où la moyenne est connue
2
P Soit X1 ; :::; Xn un échantillon de taille n d’une population. On rappelle que Sn =
Xi Xn
; la distribution des variances d’échantillons.
n
a) Problème

Pour tout 2]0; 1[ comment construire un intervalle [ 1 ; 2 ] qui con-


tient la variance 2 de la population avec une probabilité de 1
2
c-à-d P ( 1 2) = 1 :

Rappelons d’abord quelques propriétés de la loi de Khi-deux.


b) Rappel sur la loi de Khi-deux

33
Dé…nition
Soit n un entier non nul. En statistique et en théorie des probabilités, la loi
du Khi-deux à n degrés de liberté est la loi de la somme de carrés de n lois
2
normales centrées réduites indépendantes. On note Z (n) « khi carré »
Si Z1 ; Z2 ; :::; Zn est une série de variables X
alors Zi2 2
(n):
aléatoires i.i.d telles que Zi N (0; 1)

Espérance et Variance
Espérance X X
n
E (Z) = E Zi2 = E (Zi2 ) : Or les Zi N (0; 1) donc E(Zi ) = 0 et
i=1
V(Zi ) = 1 avec V(Zi )= E (Zi2 )E (Zi ) : Par suite E (Zi2 ) = V (Zi ) + E 2 (Zi ) = 1
2
X Xn Xn
et donc : E (Z) = E (Zi2 )
= E (Z) = E Zi2 = 1 = n:
i=1 i=1
Variance : On établit que V (Z) = 2n, d’où le résultat suivant.

Propriété :
2
Si Z (n) alors les caractéristiques sont : E(Z) = n et Var(Z) = 2n

Approximation
Si n est assez grand ( np 30) le théorème de la limite centrale permet d’appro-
p
ximer la variable T = 2Z 2n 1 par la loi normale standard,

Comme pour la loi normale, les valeurs de la loi de Khi-deux sont consignées
dans une table statistique.

Quantiles et Table
Pour un risque ; 2 [0; 1] le quantile n ( ) de la loi de Khi-deux associé
2
à est tel que P( (n) n ( )) = soit P( 2 (n) n ( )) = 1- .

34
et

35
c) Application à la construction de l’IC
Lorsque la moyenne est connue, on estime la variance par la variance empirique
1X X Xi Xn 2
n
2 2 Xi Xn
Sn = Xi Xn : On a : T = N (0; 1) =) suit
n i=1
X Xi Xn 2 nS 2
2
une loi de (n) avec = 2n :
nSn2 2 2 2
Par suite, la variable 2
suit une loi (n): En notant 1 et 2 les quantiles
X
liés à 1 et 2 avec 1 + 2 = 1 on établit que :

2 nSn2 2 nSn2 2 nSn2


P 1 2 2 = 1 =) P 2 2
=1
2 2
2 2 2
1 = 1 est le fractile d’ordre 1 de la loi (n)
ou 2
2
2 2
2 = 1 2 le fractile d’ordre 1 de la loi (n)
2

Propriété 3.6 (IC de la variance)

Pour un risque …xé, l’intervalle de con…ance


" de la variance
# inconnue
2 2
nSn nSn
de la population est du type I C ( 2 ) = 2
; 2 :
1 2 1
2 2

[Link] Cas où la moyenne est inconnue

Lorsque la moyenne est inconnue, l’estimateur sans biais de la variance 2 est la


1 X
n 0
0 2 (n 1) Sn2
variance empirique corrigée Sn2 = xi Xn , dans ce cas 2
suit
n 1 i=1
une loi 2 (n 1) et on a donc
0
P 2
1 n Sn2 2
1 22
=1-
2
2
est le fractile d’ordre 1 de la loi 2 (n 1) :
où 2
1
2
1 2
est le fractile d’ordre 1 2 de la loi (n 1)

L’intervalle de con…ance bilatéral pour la variance d’une loi normale s’écrit donc
au niveau 1 sous la forme suivante :

Propriété (IC de la variance)

Pour un risque …xé, l’intervalle de con…ance de la variance inconnue


de la population est du type " #
2 02 02 02
(n 1) S n (n 1) S n S n S n
IC ( 2 ) = 2
; 2
= (n 1) 2 ; (n 1) 2 :
2 1 1 2 1
2 2

36
Chapitre 2 Introduction aux tests d’hypothèses
2.1 Généralités sur les tests
2.1.1 Présentation des tests d’hypothèses

Le calcul des paramètres d’une série statistique ou l’estimation d’un paramètre


d’une population utilisent des grandeurs numériques. Cependant, certains problèmes
statistiques nécessitent plutôt une réponse qualitative du type : bon ou mauvais, oui
ou non, favorable ou défavorable, pour ou contre, etc. Par exemple
- Peut-on dire que les femmes gèrent …nancièrement mieux que les hommes ?
- La consommation est-elle liée au revenu ?
- Le niveau de vie des travailleurs du privé est-il signi…cativement comparable à
celui des agents de l’état ?
Pour répondre à de telles questions il faut faire un test d’hypothèses. Il s’agit
de confronter deux hypothèses sur la base des résultats d’échantillons extraits de la
population : une hypothèse dite nulle H0 contre une hypothèse alternative H1 :
Il faut noter qu’une hypothèse statistique est un énoncé (une a¢ rmation) concer-
nant les caractéristiques (valeurs des paramètres, forme de la distribution des ob-
servations) d’une population.

Dé…nitions (d’un test statistique)

Un test d’hypothèse (ou test statistique) est une démarche qui a pour but de fournir
une règle de décision permettant, sur la base de résultats d’échantillon, de faire un
choix entre deux hypothèses statistiques.
Un test d’hypothèses est un procédé d’inférence permettant de contrôler (accepter
ou rejeter) à partir de l’étude d’un ou plusieurs échantillons aléatoires, la validité d’hy-
pothèses relatives à une ou plusieurs populations.

2.1.2 Mécanismes et di¤érents types de tests

a) Choix de l’hypothèse
L’hypothèse nulle ou préférentielle H0
C’est l’hypothèse que l’on désire contrôler : elle consiste à dire qu’il n’existe pas
de di¤érence entre les paramètres (ou les distributions) comparés ou que la di¤érence
observée n’est pas signi…cative au risque …xé. C’est H0 qui est soumise au test et toute
la démarche du test s’e¤ectue en considérant cette hypothèse comme vraie.
L’hypothèse alternative H1 ou ou contre-hypothèse
Toute autre hypothèse qui di¤ère de l’hypothèse H0 s’appelle l’hypothèse al-
ternative (contre-hypothèse) et est notée H1 . C’est la "négation" de H0 , elle est
équivalente à dire « H0 est fausse » . La décision de rejeter H0 signi…e que H1 est
réalisée ou H1 est vraie.

37
b) Les risques d’erreurs
La prise de décision dans un test d’hypothèses consiste à rejeter ou ne pas rejeter
l’hypothèse préférentielle (H0 ) qui peut s’avèrer par la suite vraie ou fausse. On peut
distinguer deux types de risques.
Risque d’erreur de première espèce
Le risque d’erreur de première espèce est la probabilité de rejeter H0 alors
qu’elle est vraie ou accepter H1 alors qu’elle est fausse. Par conséquent, est la
probabilité d’avoir un faux positif (rejeter à tort une hypothèse).
=Probabilité (Rejeter H 0 / H 0 vraie) =Probabilité (Accepter H 1 / H 1 fausse)
Cette probabilité est aussi appelée seuil de signi…cation du test. Sa valeur est gé-
néralement …xée à priori par le statisticien et ne dépend pas des données. Valeurs
usuelles : 1% ; 5%, 10%
Risque d’erreur de deuxième espèce
Le risque d’erreur de deuxième espèce est la probabilité d’accepter H0 alors
qu’elle est fausse ou rejeter H1 alors qu’elle est vraie. Par conséquent est la pro-
babilité d’avoir un faux négatif (ne pas rejeter une hypothèse qui s’avère fausse par
la suite).

=Probabilité (Accepter H 0 /H 0 fausse)=Probabilité (Rejeter H 1 / H 1 vraie)


Le tableau suivant résume les di¤érentes situations possibles.
//////// Décisions du statisticien
Situations possibles Accepter H 0 Rejeter H 0 ,
H 0 vraie Bonne décision 1 Erreur de 1ere espèce
H 0 fausse Erreur de 2e espèce Bonne décision 1
Remarques
Pour quanti…er le risque , il faut connaître la loi du paramètre sous H1 .
La décision d’accepter (ou de rejeter) H0 ne signi…e pas qu’elle est vraie (ou fausse).
Cela signi…e qu’il n’y a pas d’évidence nette pour que H0 soit refusée (ou acceptée).
c) La puissance du test
Dans un test d’hypothèses, l’aptitude à rejeter l’hypothèse H0 alors qu’elle s’avère
fausse constitue la puissance du test. La puissance du test donc la probabilité 1
dé…nie par
1 =P(rejeter H 0 / H 0 fausse) = P(accepter H 1 /H 1 vraie ):

38
[Link] Les di¤érents types de tests
Selon la particularité de l’hypothèse on peut distinguer deux types de tests d’hy-
pothèses : le test bilatéral et le test unilatéral.
a) Test bilatéral
Le test est bilatéral lorsqu’on ne peut pas spéci…er la direction particulière pour
l’hypothèse H1 :

H0 : = 0; le paramètre est égale à la valeur de référence


H1 : 6 = 0 ; le paramètre n’est pas égale à la référence

Dans ce type de test, il y a deux régions de rejet de H0 , situées aux


extrémités de la distribution et chacune est d’aire .
2
b) Test unilatérial
Lorsqu’on peut spéci…er une direction particulière pour l’hypothèse alternative,
on dit que le test est unilatéral. Dans ce cas, on distingue
Le test unilatéral inférieur ou gauche

H0 : = 0 le paramètre est égale à la valeur de référence


H1 : 0 , le paramètre est inférieur à la valeur de référence

Dans ce cas, le rejet de l’hypothèse H0 permet de conclure que la valeur du paramètre


39
est supérieure à la valeur présumée.
Le test unilatéral supérieur ou droit

H0 : = 0 le paramètre est égale à la valeur de référence


H1 : > 0 , le paramètre est supérieur à la valeur de référence

Pour un test unilatéral supérieur, le rejet de l’hypothèse H0 permet de conclure


que la valeur du paramètre est inférieure à la valeur présumée.

2.1.3 Di¤érentes étapes d’un test d’hypothèses

Dans un test d’hypothèses, il est nécessaire d’avoir une démarche précisepour


aboutir à une règle de décision. Les principales étapes sont les suivantes.
Étape 1 : Formuler les hypothèses
Étape 2 : Déterminer la statistique (paramètre) pour contrôler H 0
Préciser la distribution pour e¤ectuer le test (distribution de moyenne d’échan-
tillons, de la proportion, ..) sous l’hypothèse «H0 est réalisée» . Généralement, il
s’agit de la distribution normale.
Étape 3 : dé…nir les valeurs critiques
A partir du seuil de signi…cation du test (traditionnellement …xé à 5% ) et de la
taille de l’échantillon, il faut déterminer la valeur critique t correspondant au seuil
de signi…cation donné.
Étape 4 : établir la règle de décision
Il faut énoncer clairement et à priori la règle de décision. De façon générale, il
s’agit de :
- Maintenir H0 si la valeur de la statistique se situe dans la région d’acceptation
- Rejeter H0 sinon.
Étape 5 : faire les calculs nécessaires

40
A partir des données fournies par l’échantillon, on calcule la valeur de la statis-
tique T.
Étape 6 : Prendre une décision.
En analysant la valeur de T obtenue à l’étape 5 et à la lumière des règles établies
à l’étape 4, on prend la décision pertinente

2.2 Tests de comparaison


Les tests de conformité sont destinés à véri…er si un échantillon peut être consi-
déré comme extrait d’une population donnée ou représentatif de cette population,
vis-à-vis d’un paramètre comme la moyenne, la variance ou la fréquence observée.

2.2.1 Comparaison d’une moyenne à une moyenne standard

a) Problème
On veut savoir si, à un risque …xé, la moyenne m d’une population est égale,
inférieure ou supérieure à une valeur standard m0 ; à partir de la moyenne obtenue
sur un échantillon.
b) Mécanisme du test
Lorsque est connu, la distribution d’échantillonnage des moyennes est une loi
normale ou approximativement normale Xn N m; pn car soit la population est
normale ou/et taille n est assez grande (n 30). Dans cette situation, le test sur
une moyenne se fait de la façon suivante.
Étape 1 : Formuler les hypothèses H0 et H1 selon la nature du test

Types de tests Test bilatéral Test unilatéral droit Test unilatéral gauche
H0 : m = m 0 H0 : m = m 0 H0 : m = m 0
Hypothèses
H1 : m 6= m0 H1 : m m 0 H1 : m m 0

Étape 2 : La distribution des moyennes d’échantillons est Xn N X; pn


Xn m
alors T = p
N (0; 1) :
n

F 1 1 2
, test bilatéral
Étape 3 : On détermine le quantile associé à par : t 2 =
F 1 (1 ) ; test unilatéral
Étape 4 : Rappeler la règle de décision selon la nature du test
xn m0
Étape 5 : Sous l’hypothèse H0 ; on a : T = N (0; 1) :
X
Étape 6 : Prendre une décision concernant H0 posée et faire une interprétation
Remarque :

41
On peut utiliser l’intervalle de con…ance de la moyenne pour prendre la décision
du test
Nature du test Acceptation l’hypothèse H0 Rejeter l’hypothèse H0
h i
Test bilatéral Si X 2 m0 t n ; m0 + t n
p p Si X 62 m0 t p
n
unilatéral droit Si X m0 + t p Si X m0 + t p
n n
unilatéral gauche Si X m0 t p Si X m0 t p
n n
Application Dans l’aplication sur le revenu de 150 travaielleurs.
1. Peut-on comparer, au risque de 1%, le revenu moyen des agents à 360000 F ?
2. Le risque de 5% est-il signi…catif pour dire que le revenu moyen de ces agents
n’excède pas 290000F ?

2.2.2 Comparaison d’une proportion à une proportion standard

a) Problème
On veut savoir si, à un risque …xé, la proportion p d’une population est égale,
inférieure ou supérieure à une valeur standard p0 à partir de la proportion obtenue
sur un échantillon de taille n.
b) Mécanisme du test
Formuler l’hypothèse nulle et l’hypothèse alternative selon que le test est bila-
téral (1) ; unilatéral gauche (2) ou droite (3). :
H0 : p = p0 ; proportion egale a la valeur standard H0 : p p0 = 0
(1) ()
H1 : p 6= p0 la proportion n’est pas egale a p0 H1 : p p0 6= 0
H0 : p p0 = 0 égale à la proportion standard H0 : p p0 = 0
(2) ()
H1 : p p0 < 0; inférieure à lproportion standard H1 : p p0 < 0

H0 : p p0 = 0 égale à la proportion standard H0 : p p0 = 0


(3) ()
H1 : p > p0 ; supérieure à lproportion standard H1 : p p0 > 0
1
F 1 2
, bilatéral
Le risque étant donné, on calcule le quantile t 2 = 1
F (1 ) ; unilatéral
q
La distribution de la proportion étant Pn N (p; p ) où p = p(1n p) .
Règles de décisions
(
- si X 2 [ t ; t ] on accepte l’hypothèse H 0
Bilatéral
- sinon on rejette l’hypothèse H 0 et on accepte l’hypothèse H 1

- si X t on accepte l’hypothèse H 0
Droit
- sinon on rejette l’hypothèse H 0 et on accepte l’hypothèse H 1

- si X < t on accepte l’hypothèse H 0


Gauche
- sinon on rejette l’hypothèse H 0 et on accepte l’hypothèse H 1
42
On calcule la statistique X = P n p p0 N (0; 1)
On prend une décision
Remarque
On peut prendre une décision en utilisant l’intervalle de con…ance de la propor-
tion. En particulier, pour le test bilatéral, on adopte la méthode de décision suivante
8
> q q
< p(1 p) p(1 p)
- si p 2 p0 t n
; p 0 + t n
on accepte l’hypothèse H 0
>
: - sinon on rejette l’hypothèse H 0 et on accepte l’hypothèse H 1

(
- si p p0 t p
on accepte l’hypothèse H 0
n
- sinon on rejette l’hypothèse H 0 et on accepte l’hypothèse H 1

- si X t on accepte l’hypothèse H 0
- sinon on rejette l’hypothèse H 0 et on accepte l’hypothèse H 1

2.3 Tests d’homogénéité


Plutôt que de comparer la moyenne ou la proportion d’une population à une
valeur standard, il peut arriver le test consiste à comparer les moyennes et les pro-
portions de deux populations indépendantes sur les base de résultats d’un nombre
équivalent d’échantillons. et les proportions de deux populations indépendantes sur
les base de résultats échantillonaux. Dans ce cas la loi théorique du paramètre étudié
(par exemple ,p, 2 ) est inconnue au niveau des populations étudiées

2.3.1 Comparaison de deux moyennes

On souhaite comparer, à un risque …xé, les moyennes m1 et m2 de deux po-


pulations à partir des moyennes X1 et X2 obtenues sur des échantillons extraits de
ces populations. On adopte les mécanismes précédents en utilisant les propriétés des
lois de la di¤érence de variables des moyennes d’échantillons.
Hypothèses

Types de tests Test bilatéral Test unilatéral droit Test unilatéral gauche
H0 : m 1 = m 2 H0 : m 1 = m 2 H0 : m 1 = m 2
Hypothèses
H1 : m1 6= m2 H1 : m 1 m 2 H1 : m 1 m 2

Pour la statistique T du test on distingue trois cas


2 2
- Si les variances 1 et 2 des deux populations sont données alors
X1 X2 m1 m2
T = r
2 2
N (0; 1) et sous l’hypothèse H0 on a : T = r
2 2
:
1+ 2 1+ 2
n1 n2 n1 n2

- Si les variances ne sont pas connues et on suppose que les deux populations ont
la même variance : 21 = 22 = 2 (homoscédasticité) on obtient

43
X1 X2
T = v
u 0 1 suit une loi de Student à (n1 + n2 2) degré de liberté. Sous
u
u 2@
1 1
t + A
n1 n2
l’hypothèse H0 et puisque la variance n’est pas connue alors on calcule T
m1 m2 2 n1 2e1 + n2 2e2
par T = v u 0 1 où ^ = est l’estimation de la variance
u 2@ 1
u 1 n1 + n2 2
t^ + A
n1 n2
commune 2 ; les écarts type e1 et e2 étant obtenues sur les échantillons
- Si les variances ne sont pas connues, leurs estimations sont di¤érentes et les
X1 X2
échantillons sont importants (n1 et n2 30) et T = v u
u 2 2
u e1 e2
t +
n1 1 n2 1
N (0; 1) si les écarts type e1 et e2 sont obtenues sur les échantillons.
Tableau récapitulatif

Paramètre Variance connue Variance inconnue


hétéroscé hétéroscé
homoscédasticité - dasticité - dasticité
2 2 2 2 2 2 2
1 = 2 = 1 6= 2 avec 1 6= 2 avec
(n1 et n2 30) (n1 et n2 < 30)
T = r m1 m2
^ 2 n1 + n1
1 2
m1 m2 r X1 X2
Test non
Statistique T = r où T =
2 2 2
e1
2
e paramétrique
1+ 2
n1 n2 2 n1 2e1 + n2 2e2 n1 1
+ n 21
2
^ =
n1 + n2 2
t , table de Student Test non
Quantile t , table N (0; 1) t table N (0; 1)
à (n1 +n2 -2) ddl paramétrique

Règles de décisions : On prend une décision selon la nature du test.

2.3.2 Comparaison de deux proportions

a) Problématique
On souhaite comparer, à un risque …xé, les proportionss p1 et p2 de deux
populations véri…ant un caractère donné, à partir des moyennes p1 et p2 obtenues sur
des échantillons extraits de ces populations. On adopte les mécanismes précédents
en utilisant les propriétés des lois de la di¤érence de variables des moyennes de
fréquences.
b) Mécanisme
Hypothèses (pour un test bilatéral par exemple).

Types de tests Test bilatéral Test unilatéral droit Test unilatéral gauche
H 0 : p 1 = p2 H 0 : p 1 = p2 H0 : p1 = p2
Hypothèses
H1 : p 1 6= p2 H1 : p 1 p2 H1 : p 1 p 2

Distributions

44
Les variables de proportions d’échantillons extraits de deux populations distinctes
Pn1 et Pn2 sont telles que
0 s 1
p1 (1 p1 ) p1 (1 p1 ) A
Pn1 Pn2 N @p 1 p 2 +
n1 n1

p1 p
Par suite T= v
u s N (0; 1) lorsque H0 est véri…ée c’est à
u p1 (1 p1 ) p1 (1 p1 )
t +
n1 n1
p^1 p^2 n1 p1 + n2 p2
dire p1 = p2 et dans ce cas T = v
u 0 1 où p =
u
u 1 1 n1 + n2
tp(1 p) @ + A
n1 n2
Le risque étant donné, on détermine le quantile t 2 selon la nature du test
p^1 p^2 n1 p1 + n2 p2
On calcule la statistique T par T = v u 0 1 où p = ,
u
u 1 1 n1 + n2
tp(1 p)@ + A
n1 n2
moyenne arithmétique des proportions échantillonales
Règles de décisions : On prend une décision selon la nature du test.

2.4 Les tests de Khi-deux


2.4.1 Introduction

Le test du 2 « khi-deux » ou « khi carré » , permet, partant d’une hypothèse


et d’un risque supposé au départ, de rejeter l’hypothèse si la distance entre deux
ensembles d’informations est jugée excessive. Il est particulièrement utilisé comme
- test d’adéquation d’une loi de probabilité à un échantillon d’observations sup-
posées indépendantes et de même loi de probabilité.
- test d’indépendance porte sur des données qualitatives.

2.4.2 Test d’adéquation, test d’ajustement

a) Objectif
Les tests d’adéquation ou test d’ajustement sont destinés à véri…er si un échan-
tillon peut être considéré comme extrait d’une population donnée par rapport à
sa distribution observée (tests d’ajustement). On souhaite déterminer si la distri-
bution F des données d’une population peut être ajuster par une loi de probabilité
F0 donnée c’est à dire que toutes les données considérées dérivent de la même loi
de probabilité i.e que la distribution observée n0est pas di¤érente de la distribution
théorique que l0 on souhaite tester.
b) Mécanisme

45
On formule les hypothèses

H0 : F (x) F0 (x) F suit la loi connue F 0 H0 : F (x) F0 (x) 0


()
H1: F (x) 6 F0 (x) F ne suit pas la loi F 0 H1: F (x) F0 (x) 6 0

On dispose de n observations groupées en k classes ou modalités d’e¤ectifs ob-


servés ni :
Soient pi et npi la probabilité et l’e¤ectif théoriques respectfs de la classe i (ob-
tenus à partir de la loi à tester). Si pour toutes les classes on a npi 5 on …xe
le nombre de degré de liberté (d.d.l), k = n 1:
Pn
2 i=1 (ni npi )2
On calcule la statistique cal = npi
; écart entre les lois théoriques et
expérimentale
2 2
On observe sur la table de khi-deux la valeur observée obs = n 1 ( )
Règle de décision
2 2
- Si la valeur calculée est supérieure à la valeur critique ( cal obs ) on rejette
H0 :
2 2
- Si la valeur calculée est inférieure à la critique cal < obs alors H0 est acceptée
Remarque : Pour une loi à l paramètres le ddl k est tel que k = n 2: Ainsi,
pour une
- loi Binomiale, de Poisson on a k = n 1 (pour la binomiale n est la taille de
l’échantillon)
- loi normale, on a :k = n 2.
Application
La répartition des revenus exprimés en milliers de francs CFA des habitants
d’une population est étudiée au moyen d’échantillon de 100 ménages dans le tableau
suivant
Revenus des ménages 65-75 75-93 93-125 125-137 137-145
Nombre de ménages 15 24 32 18 11

1) Peut-on admettre à 1% que ce revenu est uniforment réparti ?


2) L’hypothèse d’une répartition normale est soutenable à 5% ? Préciser le test
utilisé.
Eléments de Solution
1) Soit R la variable aléatoire représentant le revenu des ménages. Il s’agit de
tester les hypothèses suivantes

H0 : R U[65;145] , la distribution suit la loi uniforme sur [65; 145]


H1: R 6 U[65;145] la distribution ne suit pas la loi uniforme sur [65; 145]

x a
Rappelons que la loi uniforme sur un intervalle [a; b] est telle que F (x) =
b a
si x 2 [a; b], la fonction des probabilités. Par conséquent la probabilité p1 de la

46
75 65
première classe [65; 75] est p1 = 145 65
= 0:125 : Plus généralement, on obtient le
tableau de calcul suivant

(ni npi )2
Classes ni pi npi (ni npi )2
npi
65-75 15 0:125 12:5 6:2 5 0: 5
75-93 24 0:225 22:5 1: 5623 0.1
93-125 32 0:4 40 64 1.6
125-137 18 0:15 15 9 0.67
137-145 11 0:1 10 1 0.1
2
Total 100 1 100 ////////// cal = 2:9

Pn
(n np )2
. A partir du tableau on calcule la statistique 2cal = i=1 npi i i = [Link]
. Par ailleurs, on a tous les npi 5 donc le ddl est k = 5 1 = 4: Or d’après la
table de khi-deux, pour un risque = 1% on a : 24 (0:01) = 13; 277:
Par conséquent 2cal < 2obs alors H0 est acceptée.
Conclusion : Au risque de 1% on peut admettre que la distribution
de revenus est uniformément répartie.
2) Pour la loi normale en considérant les Pcentres xi des classes, on obtient les
n
nx
paramètres échantillonnaux suivants : X = i=1n i i = 10463 = 104:63 et X =
q Pn q 100
n x 2
i=1 i i 1150600 2
n
X2 = 100
(104:63) = 23 :634: Par conséquent la moyenne
et l’écart type de q la population sont respectivement m = X = 104:630 et =
p n
X n 1
= 23 :634 100
99
' 23: 75:

H0 : R N (104:63; 23: 75), le revenu suit la loi normale


H 1: R 6 N (104:63; 23: 75) le revenu ne suit pas la loi normale

R m
Rappelons que si R N (m; ) alors T = N (0; 1) de fonction de
R 104:63
répartition F. Par conséquent selon H0 ; on a : T = : Par ailleurs, puisque
23: 75
la loi normale est dé…nie sur tout alors la probabilité p1 de la première classe [65; 75]
est celle de R 75:
p1 = P (R 75) = p R [Link]
75 104:63
23: 75
= P (T 1: 25) = F ( 1: 25) =
1 0:8944 = 0:106
Plus généralement, on obtient le tableau de calcul suivant

(ni npi )2
Classe ni pi npi ni npi
npi
Moins de 75 15 0:106 10:6 4.4 1: 826 4
75-93 24 0:206 20:6 3.4 0:561 17
93-125 32 0:493 49:3 -17.3 6: 070 8
125-137 18 0:108 10:8 7.2 4: 8
Plus de 137 11 0:087 8:7 2: 3 0:608 05
Total 100 1 100 ////// 13: 866
47
Pn
(n np )2
A partir du tableau on calcule la statistique 2cal = i=1 npi i i = 13: 866:
Par ailleurs, on a tous les npi 5 donc le ddl est k = 5 2 = 3: D’après la
table de khi-deux, pour un risque = 5% ou pour un taux de con…ance de 95%, on
a : 23 (0:95) = 7; 815 = 2obs : Par conséquent 2cal 2
obs alors H0 n’est pas acceptée.

Conclusion : Au risque de 5% on ne peut pas admettre que la dis-


tribution de revenus est normalement répartie.

2.4.3 Tests d’indépendance

a) Problématique
Dans ce cas, la loi théorique du paramètre est inconnue au niveau des popula-
tions. On peut ajouter à cette catégorie le test d’indépendance qui cherche à tester
l’indépendance entre deux caractères, généralement qualitatifs.

Les tests d’adéquation ou test d’ajustement sont destinés à véri…er si un échantillon


peut être considéré comme extrait d’une population donnée par rapport à sa distri-
bution observée (tests

b) Mécanisme
Soient X et Y deux variables aléatoires dé…nies sur la même population mesurant
deux caractères (X et Y peuvent être variable qualitives).
On formule les hypothèses suivantes

H 0 : P (A \ B) = P (A) P (B), les 2 populations sont indépendantes


H 1: P (A \ B) 6= P (A) P (B), les 2 populations ne sont pas indépendantes

Le caractère X est composé de modalités divisés en k classes C1 ; C2 ; :::; Ck


Le caractère Y est composé de modalités divisés en l classes D1 ; D2 ; :::; Dl :

D1 D2 :::: Dj :::: Dl E¤ectifs des Ci


C1 n11 n12 :::: n1j :::: n1l n1:
C2 n21 n22 :::: n2j :::: n2l n2:
.. .. .. .. .. .. .. ..
. . . . . . . .
Ci ni1 ni2 :::: nij ::: nil ni:
.. .. .. .. .. .. .. ..
. . . . . . . .
Ck nk1 nk2 :::: nkj ... nkl nk:
E¤ectifs des Dj n1 n2 ... n j ... n l n

P
l P
k P
p P
k P
l
On a : ni = nij et n j = nij et ni: = nij = n:
j=1 i=1 i=1 i=1j=1

Sous l’hypothèse H 0 , pour chaque couple (Ci ; Dj ) l’e¤ectif théorique est notée
ni n j
tij = :
n
Pi=k Pj=l
2 i=1 j=1 (nij tij )2
On calcule la statistique : cal =
tij

48
2
Pour un risque …xé, on observe sur la table de khi-deux la valeur : obs =
2
(k 1)(l 1) ( ) où le nombre de degré de liberté est (k 1) (l 1) :
Règle de décision
2 2
- Si la valeur calculée est supérieure à la valeur critique ( cal obs ) on rejette
H0 :
2 2
- Si la valeur calculée est inférieure à la critique cal < obs alors H0 est acceptée
Applications
a) Application 1

Pour étudier l’interdépendance entre l’âge des élèves et la dépense mensuelle


e¤ectuée par les parents on a réalisé un sondage sur un échantillon de 400 parents
d’élèves de ce lycée. Le tableau ci-dessous pésente les données pertinentes de cette
étude, les montants sont exprimés en milliers de francs CFA

///// Dépense mensuelle e¤ectuée par les parents ( 1000F CFA)


Âge des élèves [40,44[ [45,49[ [50,54[ [55,59[
12 25 15 26 24
13 20 22 16 15
14 40 35 30 36
15 25 22 24 25

Peut-on admettre à 5% que la dépense mensuelle des parents est indépendante


de l’âge des élèves ?

[Link] Eléments de solutions


On formule les hypothèses suivantes

H0 : Les dépenses indépendantes de l’âge des élêves


H 1 : Les dépenses ne sont pas indépendantes de l’âge des élêves

Le caractère "âge" est composé 4 modalités


Le caractère "dépense" est composé de 3 modalités
On considère le tableau de calcul suivant
X Y! P3 (nij tij )2
42 47 52 57 ni: j=1 tij
#
12 25 15 26 24 90
13 20 22 16 15 73
14 40 35 30 36 141
15 25 22 24 25 96
n:j 110 94 96 100 400

Calcul des valeurs critiques


49
P3
(n1j
j=1 t1j )2 (25 90 110 2
400 ) (15 90 110 2
400 ) (25 90 110 2
400 ) (25 90 110 2
400 )
= 90 110 + 90 110 + 90 110 + 90 110 =
t1j 400 400 400 400
P3
j=1 (n2j t1j )2 (25 90 110 2
400 ) (25 90 110 2
400 ) (25 90 110 2
400 ) (25 90 110 2
400 )
= 90 110 + 90 110 + 90 110 + 90 110 =
t1j 400 400 400 400
P3
j=1 (n3j t1j )2 (25 90400110 )
2
(25 90400110 )
2
(25 90400110 )
2
(25 90400110 )
2

= 90 110 + 90 110 + 90 110 + 90 110 =


t1j 400 400 400 400
Pi=k Pj=l
2 i=1 j=1 (nij tij )2
Si bien que cal = =
tij
Par ailleurs, au risque de 5% on a : 2obs = 2(3 1)(4 1) (5%) = 26 (5%)

50

Vous aimerez peut-être aussi