0% ont trouvé ce document utile (0 vote)
103 vues222 pages

Introduction au Big Data et Statistiques

Transféré par

K-pop Drama
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
103 vues222 pages

Introduction au Big Data et Statistiques

Transféré par

K-pop Drama
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Filière : BIG DATA S7

Pr. Med El Harami


Éléments du cours
Partie 1 ( Lois de probabilité et Statistique descriptive)
 Ch.I Les variables aléatoires et lois usuelles
 [Link] Rappel de la statistique descriptive
Partie 2 ( inférence statistique)
 [Link] La théorie d’échantillonnage
 [Link] Les estimateurs
 Ch.V Les tests d’hypothèses
Partie 3 (Statistique Bayésienne )
 [Link] Théorème de Bayes et applications
 [Link] Estimation du maximum de vraisemblances
 Ch. VIII Raisonnement et Réseaux Bayésiens
Introduction générale:
Statistique exploratoire: ensemble de méthodes scientifiques pour
l’observation de phénomènes concrets (donc passés). Son but est de résumer,
structurer, analyser et représenter (statistique descriptive) l’information
contenue dans les données.
L’analyse des données regroupe les techniques de visualisation (observation) de
données multidimensionnelles (analyse en composantes principales… ).

Statistique inférentielle: des méthodes probabilistes pour étendre (généraliser)


à la population toute entière, les propriétés observées sur une partie restreinte de
cette population (un échantillon). (inférer = tirer des conséquences par induction) .
On dit aussi statistique inductive.
Chapitre I: Variables aléatoires et lois usuelles

 Variables aléatoires (définitions et exemples)


 Variables aléatoires discrètes
Loi de probabilité
Fonction de répartition
Espérance, Variance
 Variables aléatoires continues
Fonction de densité
Fonction de répartition
Espérance, Variance
 Lois classiques usuelles
Lois discrètes
Lois continues
4
Variable aléatoire (Définition )
 Etant donné un espace probabilisé d’espace
fondamental Ω et de mesure de probabilité P, on
appelle variable aléatoire sur cet espace,
toute application X� de Ω dans R� telle que :
X: Ω⟶F�
ω⟼X(ω)

RQ: Une variable aléatoire est les résultats


d'une épreuve aléatoire qui peuvent être
représentés par des nombres.

5
A chaque évènement élémentaire ω� de Ω correspond un
nombre réel x� associé à la variable aléatoire X .
La valeur x� correspond à la réalisation de la
variable X� pour l’évènement élémentaire ω
Définition : On appelle variable aléatoire discrète une variable
aléatoire qui ne prend que des valeurs ponctuelles ("isolées")
(dénombrables), par exemple des entiers.

Exemple
Si l’on considère la constitution d’une fratrie de deux enfants,
l’espace fondamental est constitué des évènements
élémentaires suivant : Ω={GG,GF,FG,FF}
Les valeurs possibles prises par la variable aléatoire
X�, « nombres de fille dans la famille » sont : X(Ω)={0,1,2}

Définition : On appelle variable aléatoire continue une variable


aléatoire dont l'ensemble des valeurs est R ou une réunion
d'intervalles de R.
Exemple : Dans un labo, on observe deux bactéries et on
s’intéresse à la durée de vie X de la bactérie qui disparaitra la
première. L’ensemble fondamental est Ω = [0,+∞[x[0,+∞[.
La variable X s’écrit alors :

X: Ω →R
(w1, w2) → min (w1, w2)

X est une variable aléatoire continue à valeurs dans [0,+∞[

i.e X(Ω )= [0,+∞[


Variables aléatoires discrètes
Loi de probabilité
La loi de probabilité (ou distribution ou fonction de densité) décrit les
répartitions des fréquences d’apparition des résultats d’une expérience
aléatoire.

pi .
On peut noté par
Fonction de répartition
La fonction de répartition correspond à la distribution cumulée

9
Variables aléatoires discrètes
Espérance:

L’espérance, notée E(x) correspond la une moyenne pondérée:

Variance, V(X):

10
Variables aléatoires continues
Fonction de densité ( Loi de X)
C’est la même chose que pour les variables aléatoires discrètes,
excepté que x appartient à R. Il s’agit de f(x) dans la formule
précédente.
f : s’appelle ici la fonction densité de X

Propriétés de f

11
Variables aléatoires continues
Fonction de répartition
C’est la même chose que pour les variables aléatoires discrètes, excepté que
x appartient à R cette fois.

12
Remarque . on a

Pour a <b,
Variables aléatoires continues
Espérance
En suivant exactement la même démarche que pour les
variables aléatoires discrètes, on définit l’espérance:

Pour la Variance, V(X):

14
14
Graphes de F

Une fonction de répartition d’une variable aléatoire X


est une fonction F qui, pour tout x, indique la
probabilité pour que X soit inférieur ou égal à x
(F(x)=P(X≤x)).

Variable continue
Variable discrète (escalier)
15
Covariance de deux variables définies sur un même univers

La covariance de X et Y, notée 𝑐𝑜𝑣(𝑋,𝑌) est une mesure de la


relation linéaire entre les deux variables aléatoires. Elle sert donc
à évaluer le degré de la relation linéaire entre X et Y.
son expression mathématique :

𝒄𝒐𝒗(𝑿,𝒀)=𝑬[(𝑿− ̅)(𝒀− ̅)] =𝑬(𝑿𝒀)−𝑬(𝑿)𝑬(𝒀)


=ΣΣ𝒙𝒚𝑷(𝑿=𝒙 𝒆𝒕 𝒀=𝒚)−𝑬(𝑿)𝑬(𝒀)
Propriétés de la covariance
 𝑐𝑜𝑣(𝑋,𝑘)=0 𝑒𝑡 𝑐𝑜𝑣(𝑘,𝑌)=0 : k étant une constante donnée.
 𝑐𝑜𝑣(𝑋,𝑌)=𝑐𝑜𝑣(𝑌,𝑋)
 𝐶𝑜𝑣(𝑎𝑋+𝑏,c𝑌+𝑑)=𝑎c𝐶𝑜𝑣(𝑋,𝑌): 𝑎,𝑏,𝑐 𝑒𝑡 d 𝑠𝑜𝑛𝑡 𝑑𝑒𝑠
𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒𝑠
 Cov(X,Y)=0, X et Y indépendantes
Propriétés:
Pour 𝑋et Y des variable aléatoire (discrètes ou continues), a et
b deux constantes .On a les propriétés fondamentales de
l’espérance et de la variance :
Exercices : I) On considère un dé cubique truqué dont les faces
sont numérotés de 1 à 6 et on note X� la variable aléatoire donnée
par le numéro de la face du dessus. On suppose que le dé est truqué
de sorte que la probabilité d'obtenir une face est proportionnelle au
numéro inscrit sur cette face.
1) Déterminer la loi de X�, calculer son espérance et sa variance.
2) 2) On pose Y=1/X�. Déterminer la loi de Y�, et son
espérance.
II) Soit X une variable aléatoire dont la fonction de
répartition est donnée par 0, si x  0

x
FX ( x)   si x  [0, 2[
 2
1 si x  2

1) Tracer le graphe de . Est ce que X est une variable discrète ?


Une variable a densité ?
2) Donner les valeurs de P(X = 1/2 ), P(X = 1), P( 3/4 < X≤ 1)
et P( 3/ 4 ≤ X ≤1). Calculer E(X) et V(X).
19
Les lois de probabilité usuelles

 Lois discrètes
Loi de Bernoulli
Loi Binomiale
Loi de Poisson
Loi géométrique et hypergéométrique
 Lois continues
Loi uniforme
Loi normale, loi normale centrée réduite
Loi de khi-deux
Loi de Student

20
Loi de Bernoulli, B (p), avec p Є]0, 1[.

Une variable aléatoire X de Bernoulli est une variable qui ne prend


que deux valeurs : l’échec (au quel on associe la valeur 0) et le
succès (auquel on associe la valeur 1) d’une expérience.
Cette expérience est appelée épreuve de Bernoulli.
Par exemple, on souhaite savoir si une cellule est atteinte par un
virus. On associe la valeur 1 si elle est atteinte (succès) et la
valeur 0 sinon (échec).

La loi est donnée par : P (X = 1) = p P (X = 0) = 1 − p=q

L’espérance et la variance de X sont:

E(X)=p, V(X) =pq


Remarque: Sa fonction de répartition
0 x0


F ( x)  q 0  x 1

1 x 1

Exemple: Une entreprise possède 10 chaînes de fabrication C1,
C2,. . . ,C10. Elle sait qu’une chaîne possède un problème mais
elle ignore laquelle, elle choisit alors une chaîne au hasard. On
considère la variable aléatoire X prenant la valeur 1 si la chaîne
testée est la chaîne défaillante et 0 sinon.
Dans ce cas X est une variable de Bernoulli de paramètre 1/10.
On a
P(X=1) =1/10, P(X=0)= 9/10
E(X) = 0,1 et V (X) = 0,09.
La loi binomiale: B(n,p)

La loi binomiale:
C’est une distribution discontinue qui donne les
probabilités d’apparaître un événement de probabilité p
(succés) respectivement 0,1,2,3,…k,… n fois au cours
de n épreuves de Bernoulli.
Si X le nombre de succès obtenus à l’issue des n
épreuves de Bernoulli (indépendantes).
La loi de X s’appelle loi Binomiale de paramètres n et
p.

On note X → B(n,p) : n est le nombre d’épreuves de


Bernoulli, p est la probabilité de ( succès), q est la
probabilité complémentaire ( échec). 23
La loi binomiale: B(n,p)
La probabilité d’apparaître k fois le même événement de
probabilité p au cours de n épreuves de Bernoulli
indépendantes peut s’écrire:
nk n!
P(X  k)  C q k
p 
k
q nk p k
(n  k )!k!
n

Rq: On peut écrire X = X1 + . . . + Xn. Ou les


Xi sont des variables de Bernoulli.

Propriétés:

24
La loi binomiale: B(n,p)
Remarques:

Proposition:
Soient X et Y telles que X suit B(n; p) et Y suit B(m; p),
X et Y étant supposées indépendantes.
Alors, la variable Z = X+ Y suit une loi binomiale B(n+ m; p).
La loi binomiale: B(n,p)
Exemple:
Dans une famille de n enfants, quelle est la probabilité d’avoir k
garçons?

B(2,0.5)?

B(7,0.5)?

26
La loi binomiale: B(n,p)

Avec n=2: B(2,0.5)


k P(k)
0 0.25
1 0.5
2 0.25

27
La loi binomiale: B(n,p)

Symétrique!!
28
La loi binomiale: B(n,p)

Dissymétrique!!!!
La loi binomiale symétrique lorsque p=q =1/2 29
La loi binomiale: B(n,p)

Exemple:
Quelle est l’espérance mathématique et la variance du
nombre de garçons dans une famille de 7 enfants?

E (X)  np  7  0.5  3.5

V ( X )    7  0.5  0.5  1.75


2

30
Loi de poisson
Définition:
On dit que la variable aléatoire X suit une loi de Poisson de
paramètre 𝛌 (𝛌 >0) si et seulement si l’univers image de X
est N et

On note

Valeurs caractéristiques:
𝐸(𝑋)= 𝜆
 𝑉(𝑋)=𝜆
𝜎(𝑋)=√𝜆
Remarque: on a

P( X  k  1) e   k 1 (k)! 
  k 
P( X  k ) e  (k  1)! k  1

ce qui signifie que P( X  k  1)  P( X  k )
k 1

Aussi pour le calcul de P( X  k )

Il suffit d’utiliser la relation p(A)+p(Ā) = 1


Avec A = {X > k} et Ā= {X ≤ k}
Exemple:
Dans une entreprise. on admet que le nombre de pièces
défectueuses produites par minute est une variable aléatoire X
avec X suit P(3).
Déterminons la probabilité de l’événement A : “le nombre de
pièces défectueuses produites en une minute est supérieur à 3”.
On a
P(A) = P(X > 3) = 1 - P(X≤ 3) = 1 – 0,6472 = 0,3528,
ceci en utilisant la table de loi de poisson

Somme de deux variables de Poisson indépendantes


Soient une v.a X suit P(𝛌1) et une v.a Y suit P(𝛌2), X et Y étant
indépendantes. La variable Z= X + Y suit alors une loi de Poisson
de paramètre
𝛌=𝛌1+ 𝛌2
On écrit Z = X + Y suit P(𝛌1+ 𝛌2)
Approximation d’une loi binomiale par une loi de poisson

— Soit X une variable binomiale B(n, p). Si p tend vers zéro


lorsque n tend vers +infinie de telle sorte que np ait une limite finie
, la loi binomiale B(n, p) tend vers une loi de Poisson P(𝛌 ).

— Dans la pratique on approxime la loi binomiale B(n, p) par une


loi de Poisson P(𝛌) avec 𝛌 = np si n ≥ 30, p < 0,1 et np ≤ 10.

Par exemple : X suit B(30, 0,05)→ Ysuit P(1,5)


Loi hypergéométrique
Définition:
Soit une urne contenant N boules dont a boules blanches et b boules
noires avec a + b = N. On effectue n tirages d’une boule sans remise
(ou on prélève simultanément n boules) avec n < N. Le tirage sans
remise est dit exhaustif.
Soit X la variable aléatoire égale le nombre de boules blanches
obtenues.
La variable X est dite hypergéométrique. On utilise la notation
X suit H(N, a, n)
Cette loi dépend de trois paramètres et on a:

En effet, {X=k} est l’ensemble des parties à k éléments parmi a donc


 La différence majeure entre B(n, p) et H(N, a, n) est que,
lorsqu’il s’agit d’une loi hypergéométrique, les tirages ne sont
pas indépendants, et la probabilité de succès change d’un tirage à
l’autre.
Remarque: Si p est la proportion des boules blanches de l’urne,
q celle des noires, on a p =a/N et q =b/N avec p+q=1 alors :

Propriétés
Loi hypergéométrique

Remarques:
 Généralement n > 1 donc ρ < 1. La variance d’une variable
hypergéométrique (tirages sans remise) est inférieure à la
variance de la variable binomiale (tirages avec remise).
Limite d’une loi hypergéométrique

Soit X une variable hypergéométrique H(N, p, n). Lorsque N


tend vers +∞,
H(N, p, n) →B(n, p).
En effet, le nombre N de boules étant infiniment grand, la non-
remise de la boule tirée ne modifie presque pas la proportion de
boules blanches. Dans la pratique,

Si N>10n , H(N, p, n) → B(n, p).


Loi géométrique
Soit une épreuve aléatoire à deux issues, succès et échec, de
probabilités respectives p et q avec p+q = 1.
On répète cette épreuve (épreuves indépendantes) jusqu’à
obtenir le premier succès.
On considère la variable aléatoire X donnant le nombre d’épreuves
nécessaires pour obtenir le premier succès.
Alors X est une variable géométrique notée ɡ(p) , l’univers image
est N*.
L’événement {X = k} est obtenu par la réalisation de k-1
échecs puis d’un succès.
L’espérance mathématique et la variance d’une variable
géométrique X (X →ɡ(p)) données par:

1
E( X ) 
p
q
V (X )  2
p
Exercice d’application:
Une urne contient 6 boules blanches et 4 boules noires.
1. On tire dans cette urne trois fois 1 boule avec remise de cette
boule après chaque tirage. On note X le nombre de boules
blanches obtenues.
Déterminez la loi de X puis donner les valeurs de E(X) et V (X).
On note Y la variable aléatoire égale le nombre de tirages pour
avoir la première boule blanche. Donner loi de Y ainsi que E(Y) et
V(Y)

2. On tire dans cette urne trois fois une boule sans remise de cette
boule après chaque tirage. On note Z le nombre de boules
blanches obtenues.
Déterminez la loi de Z puis donner les valeurs de E(Z ) et V (Z ).
Lois de probabilités continues usuelles
Loi uniforme
On dit que la loi de probabilité d’une variable aléatoire réelle
est uniforme sur un segment [a; b], avec 0 ≤ a < b, si sa densité
de probabilité f est définie par:
 1
 b  a si x  [ a, b]
f ( x)  
0 sinon

On note alors X → U([a; b]). f admet la représentation
graphique suivante:
Espérance et variance d’une variable uniforme

Si X  U ([a, b]) Alors


ab
E( X )  a  ab  b
2 2
2 E( X ) 
2

3
(b  a ) 2
V (X ) 
12
Mini exercice: On considère la fonction f définie par :

1 si x  [0,1]
f ( x)  

0 sinon
1) Montrer que f est une densité d’une v.a X .
2) Déterminer FX (x), E(X), et V(X).
La loi normale ( Laplace-Gauss): N(m,)
On appelle variable aléatoire normale ou gaussienne toute
variable aléatoire absolument continue dont la densité de
probabilité f est définie par:

( xm )2
1 
f ( x)  e 2 2

2 2

Espérance : E(X) = m

Variance : Var(X) = 2

45
La loi normale: N(m,)

Symétrique par rapport à m


46
De N(m,) vers la normale centrée réduite N(0,1)

47
La loi normale centrée: N(0,)

On retire la moyenne (on centre autour de 0)


1ere transformation : Y= X- m 48
La loi normale centrée réduite: N(0,1)

On divise par l’écart type (Nouvel écart type = 1)


2eme transformation : Z=Y/
49
La loi normale centrée réduite: N(0,1)

Fonction de densité et fonction de répartition

50
Caractéristiques de la courbe normale
• f(Z) devient de + en + faible quand Z croit en valeur absolue.

• f(Z) toujours > 0.

• Courbe symétrique : f(Z) = f(-Z)

• Asymptote sur l’axe des x: exp(-z2/2) ->0 quand Z -> infini

• La dérivée s’annule pour Z=0. Maximum à Z=0

51
La loi normale centrée réduite: N(0,1)
L’aire totale comprise entre la courbe et l’axe des abscisses est
égale à 1.
Z2

 1
  e 2 dZ  1
2
Si on note ϕ la fonction de répartition de la loi normale centrée
réduite Z associée à X,
t 2
z 1
 ( z)   e 2
dt  P ( Z  z )

2

Propriétés:
Pour z > 0 on a la relation ϕ(z) + ϕ(-z) = 1
 Soit z dans R, on a la relation P(Z>z)= 1- P(Z≤z) = 1-ϕ(z)
Soient z1, z2 dans R avec z1 < z2 alors P( z1 ≤Z ≤z2) = ϕ(z2)- ϕ(z1)
 Pour z>0, P(-z ≤Z ≤z) = 2ϕ(z)- 1
52
Remarque:
Soit un intervalle centré en 0 de probabilité 1-α , on note
-Zα et Zα ses bornes. Alors

P(Z  Z  Z )  1    2 ( Z )  1
Par conséquent
 
 ( Z )  1  P ( Z  Z )  P ( Z   Z  ) 
2 2
La loi normale centrée réduite: N(0,1)

54
La loi normale centrée réduite: N(0,1)

55
56
La loi normale centrée réduite: N(0,1)

57
La loi normale centrée réduite: N(0,1)

58
Exercices:
Si X →N(30, 3),
P( X =28 )?, P(X≤ 33)?, P(X≤ 27)?, P(27≤ X ≤ 33)

Si X →N(5, 0.5), P(4 < X < 6.5)?

59
Propriétés: Soit X suit N(m; 𝜎 ) et k une constante. On
a les résultats suivants :

— la variable kX suit une loi normale N(km, |k|𝜎),


— la variable k + X suit une loi normale N(k + m,𝜎)

Soient deux variables X1 suit N(m1, 𝜎1) et X2 suit N(m2, 𝜎2)


indépendantes. Alors,
Résumé pour les approximations des lois usuelles
Lois dérivées de la loi normale:
La loi de Khi-deux : 𝝌2

Soit (𝑋1 ,𝑋2,…𝑋𝑛) 𝑛 variables indépendantes qui suivent


toutes la loi normale centrée et réduite N(0,1). Alors

La somme de leur carrée X  X 1  X 2  ..........  X n


2 2 2

est une variable aléatoire qui suit la loi de khi-deux à 𝑛 degré de


liberté notée  2
(n) .
 n2 1 2x
cx e x0
De fonction densité: f ( x)  

0 sinon
1
c  n
n
2 (
2
)
2

Valeurs caractéristiques E (  (2n ) )  n


(espérance et variance):
V (  (2n ) )  2n
Remarques:
 La distribution du 𝜒2 est dissymétrique avec étalement vers la
droite.
Lorsque le nombre de degré de liberté 𝑛 augmente, la
distribution tend s’approche de la loi normale ( 𝑛 >30 ).
Propriété:
 La variable 𝜒2 est tabulée en fonction du nombre n de
degrés de liberté. La table à double entrés n et α donne
pour les différentes valeurs de α, la valeur de x telle que
:
P(  2
( n)  x)  1  

𝑛≤30
Exemple : Loi de Khi-deux à 10 degrés de liberté
Pour 𝛼=0,05 on lit sur la table  =18,30 .
2

Pour 𝛼=0,90 on lit sur la table 2 =4,86 .


Pour 𝑛=10, La valeur de 𝜒2 à une probabilité de 5% d’être
supérieure à 18,30 et une probabilité de 90% d’être supérieure à
4,86 .
La loi de Student
Soient 𝑋 𝑒𝑡 𝑌 deux variables aléatoires indépendantes
suivant respectivement la loi normale centrée et réduite, et

la loi de khi-deux: 𝑋↝ 𝒩(0,1); Y↝ ( n )
2

On appelle loi de Student à 𝑛 degrés de liberté notée Tn


la loi définie par le rapport :
X
Tn 
Y
n
Elle a pour densité :
n 1
( ) 2

n 1
2 x
f ( x)  (1  ) 2 x
n 2
( ) n
2
Caractéristiques:
 Espérance: 𝐸(Tn)=0 du fait de la symétrie de la
distribution
 n
 n  2 si n  2
 Variance: V (Tn )  
 sinon

Comportement asymptotique
𝑇𝑛 ↝ 𝒩(0,1), 𝑞𝑢𝑎𝑛𝑑 𝑛>30

Remarque: La loi de Student est confondue à celle de


Cauchy lorsque 𝑛=1. La densité de la loi de Cauchy
est définie par :
1
f ( x)  xR
 (1  x 2 )
Table de loi de Student

La table de loi de Student donne la probabilité 𝛼 pour que 𝑇𝑛


égale ou dépasse, en valeur absolue une valeur donnée 𝑡𝛼.

𝑷(−𝒕𝜶≤𝑻𝒏≤𝒕𝜶)=𝟏−𝜶
Si les valeurs 𝑛 𝑒𝑡 𝛼 sont données, on lit alors 𝑡𝛼 sur la table.
Exemple: la loi de Student à 15 degrés de liberté pour 𝛼=5%
𝑒𝑡 𝛼=90%
Pour 𝑛=15 au seuil 𝛼=5%, on lit 𝑡𝛼 =2,13 et 𝑡𝛼 = 0,128
pour 𝛼=90%
Loi de Fischer–Snedecor
Définition:
Soient 𝑋 𝑒𝑡 𝑌 deux variables indépendantes suivant
les lois de khi-deux respectivement à 𝑛 degrés de liberté [  n ]
2

𝑒𝑡 𝑚 degrés de liberté [  m ]. Alors les rapports


2

X
n
Y
m
suit une loi de Fischer–Snedecor à n et m degré de liberté,
notée 𝐹(𝑛,𝑚).
Sa fonction de densité est :
nm  n
1
 (n  m)
n m ( ) Cn ,m .x 2 (m  nx) 2 si x  0
Cn ,m  n2m 2 2 f ( x)  
n m
 ( ) ( ) 0 sinon
2 2
L’espérance de la variable de Fisher-Snédecor est :

m
E(F )  si m  2
m2
La variance de la variable de Fisher-Snédecor est :

2m (n  m  2)
2
V( F )  si m  4
n(m  2)2 (m  4)

Soit X suit F(n, m). La table fournit, pour α = 0; 025, pour n


et m donnés, les valeurs Fn ,m , 1 telles que
P(X < Fn ,m , 1 )= 1 -α .

Cette table sert à la comparaison des variances de deux


populations à partir de deux échantillons.
[Link] Rappel de la statistique descriptive

Introduction et définition
•La statistique descriptive: Ensemble de méthodes
scientifiques dont le but est de collecter, classer, décrire,
analyser, et interpréter les données relatives à des
phénomènes réels de taille importante afin de prendre
des décisions d’une façon rationnelle.

•Ces méthodes comportent :


–Les tableaux : distributions de fréquences.
–Les diagrammes : graphiques.
–Les paramètres statistiques :
•Réduction des données à quelques valeurs numériques
caractéristiques.
Statistique descriptive et inductive
Statistique descriptive: Le statisticien
synthétise les données
 Présenter des données statistiques (tables, graphes, ....)
 Calculer et interpréter les différents paramètres statistiques
Statistique inductive:
Le statisticien généralise les résultat de l'échantillon
à toute la population
Une grande partie de la population reste inconnu.
Toute estimation statistique est donc
accompagnée d'une incertitude, quantifiée grâce à
la théorie des probabilités
Induction - Déduction
Déduction Induction

Général Général
(principes)

Particulier Particulier
(applications)
Vocabulaire
Population = ensemble sur lequel porte l'étude
statistique.
Échantillon = Sous-ensemble de la population
dans lequel seront collectées les éléments de
l'étude.
individu (unité statistique): tout élément de la
population (sur lequel porte l’étude statistique.

Variable (caractère) = ce qui est mesuré ou


observé sur les individus. On observe l’individu
selon plusieurs critères. Ce critère est appelé
caractère.
Types de variables :
Qualitatives (non mesurables)
Ordinales
Nominales.
Quantitatives ( mesurables)
Discontinues: discrètes
Continues.

V.S Nominale V.S Ordinale


Données brutes: Nombre d’enfants pour les familles d’une
ville:
1,2,0,1, 2,0, 1, 1, 2, 1, 2,0,1, 2, 3, 1, 2,1,0,1, 2, 3,0, 1, 1, 4, 2,1,0,
2, 1, 3, 1,4,2,0, 2,1 ,3,0, 1,2, 1,0, 2, 1, 2, 0,1,3, 2, 1,4.
Il y a n valeurs observées numérotées de 1 à n=53.

Mais il y a p=5 valeurs différentes observées, on


veut les indexer de 1 à p, puis les représenter ?
Représentation des données: tableaux et graphiques
 Distributions non groupées xi ni fi
 Qualitatives
 Quantitatives discrètes x1 n1 f1
Chaque ligne correspond à une x2 n2 f2
valeur observée différente. Il y a p
valeurs différentes observées. … … …
ni correspond au nombre xp np fp
d’observations (effectif) de
la valeur xi
S1 p n 1
fi correspond à la fréquence
d’observations de la valeur xi
ni
fi 
n
Distributions non groupées: effectifs
et fréquences cumulées
Ni est l’effectif cumulé de xi
xi ni fi Ni Fi c’est dire le nombre
d’observations ayant des
x1 n 1 f1 N1 F 1 valeurs inférieures ou égales à
i
xi : N  n i j
j1

x2 n 2 f2 N2 F 2
Fi est la fréquence cumulée de
… … … …. … xi c’est à dire la fréquence des
observations ayant des valeurs
xp n p f p Np F p inférieures ou égales à xi :

S1p
i
Fi   f j
n 1 j1
Exemple : Données qualitatives (nominales)

Répartition des groupes sanguins


Groupes
sanguins ni fi
A 35 35%
B 9 9% 16 A
O 40 40%
35 B
AB 16 16% O
100 100% 40 9 AB

Diagramme sectoriel
Exemple : qualitatives ordinales

130 personnes ont été interrogées sur leur


satisfaction d’un produit
Les Modalités Effectifs = Nombre de personnes
Pas Satisfait (A) 10
modalités Un peu satisfait (B) 25
sont Satisfait (C) 40
présentées Assez satisfait 32
Très satisfait (E) 23
dans l’ordre
45
40
40

35 32

30
25
25 23

20

15

10
10 Diagramme à bâtons
5

0
A B C D E
Exemple : Données quantitatives discrètes
nombre nombre de 25

d'enfants familles (ni)


(xi) 20

0 10
1 20 15

2 15
3 5 10

4 3
5
>4 0
0
0 1 2 3 4 >4

Polygone des fréquences


Diagramme à bâtons
Diagramme en bâtons: Pour chaque modalité xi portée
sur l’axe des abscisses on trace parallèlement à l'axe des
ordonnées un segment (bâtons) de longueur
proportionnelle à ni (resp. à fi).
Polygone des fréquences
Ligne sous forme des segments joignant les extrémités
des bâtons.
Variables quantitatives discrètes: courbe cumulative

400
x xi ni Ni N(x) N’i N ’(x)
 360
350

0 300
0 0 103 103 360
103 257 250
1 1 115 218 257
218 142 200
2 2 95 313 142
313 47 150
35 348 47
3 3 348 12 100
10 358 12
4 4 358 2 50
2 360 2 0
5 5 360 0
 -2 0-1 1 2 3 4 5 6

On appelle courbe cumulative croissante le tracé de la fonction N (ou F pour les fréquences)
qui à tout réel x associe N( x ) = nombre d'observations inférieur ou égal à x.

On appelle courbe cumulative décroissante le tracé de la fonction N' (ou F’ pour les fréquences)
qui a tout réel x associe N'( x ) = nombre d'observations supérieur strictement à x.

Les courbes cumulatives F(x) et F’(x) sont symétriques par rapport à 0,5 : F(x) + F’(x) = 1
Données groupées: variables quantitatives continues
Exemple: augmentation du salaire
Classes Effectifs des employés d’une entreprise.
[e1 – e2[ n1
Augmentation Effectifs
[e2 – e3[ n2 [0 – 3[ 830
…. …. [3 – 5[ 615
[ek – ek+1[ nk [5 – 10[ 510
[10 – 20[ 92
[20 – 30[ 63
[30 – 50[ 15

Remarque 1: Il est préférable de prendre des classes d’amplitudes


égales.
En cas de classes d'amplitudes différentes:
la densité de l’effectif (ni/i ) (resp. de fréquence) ( fi/i ) permettre de comparer
les effectifs ou les fréquences d'une classe à l'autre.

la densité de fréquence est nécessaire pour tracer l’histogramme et dans le calcul


du mode.
Nombre de classes pour une distribution continue

La formule de Sturge: k  1  3,3log10 (n)


4
La formule de Yule: k  2,5. n

L’étendue de la série est: E  xmax  xmin

L’étendue de chaque classe ( le pas) est:

E
ai 
k
VARIABLES CONTINUES
REPRESENTATION GRAPHIQUE DES EFFECTIFS ET FREQUENCES
Classes Effectifs
[0 – 3[ 830
[3 – 5[ 615
[5 – 10[ 510 900 effectif
[10 – 20 [ 92 800

[20 – 30[ 63 700

[30 – 50[ 15 600


500
400
300
Dans un histogramme, les 200
100
surfaces des rectangles sont 0

0
3

30

50
proportionnelles aux effectifs.
350
Effectif rectifié
Classes Effectifs Amplitude Effectifs
300
ni ai rectifiés
ni /ai 250
[0 – 3[ 830 3 276,7
200
HISTOGRAMME
[3 – 5[ 615 2 307,5
[5 – 10[ 510 5 102,0 150

[10 – 20 [ 92 10 9,2 100


[20 – 30[ 63 10 6,3
50
[30 – 50[ 15 20 0,75
0
0
3

30

50
Variables quantitatives continues: courbes cumulatives

FX(x) := la proportion des individus dont la valeur


du caractère est ≤ x.

F (ai 1 )  F (ai ) f i 1
tan( )  a  
ai 1  ai h
F (ai 1 )

F (ai )

ai ai 1

La courbe cumulative pour une v.s


continue
Exemple :
Quelle est la proportion p d’employés dont l’augmentation est
inférieure à 17 ?
[ei – ei+1[ Fi F(x)
x
0 0
1
[0-3[ 0,391 0,95 0,9
3 0,391 0,8
[3-5[ 0,680 0,7

5 0,680 0,6
0,5
[ 5 - 10 [ 0,920 0,4
10 0,920 0,3

17 [10 - 20 [ 0,963 p 0,2


0,1
20 0,963 0

[20 - 30 [ 0,993 -10 0 10


17
20 30 40 50 60

30 0,993
[30 - 50 [ 1
50 1
17  10
17 - 10  p - 0,92 D'où p  0,92   0,963  0,920   95%
20  10
20 - 10 0,963-0,920
RESUME
VARIABLE QUALITATIVE VARIABLE QUANTITATIVE

Nominale Ordinale Discrète Continue


Effectifs ou Fréquences Effectifs ou Fréquences
Diagramme en barres Diagramme en barres Diagramme en bâtons Histogramme

Modalités dans l ’ordre

Diagramme circulaire Courbes cumulatives des fréquences


Variables quantitatives:
paramètres statistiques

Dans l'ordre :

(1) Position
(2) Dispersion
(3) Symétrie
(4) Aplatissement
PARAMETRES DE TENDANCE CENTRALE
LE MODE
Une distribution est unimodale si elle présente un maximum
marqué, et pas d'autres maxima relatifs.

100
140 90
80
120
70
100
60
80 50
60 40
30
40
20
20
10
0 0
0 1 2 3 4 5 6
900 1400 1900 2400 2900 3500 ou plus...

Mode Mode Classe modale

Le mode correspond à la modalité d’effectif (fréquence)


maximal, c.à.d. la valeur la plus fréquente
PARAMETRES DE TENDANCE CENTRALE
LE MODE
Si la distribution présente 2 ou plus maxima relatifs, on dit qu'elle
est bimodale ou plurimodale.
90

80
140 70
120 60

100 50

80 40

30
60
20
40
10
20
0
0 900 1400 1900 2400 2900 3500 4000 4500 ou
0 1 2 3 4 5 6 plus...

Mode 1 Mode 2 Mode 1 Mode 2


Mode d'une distribution continue

i
Mo  ei  ai
s  i
i
∆s
∆i

ei
PARAMETRES DE TENDANCE CENTRALE
LA MEDIANE d’une distribution discrète (brutes)
Les valeurs observées doivent être rangées par ordre croissant.

La médiane M est la valeur du milieu de la série d’observations,


c.à.d. C’est la valeur du caractère qui partage la série en deux
parties d’effectifs égaux.
Nombre impair d’observations Nombre pair d’observations
3 4 4 5 6 8 8 9 10 3 4 4 5 6 8 8 9
4
4 4 valeurs 4
valeurs M valeurs valeurs
Intervalle médian
M = milieu = 5,5
PARAMETRES DE TENDANCE CENTRALE
LA MEDIANE à partir d’une distribution discrète

F(x) F(x)
xi ni Fi xi ni Fi
0 103 0,286 0 0
0 103 0,286
1 115 0,606
0,286 0,286
M 2 95 0,869
0,606
0,5 Intervalle médian 1 77 0,500
0,500 0,5
M = milieu = 1,5 2 95 0,764
3 35 0,967 0,869 0,764
3 35 0,861
0,967 0,861
4 10 0,994 4 10 0,889
0,994 0,889
5 2 1 5 40 1
1 1

1 1

0,5 0,5

0 0
-2 -1 0 1 2 3 4 5 6 -2 -1 0 1 2 3 4 5 6
Intervalle médian
M M = milieu = 1,5
PARAMETRES DE TENDANCE CENTRALE
LA MEDIANE à partir d’une distribution continue
(0,5  Fi )
Me  ei  ai .
f i 1
[ei – ei+1[ Fi F(x)
x [ei , ei+1 [ est la classe médiane
0 0
[0-3[ 0,391
3 0,391 1

M [ 3 - 5 [ 0,680 0,5 0,9


0,8
5 0,680 0,7
[ 5 - 10 [ 0,920 0,50,6
0,5
10 0,920 0,4
[10 - 20 [ 0,963 0,3

20 0,963 0,2

[20 - 30 [ 0,993 0,1


3,22
0
30 0,993 -10 0M 10 20 30 40 50 60
[30 - 50 [ 1
50 1
M-3 0,5-0,391 0,5  0,391
D'où M  3   5  3  3,22
0,680  0,391
5-3 0,680-0,391
PARAMETRES DE TENDANCE CENTRALE
LA MOYENNE ARITHMETIQUE
La moyenne arithmétique est notée x
1 n
Série brute x1, x2, … , xn x =  xi
n i=1

Valeurs de Effectifs Fréquences 1 k


Série groupée la variable x =  nixi
x1 n1 f1= n1/n n i=1
… … …
k
nixi k
xi ni fi= ni/n
 = fi x i
… … … i=1 n i=1
xk nk fk= nk/n
PARAMETRES DE TENDANCE CENTRALE
LA MOYENNE ARITHMETIQUE

Classes Effectifs Fréquences Centres de classe


Série classée [e1 – e2[ n1 f1 x1= ( e1 + e2)/2
[e2 – e3[ n2 f2 x2= ( e2 + e3)/2
…. …. …. ….
[ek – ek+1[ nk fk xk= ( ek + ek+1)/2

1 k k
x =  n i x i   fi x i
n i=1 i=1
PARAMETRES DE POSITION
LES FRACTILES OU QUANTILES
On appelle fractiles ou quantiles d'ordre k les (k-1) valeurs qui
divisent les observations en k parties d'effectifs égaux.

1 médiane M qui divise les observations en 2 parties égales


3 quartiles Q1, Q2, Q3 qui divisent les observations
en 4 parties égales
9 déciles D1, D2, …, D9 qui divisent les observations en 10
parties égales
99 centiles C1, C2, …, C99 qui divisent les observations en
100 parties égales
PARAMETRES DE POSITION
LES FRACTILES OU QUANTILES
Quartiles, déciles, centiles s’obtiennent de la même façon que la médiane.
Variable discrète Variable continue

0,9 0,9
1 0,8
0,75 0,7
0,75 0,6
0,5 0,5
0,5 0,4
0,3
0,2
0,2 0,1
0
0
-2 -1 0 1 2 3 4 5 6 -10 0 MQ3D
10 20 30 40 50 60
9
D2 M Q3
PARAMETRES DE DISPERSION

Etendue : E = xmax - xmin

Intervalle interquartile : IQ = Q3 - Q1

Variance : Série brute Série groupée ou classée


: n :1 k k
1
V =   xi - x  V =  n i  x i - x    fi  x i - x 
2 2 2

n i=1 n i=1 i=1

1 k
V =  n i x i2  x 2 = Moyenne des carrés - Carré de la moyenne
n i=1

Ecart- σ= V
type :
PROPRIETES IMPORTANTES DE LA MOYENNE ET DE LA VARIANCE

Comment se comportent la moyenne et la variance lorsqu’on fait


un changement de variable aux observations?

xi yi = a xi + b

y=ax+b V(y) = a 2 V(x) σ(y) = a σ(x)


Comment se comportent la moyenne et la variance
de la somme de deux séries d’observations?
xi zi = xi + yi
yi
z= x+ y V(z)  V(x)+ V(y)
Paramètres de la forme

Moments d'ordres supérieurs

Moment d'ordre 3
n

 i
( X  X ) 3

M 3  i 1
n
Moment d'ordre 4
n

 i
( X  X ) 4

M 4  i 1
n
Coefficient d'asymétrie

M3
3 
 3

α3<0 0 α3>0 α3

Asymétrique à gauche Symétrique Asymétrique à droite


Courbe symétrique

α3=0

Moyenne=Médiane=Mode
Courbe asymétrique à droite

La courbe est allongée vers la droite

α3>0

Mo Me x
Moyenne>Médiane>Mode
Courbe asymétrique à gauche

La courbe est allongée vers la gauche

α3<0

x Me Mo

Moyenne<Médiane<Mode
Aplatissement
Coefficient d'aplatissement
M4
4 
 4

Compare l'aplatissement
de la courbe à une loi normale
α4=3
SÉRIES STATISTIQUES À 2 VARIABLES

ETUDE DE LA LIAISON ENTRE 2 VARIABLES QUANTITATIVES

Nom Taille xi (cm) Poids yi (kg) 95

Ahmed 175 73 90
Poids
Ali 168 56 85

….. ….. ….. 80

Mariam 165 58 75

70

65

60

55

50
Taille
150 160 170 180 190 200

La connaissance de la taille x apporte une certaine information


sur le poids y ?
Il existe une relation de dépendance entre x et y?
ETUDE DE LA LIAISON ENTRE 2 VARIABLES QUANTITATIVES

La connaissance de x n’apporte La connaissance de x permet de


aucune information sur y connaître exactement la valeur de y

x et y sont indépendantes Il existe une relation fonctionnelle


entre x et y
Représentation des données:
Données ponctuelles
Observation N° Caractère X caractère Y

1 x1 y1
2 x2 y2
.
.
.

n xn yn

Un couple peut être répéter plusieurs fois


Représentation des données:
Table contingence
On rassemble les données dans un tableau de contingence (
c’est un tableau à double entrées).
ETUDE DE LA LIAISON LINEAIRE ENTRE 2 VARIABLES
QUANTITATIVES

La covariance

Dans l’échantillon: (Cas des valeurs ponctuelles)

1 n
cov(X, Y)   xi yi  xy
n i 1
Cas de valeurs groupées ( tableau de contingence)

1
cov(X, Y)   n i , j ( xi  x )( y j  y )
n i, j
Propriétés :

Cov  x,y   0  x et y varient dans le même sens

Cov  x,y   0  x et y varient en sens contraire


Cov  x,y   Cov  y,x 

Cov  x,x   V(x)

Cov  a x + b y , z   a Cov  x,z   b Cov  y,z 


AJUSTEMENT LINEAIRE
95

90
y = Poids
85

80

75

70

65

60

55

50
x = Taille
150 160 170 180 190 200

Est-il possible de trouver une fonction linéaire f telle que y = f (x) ?


Si une telle fonction existe, dans ce cas on peut définir un
modèle linéaire: Y=aX+b
x est la variable explicative.
y est la variable expliquée.
MESURE DE LA LIAISON LINÉAIRE ENTRE les 2 VARIABLES

cov(x,y)
Corrélation linéaire: ρ=
σ(x) σ(y)

Propriétés :
1  ρ  1
 ρ = 1 si a > 0
y=ax+b 
ρ = -1 si a < 0
ρ 1  Il existe une relation fonctionnelle linéaire entre x et y
ρ  0  x et y sont indépendantes
0  ρ  1  Il existe une dépendance linéaire d’autant plus forte
que |r| est grand
AJUSTEMENT LINEAIRE
95

90
y = Poids
85

80

75

70

65

60

55

50
x = Taille
150 160 170 180 190 200

On désire trouver la droite qui passe « au mieux » à l’intérieur


du nuage de points
AJUSTEMENT LINEAIRE
« au mieux »
n n
Minimiser S=  e 2
i
Minimiser S' =  e'i2
i=1 i=1

95 95

90
y = Poids 90
y = Poids
85 85

80 80
e'i
75

70
ei 75

70

65 65

60 60

55 55

50
x = Taille 50
x = Taille
150 160 170 180 190 200 150 160 170 180 190 200

Droite de régression de y en x Droite de régression de x en y


AJUSTEMENT LINEAIRE
REGRESSION LINEAIRE DE Y EN X
95

90
y = Poids
Droite de 85
f(x) = y = ax+b
régression yi 80

75

linéaire de y en x axi+b 70
ei = |yi-axi-b|
65
y = f(x) = ax + b 60

55

50
x = Taille
150 160 170 180 190 200
xi
y=ax+b définit un modèle affine
ŷi = a xi + b valeur de y prévue par le modèle
i

ri = yi - yˆ i
= résidu de la ième
observation
ei = ri = yi - a x i - b = erreur due au modèle
AJUSTEMENT LINEAIRE
REGRESSION LINEAIRE DE Y EN X
95

90
y = Poids
85

Droite de régression 80 f(x) = y = ax+b


yi 75
linéaire de y en x
y = f(x) = ax + b axi+b 70
ei = |yi-axi-b|
65

60

55

50
x = Taille
xi 150 160 170 180 190 200

La droite de régression linéaire de y en x, notée n n

   yi -ax i -b 
2 2
S= e =
i
Dy/x , minimise i=1 i=1

  x -x  y -y 
i i
Cov  x,y 
b = y - ax

 x , y
i=1
a= n
=
  x -x 
2 V(x) Dy/x passe par le point moyen
i
i=1
(6) AJUSTEMENT LINEAIRE
REGRESSION LINEAIRE DE X EN Y
95 ei’ = |xi-a’yi-b’|
90
y = Poids
Droite de 85
f(y) = x =
a’y+b’
80
régression linéaire yi 75

de x en y 70

x = f(y) = a’y + b’
65

60

55

50
x = Taille
a’yi+b’
150 160 170 180 190 200
xi
La droite de régression linéaire de x en y, notée n n
S' =  e'i =   x i -a'yi -b' 
2 2

Dx/y , minimise i=1 i=1


n

  x -x  y -y 
i i
Cov  x,y 
a' = i=1
n
= b' = x - a' y
  y -y 
2 V(y)
i=1
i
Dx/y passe par le point moyen  x , y
LIENS ENTRE CORRELATION ET DROITES DE REGRESSION

Cov  x,y 
Dy/x : y = ax + b a= b = y - ax
σ(x) σ(y)
V(x) r² = a a’ ρ=a
σ(y)
= a'
σ(x)
Cov  x,y 
Dx/y : x = a’y + b’ a' =
V(y)
b' = x - a' y
1 b'
 y= x 
a' a'

 x, y   x, y 
 x, y 

r² = a a’ r² = a a’ = 1
0 r² = a a’ < 1
=0
Indépendance linéaire Liaison fonctionnelle linéaire
Le degré de dépendance linéaire se mesure à la proximité des droites de régression
Exercice:
Soit la série à deux variables poids (X) et taille (Y) de 9 sujets, comme
le montre le tableau suivant:

Sujet Poids Taille


1 70 170
2 80 180
3 65 165
4 75 175
5 90 182
6 73 170
7 60 162
8 68 165
9 83 180
…. … …

Etudier une régression linéaire de Y en X.


Cas de deux variables qualitatives
 X: la couleur des yeux?
 Y: la couleur de cheveux? Comment faire ?
 Population: 300 individus

Tester avec un seuil de risque l’hypothèse :


H0 : « la couleur des yeux est différente de celle de cheveux »
Le contraire est H1.

En utilisant le test du Khi-2 (d’indépendance).


Le test du Khi-2 (d’indépendance)

 Il consiste à déterminer le lien entre deux variables


qualitatives: Il permet à partir de l’observation d’un
échantillon si ces deux variables sont indépendantes
ou non avec un seuil de risque donné.

 Si le résultat du problématique est peu probable


lorsque les variables sont indépendantes, on rejette
l’hypothèse H0 et on accepte H1.
Démarches du test

 Calcul des marges


 Calcul des effectifs théoriques
 Calcul des valeurs de Khi-2
 Calcul des degrés de liberté
 Consultation de la table de Khi-2
 Décision.
Exemple:
Yeux/cheveux brun chatain blond

bleus 20 30 40

marrons 60 50 40

verts 10 20 30
Calcul des marges

Yeux/cheveux brun chatain blond Total

bleus 20 30 40 90

marrons 60 50 40 150

verts 10 20 30 60

Total 90 100 110 300


Calcul des effectifs théoriques

Yeux/cheveux brun chatain blond total


bleus 90
27
90x90 30
90x100 33
90x110

marrons
Ndroite
45
/300
50
Nbas
150x9055
/300 /300
150x100 150x110 150
/300 /300 /300
verts 18Total
20
60x90 22 60x100 60x110 60
/300 /300 /300
total 90 100 110 300
Calcul des valeurs du Khi-2
(Ti j  Oij )2
d    2cal
i, j Tij
Yeux/cheveux brun chatain blond Total
bleus (27-20)
1,8
2 (30-30)
0
2 (40-33)
1,5
2
3,3
Eff .théo  Eff .obs
/27 /30 /33 2
marrons (45-60)2
5 (50-50)2
0 (55-40)2
4,1 9,1
/45 /50 /55
Eff .théo
verts (18-10)2
3,6 (20-20)
0 (22-30)
2
2,9
2
6,5
/18 /20 /22

Total 10,4 0 8,5 18,9


Calcul des degrés de liberté

Yeux/cheveux brun chatain blond

bleus

marrons 3-1=2

verts

[Link] = [Link] - 1 2x2=4


3-1=2

ddl = [Link] x [Link]


Consultation de la table

 Probabilité d’obtenir une valeur donnée du


Khi-2 avec un seuil de risque fixé en fonction
du nombre de ddl.
 On note cette valeur par s2
ddl 10% 5% 1% 0,1%
3 … … … …
4 7,78 9,49 13,3 18,5
5 … … … …
Interprétation
Yeux/cheveux brun chatain blond total

bleus 20|27 30|30 40|33


1,8 0 1,5 3,3
marrons 60|45 50|50 40|55
9,1
Si je fais l’hypothèse 5 0 4,1
verts que la couleur10|18
des yeux 20|20 30|22
6,5
3,6
et celle des cheveux 0 Les gens
2,9 aux yeux marron
Sont dépendantes,
Les gens aux yeux marron
totalj’ai moins d’1 chance
10,4sur 10000 8,5 ont18,9rarement
ont souvent
de se tromper
les cheveux blonds
les cheveux bruns
(40 fois au lieu de 55)
(60 fois au lieu de 45)
Décision
 On a
 2
cal  2
s

Donc on rejette l’hypothèse nulle H0 . Par conséquence Les


deux distributions sont dépendantes.
[Link]. L’ECHANTILLONNAGE ET L ’ESTIMATION

En statistique, un échantillon est un ensemble d'individus


représentatifs d'une population.

La théorie de l’échantillonnage: c’est l’étude des


relations ou rapports existants entre la population et les
échantillons prélevées de cette population.
À partir d’informations relatives à la loi d’une variable X
pour une population donnée, on en déduit le comportement
d’échantillons aléatoires relatifs à cette variable.
Echantillonnage : ensemble des opérations qui permettent de
sélectionner de façon organisée les éléments de l’échantillon
(représentatif) de la population mère.
METHODOLOGIE

Pour étudier une population statistique on a recours à deux


méthodes :
la méthode exhaustive encore appelé recensement consiste à
examiner toute la population.
La seconde méthode est le sondage consiste à examiner, ou
observer une partie de la population (échantillon).

But : Les résultats obtenus sur l’échantillon utilisés pour


estimer ou tester des hypothèses des caractéristiques de la
population entière.
METHODOLOGIE

Etudier un caractère
d’une population

Méthode non Méthode


exhaustive exhaustive

Méthode Recenser
Méthode tous les
des par choix
raisonnés individus
sondages de la
aléatoires « méthode population
des quotas
»
l’enquête partielle (sondage) offre une série d’avantages
:
Méthode de Méthode non
recensement exhaustive

Cout
Cout élève raisonnable
réduit

Durée longue Durée courte

Plus Erreurs
d’Erreurs réduites
METHODES D’ECHANTILLONNAGE
Méthodes probabilistes (aléatoires)
1. Sondage Aléatoire Simple:
Un échantillonnage est aléatoire si tous les individus de la population
ont la même chance de faire partie de l’échantillon; il est simple si les
individus sont tirés avec indépendance. Si la population est finie,
cette définition correspond au tirage aléatoire avec remise, qui permet
de traiter les populations finies comme des populations infinies.

2. Sondage aléatoire stratifié:


Une population non homogène de taille N est divisé en p groupes
d’éléments appelés strates, de façon à ce que 𝑁=𝑁1+𝑁2+⋯+𝑁𝑝
chaque élément de la population appartienne à une seule strate(𝑁𝑖).
Puis un échantillon aléatoire simple d’effectif 𝑛𝑖 est sélectionné
dans chaque strate d’une façon proportionnelle entre les strates.
3. Sondage systématique

Si la populations est importante, il est coûteux (en temps) de


sélectionner un échantillon aléatoire simple. Le sondage
systématique est une méthode probabiliste dans laquelle on
choisit aléatoirement un des 𝑘 premiers éléments, puis tous les 𝑘
ième éléments qui suivent. Cette méthode constitue une
alternative de sondage aléatoire simple.

Méthodes non-probabilistes ( empiriques )


Le statisticien utilisent ses connaissances et son expérience
personnelle pour désigner les unités statistiques qui feront
partie de l’échantillon. On peut citer :

Sondage par la méthode des quotas, méthode par c h o i x


raisonnés, méthode de boule de neige.
Définition: Les n variables aléatoires X1, X2, …,Xn constituent
un échantillon aléatoire simple de la variable X si et seulement si
sont indépendantes et
E(X1) = E(X2) = ……= E(Xn) = E(X) = m
𝜎(X1) = 𝜎(X2) = …….= 𝜎(Xn) = 𝜎(X) = 𝜎

Méthodes de sondage aléatoire

Tirage sans remise Tirage avec remise


(tirage exhaustif) (non exhaustifs)
CAS de E.A.S
Loi hypergéométrique Loi binomiale

Moyennant certaines conditions d’effectifs

Loi normale
Distribution d’échantillonnage:
Population Echantillon

Taille: N Taille: n

Moyenne: m Moyenne: X

Variance : 2 Variance :
S2
Écart-type:  Écart-type: s

Proportion: p fréquence: F
Distribution d’échantillonnage:

P(N,m,  )
E1, E2 ,......, Ek,

E1 ( X1 , S1 ) Sont les échantillons


E2 ( X 2 , S2 )
aléatoires de taillle n

Ek ( X k , Sk )

Chaque échantillon une distribution statistique, pour laquelle on peut


calculer une caractéristique, telle que la moyenne, l’écart-type, une
proportion…
cette caractéristique va varier d’un échantillon à l’autre.
Distribution d’échantillonnage de la moyenne:

Si on considère la variable aléatoire X qui à chaque échantillon


fait correspondre sa moyenne(varie d’un échantillon à l’autre).

X (variable d’échantillonnage de la moyenne).


Donc est une statistique.

E ( X )? V ( X )?......
NB. On parle d’une distribution d’échantillonnage de la
moyenne lorsqu’on est dans le cas de la moyenne ; d’une
distribution d’échantillonnage de la variance dans le cas de la
variance. Et même chose pour d’autres caractéristiques.
E (S2 ) ? V (S2 ) ?...
Théorème CENTRAL LIMITE
(T.C.L.)

•Théorème : (T.C.L. 1ère formulation)


Soit X1, X2, …, Xn un échantillon aléatoire simple
de taille n, relatif à la V.A. mère X de moyenne m
et de variance 2. Alors,

X m X m L
 n  N (0,1) (Converge en loi)
 
n
Cas d’E.A.S (tirages non exhaustifs)

Théorème (TCL 2ème forme)


Si X est une v.a mère. de moyenne m et d’écart-type ,:
alors la v. d’échantillonnage de la moyenne X obtenue sur des échantillons de

taille n ( n≥ 30 ) suit N m, n 

E( X )=E(X)=m
V (X ) 2
V( X )= n
= n
De même S 2 la variable aléatoire qui à chaque
échantillon de taille n, associe sa variance.
Alors on montre que:
n 1 2 n
E (S ) 
2
 donc E( S2 )   2
n n 1
2(n  1) 4
V(S ) 
2
2

n

On définit la variable fréquence (d’échantillonnage):

X 1  X 2  ......  X n
F 
n

On montre que :
np npq pq
E(F )   p Et que V( F )  2

n n n
Cas des tirages exhaustifs
Dans le cas des tirages exhaustifs ( sans remise), si l’on désigne
par N la taille de la population et par n la taille de l’échantillon,
on obtient les résultats suivants, en faisant intervenir le
coefficient d’exhaustivité :

N n 2
E( X )  m et V (X )  .
N 1 n

N n 1 2 n 2
S )
N
. 2
E(S ) 
2
.  E(
N 1 n n 1 N 1

N  n pq
E(F)  p et V (F )  .
N 1 n
ESTIMATION

Population de
taille N
Estimation:
Consiste à chercher les paramètres P(N,m,𝜎, p)
d’une population à partir des ceux
obtenus sur un échantillon tiré au
hasard de la même population mère.

Echantillon
de taille n
ESTIMATION PONCTUELLE

Notion de biais:
L’estimation consiste à évaluer un
paramètre inconnu  à l’aide de la
valeur de ce paramètre calculée à
partir d’un échantillon.
La valeur estimée du paramètre  est
souvent notée  .
 =valeur réelle du paramètre.
 =valeur estimée de  .
Soit ε=   = l’erreur commise
puisque θ dépend de l’échantillon choisi, alors ε est
une variable aléatoire.

Définition:
θ est dit sans biais si E(   )=0

Remarque:
Le biais d’un estimateur est en général E(   ).
Estimation ponctuelle de la moyenne et de la variance:

X est un estimateur sans biais de m. Puisque:

E( X )  m
n 2
S 
2
S est un estimateur sans biais de  2
n 1
e

n
E( S2 )   2
n 1

2 2
S est un estimateur biaisé de
n  1  2
E ( S 2   2 )  E( S 2 )   2   2  2  
n n
Estimation ponctuelle d’une proportion
Puisque E(F )  p
Donc Fest estimateur sans biais de la proportion p .

Estimateurs convergents
Définition: un estimateur Convergent du paramètre 
toute statistique T=T(X1, X2, …, Xn) telle que:

T  P (Converge en proba)
•Remarque : La loi des grands nombres implique que X
est un estimateur convergent de m. De même que F est un
E.C. de p
•Définition: On appelle estimateur asymptotiquement
sans biais, du paramètre , toute statistique
T=T(X1, X2, …, Xn) telle que:

lim E(T)=

Exemple:

S2 est un estimateur asymptotiquement sans biais de 2 :


n 1 2
lim n E ( S )  lim n (
2
 ) 2
n
Estimation par intervalle de confiance

⚫Problème : L’estimation ponctuelle d’un paramètre dépend de


l’échantillon et de sa taille n. Donc deux échantillons différents peuvent
donner deux estimations très différentes.
Donc prendre une décision à partir d`un échantillon n`est pas
toujours fiable.
Dans la suite, on cherche à déterminer un intervalle pouvant
contenir la vraie valeur à estimer avec une certaine probabilité
fixé d’avance.
mx
Précision
Fiabilité Probabilité

Quelle est la probabilité que la moyenne inconnue m se trouve pas trop loin de x observée ?

Il y a 1- = 95 chances sur 100 que l’intervalle  x-a ; x+a  contienne m


Fiabilité et précision
l’intervalle  x-u n ; x+ u n  a 1- chances de contenir m

précision fiabilité

1- et u sont liés par la relation P[-u < n  X-m   < u] = 1-

P[-u < N(0,1) < u] = 1-

Fiablité augmente

u augmente
1-
Précision diminue
-u 0 u
Intervalle de confiance d’une moyenne:
X désigne la variable aléatoire qui à
chaque échantillon de taille n associe sa
moyenne.
LOI( X )  N(m,

)
; n  30
n
X m
LOI( Z  )  N(0,1)

n


Dans le des tirages exhaustifs n
 N n
est remplacé par N 1
n
Cas ou  est connu:
On fixe un seuil de risque  et donc
un seuil de confiance 1 .
Soit t tel que P( Z  t )  1  

Et donc:
 
P( X  t  m  X  t )  1
n n

or P( Z  t )  2 (t )  1   (t )  1 
2

d’où : 
t  ϕ 1 (1 )
2
   
 X  t , X  t 
 n n 

est l’intervalle de confiance de m au


seuil de risque 
t est lu sur la table de la loi normale

Applications:    
  5%   X  1, 96
 n
, X  1, 96 
n

   
  1%   X  2,58 , X  2,58 
 n n
Avec une population mère de plus de 500
personnes, nous avons calculé à partir d’un
échantillon la moyenne d’âge qui est de 25
ans:

Exemple1: Exemple 2:

Avec n  30, me  25, Avec n  100 , me  25,


  2.   2.
m24, 28 ; 25, 72 m 24,61 ; 25,39
avec 95% de confiance avec 95% de confiance
Exemple 3:
Avec n  100 , me  25,  4.
m 24, 22 ; 25, 78
avec 95% de confiance

Remarque:
L’intervalle se resserre au fur et à mesure
lorsque la taille de l’échantillon augmente.
Cas ou  est inconnu:
On remplaçant  par son estimateur S e
X m
la v.a Se
suit une loi de Student Tn1.
n

On estime que Tn  N (0,1) dés que n  30

est un intervalle de confiance de la moyenne m


au seuil de confiance 1 .
Cet intervalle est légèrement plus grand que celui lorsque
 est connu. Et ceci du fait qu’on a moins d’informations
que dans le premier cas.
Tableau récapitulatifdes lois de X

Écart-type
LOI DE LA TAILLE DE
POPULATION L’ECHANTILLON connu inconnu

NORMALE STUDENT
NORMALE n 30
NORMALE NORMALE
n  30
NORMALE NORMALE
N O N NORMALE n  30
INCONNU INCONNU
n 30
Exemple 1
⚫ Un fabricant reçoit de son fournisseur une
livraison de pièces dont il veut contrôler la
longueur. La dimension X d’une pièce suit une
loi normale de moyenne m et d’écart-type 
inconnus. Il extrait un échantillon de six pièces
qui donnent les dimensions suivantes (en cm):
50, 40, 45, 43, 47, 45

 On veut déterminer, avec un risque de 5%


l’intervalle de confiance pour la longueur
moyenne de toute la population.
⚫ La moyenne de l’échantillon est :  45
⚫ La variance de la population est estimée par:

⚫ Or, puisque X suit une loi normale d’écart-type inconnu,

suit la loi de Student à 5 ddl

⚫L’intervalle de confiance de m est :

donc,avec 95% de chance m41.43, 48.57


Exemple 2
⚫ On a mesuré la longueur de chacune des
abeilles d’un échantillon de taille 100,
pris aléatoirement parmi la population
d’une ruche donnée. On a les résultats
suivants:
Longueur [3,5;4,5[ [4,5;5,5[ [5,5;6,5[ [6,5;7,5[ [7,5;8,5[ [8,5;9,5[ [9,5;10,5[
en mm
effectif 1 2 23 46 24 3 1

(les résultats sont donnés au centième le plus proche)

 La moyenne et l’écart-type de cet échantillon sont:


 On sait qu’un bon estimateur
 de la m oyenne de la population est
n
 de l 'écart  type de la population se  s  0, 93
n 1
 Un intervalle de confiance de la moyenne
des longueurs (en mm) des abeilles de
cette ruche au risque 5% est :

 Déterminons la taille minimale n de


l’échantillon pour que l’amplitude de
l’intervalle de confiance, au seuil de
confiance 95%,soit inférieur à 0,1 mm.
l’amplitude de l’intervalle de confiance au seuil de
confiance 95% est :

n(39,20,93)2 , d'ou n1329,039


donc: n1330
Intervalle de confiance d’une proportion:
Le théorème central limite permet
d’énoncer le résultat:

Pour n  30 ,la distribution des fréquences F


suit approximativement la loi normale:
pq
N( p, )
n
Intervalle de confiance d’une proportion:

pq
loi( F )  N ( p , ) , pour n  30
n
 l o i ( F )  N ( 0 ,1) o u F  F  p
pq
n

On se fixe un seuil de risque  et on


détermine à l’aide de la table de
la loi normale centrée réduite
l’unique réel t tel que:
P( F  t )  1  

Ce qui implique:

On remarque que p (inconnu) intervient au niveau


des bornes de son propre encadrement. L’idée
donc est de remplacer p par son estimateur sans
biais F ,on obtient:
 f(1 f ) f (1 f ) 
f t , f t 
 n n 
est un intervalle de confiance de p au
seuil de confiance 1

f est une réalisation de F.


Remarque: On peut élargir cet intervalle, en
remarquant que f(1-f) est maximal pour
f=1/2 et vaut 1/4. On aura:

Est un intervalle de confiance de p au


seuil de confiance 1  
(cet élargissement n’est acceptable que si 0,3f 0,7 )
Application
Si   5%, on aura t 1,96 qu 'on majore par 2
Et donc si 0,3  f  0, 7

 1 1 
f  , f  n
 n 
est un intervalle de confiance de p au
seuil de confiance 95%
Exemple
⚫ L’entreprise XX, spécialisée dans la
commercialisation de pommes de qualité,
adresse à l’un de ses clients un envoi massif de
fruits. Au préalable, un contrôle de qualité
portant sur un échantillon de 1000 pommes a
permis de dénombrer 80 fruits défectueux. On
se propose de calculer au seuil de confiance
90% et 95% entre quelles limites est compris le
pourcentage de fruits défectueux dans l’envoi.
⚫ n étant supérieur à 30. Donc l’intervalle de
confiance du pourcentage p de fruits
défectueux dans l’envoi est :

 f (1 f ) f (1 f ) 
 f t , f t 
 n n 
ou f  pourcentage de fruits défectueux dans l 'échantillon 
8%  0, 08
  10%  t =1,64  p 0.08  0.014, 0.08  0.014
donc p 0.066, 0.094
  5%  t 1,96  p 0.08  0.017 , 0.08  0.017
donc p 0.063, 0.097
Intervalle de confiance de la variance :
Si on note S 2 la variable aléatoire qui à
chaque échantillon de taille n, associe sa
variance. Alors :
n 1 n
S 
2
e
n 1
S 
2
 i
n  1 i 1
( X  X ) 2

est un estimateur sans biais de  2 .


O n montre que la v.a
(n  1) Se2 n
Xi  X suit une loi de n1
(
2
 )2
2 i 1 
2
Ainsi,à l’aidede latablede laloi on aura :

est l’intervalle de confiance de  2 au


seuil de confiance 1.
Notez que cet intervalle n’est pas symétrique
Estimation par la méthode du maximum de vraisemblance
Soit X une variable aléatoire réelle de loi paramétrique (discrète ou
continue), dont on veut estimer le paramètre θ. Alors on définit une
fonction f telle que :

si X est une v.a. continue de densité f

si X est discrète de probabilité P

Définition. On appelle fonction de vraisemblance de θ pour une


réalisation (x1, . . . , xn) d’un échantillon, la fonction de θ :
Définition La méthode consistant à estimer θ par la valeur qui
maximise L (vraisemblance) s’appelle méthode du maximum de
vraisemblance.
θ = {θ / L( θ) = sup L(θ)}

Ceci est un problème d’optimisation. On utilise généralement le fait


que si L est dérivable et si L admet un maximum global en une valeur,
alors la dérivée première s’annule en et que la dérivée seconde est
négative.

Réciproquement, si la dérivée première s’annule en θ = θ et que la


dérivée seconde est négative en θ = θ, alors θ est un maximum local
(et non global) de L(x1, ..., xi , ..., xn; θ).
Il est alors nécessaire de vérifier qu’il s’agit bien d’un maximum
global.
1. Dans la pratique la condition nécessaire est

L( x1 ,....., xn , )  ln( L( x1 ,....., xn ,  ))


 0 ou 0
 
permet de trouver la valeur θ.
2. θ = θ est un maximum local si la condition suffisante
est remplie au point critique :
Exemple : Avec une loi discrète
On souhaite estimer le paramètre λ d’une loi de Poisson à partir d’un
n-échantillon. On a
 
x
f ( x,  )  P ( X  x)  e
x!
La fonction de vraisemblance s’écrit
n
x n
x
L( x1 ,...., x n ,  )   e x!
i i
  n
e
1 xi ! 1 i

Plus simple d’utiliser le logarithme, la vraisemblance étant positive :


 x n n n
lnL( x1 ,...., x n ,  )  ln(e )  ln   n  ln( ) (x i )   ln(x i!)
i
 n

1 xi ! i 1 i 1

 ln L( x1 ,....., xn ,  )  xi
 n  1 s’annule pour
 
La dérivée seconde n

 ln L( x1 ,....., xn ,  )
2 x
i
  1
0
( ) 2
 2

donc l’estimation donnée par


n

X i
1
X
n
conduit à un estimateur du maximum de vraisemblance
. Il est normal de retrouver la moyenne empirique qui est
le meilleur estimateur possible pour le paramètre λ (qui
représente aussi l’espérance d’une loi de Poisson)
Exemple : Avec une loi continue
On souhaite estimer les paramètres µ et σ d’une loi normale à partir
d’un n-échantillon. La loi normale N (µ, σ) a pour fonction densité
( x  m )2
1 
f ( x, m,  )  f ( m, ) ( x)  e 2 2

 2
La fonction de vraisemblance pour une réalisation d’un échantillon
de n variables indépendantes :
n
  ( xi  m )2
n
1 n2 i 1

f ( x1 ,...., x n , m,  )   f ( xi , m,  )  ( ) e 2 2

i 1 2 2

Qui peut être écrite sous la forme


On obtient donc l’estimateur par le maximum de vraisemblance de
l’espérance :

Pour le second paramètre, on calcul


n n

 i  i
Donc
( x  x ) 2
 n ( x  x ) 2
( x  x ) 2

S 
2 i 1
 i 1

n n
TESTS D’HYPOTHESES
GENERALITES
◦ Tests d’hypothèses :Un test statistique est une méthode qui permet de
prendre une décision à partir d’informations fournies par un échantillon.
Le but des tests d`hypothèses est de vérifier, à partir de données observées
dans un ou plusieurs échantillons, la validité de certaines hypothèses
relatives à une ou plusieurs populations.

Test
d’hypothèses

Hypothèse Hypothèse
nulle H0 alternative H1
On peut distinguer,
Les tests d’ajustement sont destinés à vérifier si un échantillon
observé peut être extrait d’une population donnée.

Les tests d’indépendance ont pour but de contrôler, à partir d’un


échantillon, l’indépendance de deux ou plusieurs critères de
classification, généralement qualitatifs (déjà étudier).

Les tests de comparaison à une norme ou tests de conformité sont


destinés à comparer entre eux une population théorique et un
échantillon observé.

Les tests d’homogénéité ou d’égalité ont pour but de comparer entre


elles un certain nombre de populations, à l’aide d’un même nombre
d’échantillons.
Types de tests hypothèses
Soit  un paramètre inconnu d’une
population sur lequel on veut faire des tests
d’hypothèses
⚫Test bilatéral:
H0 :"  0 "  H1 :"  0 "
⚫Test unilatéral droit:
H0 :"  0 "  H1 :" 0 "

⚫Test unilatéral gauche:


H0 :"  0 "  H1 :"|0 "
Table de Verité et decision (hypothèse simple)
⚫ Raisonnons dans le cas d’une hypothèse concernant une
moyenne. hypothèse nulle H0 : m  m0
⚫ La situation générale peut être résumée par le tableau
suivant:

Réalité

Décision H 0 est vraie H0 est fausse

décision correcte erreur de seconde


non rejet de H 0
( 1  ) espéce
(risque  )
erreur de première décision correcte
rejet de H0 espéce (1  )
(risque  )
⚫ Signification des risques :
réalité décision
N on rejet de H0

H0 est vraie

Rejet de H0

N on rejet de H0

H0 est fausse

Rejet de H0

  P(rejeter H0 / H0 est vraie)= risque 1


  P(ne pas rejeter H0 / H0 est fausse)=risque 2
Exemple1
⚫ Entre un fabriquant et un client, il existe un contrat, qui fixe, à
l’avance, la proportion maximale d’objets défectueux que peut
comporter chaque lots d’objets livrés au client. Par rapport à ce
contrat, le service de réception du client peut être amené à
commettre deux types d’erreurs :

Lots corrects défectueux


Décision

Erreur de 2éme
Accepter Décision correcte espèce (risque
de l’acheteur)

Erreur de 1ére
refuser espèce Décision correcte
(risque du vendeur)
METHO D OLO GIE
 Première étape :
Avant l’expérimentation, il est recommandé de
choisir :
- l’hypothèse nulle H0
- le risque d’erreur  à priori
 Deuxième étape :
• On définit un écart entre la valeur observée
 0 et la valeur théorique  qu’on note tobs
• On compare cet écart à une valeur critique
t lu à partir d’une table spécifique à la loi
du test choisi.
 Troisième étape:
On conclue en distinguant trois éventualités :

l'écart observé assez nettementt non rejet de H0


l'écart observé assez nettementt rejet de H0
l'écart observé  t rejet de H0 avec risque d'erreur 
oubien proposer de réviser le risque 
Comment exprimer la décision?

 Le non-rejet doit s’exprimer:

 « Au risque d’erreur  , la différence entre les


résultats observées et ceux qui résulteraient
de H0 n’est pas significative »

 « Au risque d’erreur  , l’hypothèse H0 est


compatible avec les résultats observés »
Comment exprimer la décision?
 Le rejet s’exprimera :

 Au risque d’erreur  ,les résultats observés


sont significativement différents de ceux qui
résulteraient de H0 ,qui est donc rejetée

 Au risque d’erreur  ,l’hypothèse H0 est


rejetée comme incompatible avec les résultats
observés »
TEST DE KHI-DEUX:
Rappel:
Soient X 1 , X 2 ,..........., X n n variables aléatoires
indépendantes suivants toutes la loi N(0,1).
n
La v.a  n   X i2 suit une loi dite de khi-deux
2

à n degré de liberté.
Test d'ajustement :
 La méthode consiste à ajuster (comparer) les
observations sur un échantillon avec un modèle
théorique (binomiale, Poisson, normale...).
 Pour cela, on va découper l'intervalle d'observation en
k classes, on construit une distance mesurant
l'écart constaté entre les effectifs réels et les
effectifs théoriques.
⚫Position du problème:
On connait une distribution observée (résultat
d’une expérience)
Valeurs du
C1 C2 Ci Cn
caractère …………….. …………………….
Effectifs
O1 O2 Oi On
observés …………….. …………………….

On veut comparer cette distribution à une loi


connue (binomiale, Poisson, Gauss,…..)
Valeurs du C1 C2 Ci Cn
caractère …………….. …………………….
Effectifs
T1 T2 Ti Tn
théoriques …………….. …………………….

Rq. Si la distribution étudiée est continue, on


remplace les caractères Ci par des classes.
Distance de Khi-2
Soit
n
(n i  npi ) 2
d    cal
2

i 1 npi

où oi=ni = effectif observé dans la classe i,


n = effectif total observé,
pi = probabilité théorique d'obtenir une observation
dans la classe i,
Ti=[Link] = effectif théorique dans la classe i.
Hypothèses et test khi-deux
 Hypothèse:
Ho = {la distribution observée n'est pas significativement
différente de la distribution théorique}
le contraire est H1. k
(n i  npi )
2
 Statistique de test: d 
i 1 npi
Pearson a montré que sous l’hypothèse H0
(n i  npi )
k 2
d    2( k r 1)
i 1 npi
où k est le nombre de classes et r le nombre de paramètres qui ont
été estimés pour que la loi théorique soit entièrement déterminée.
Décision
 Règle de décision:
d >  s 2 on rejette Ho
d <  s 2 on "accepte" Ho
 Détermination du seuil critique:

α= P [rejeter Ho / Ho vraie]

étant donné α et ddl=k-r-1 on en déduit la valeur de


 s 2 de la table de loi khi-deux.
0,95

=0,05

11,07

Zone d’acceptation Zone de rejet


 Remarques:
1) Le choix et le nombre de classes est arbitraire.
Cependant pour que l'approximation par la loi du
Khi-2 soit bonne, il est nécessaire que l`effectif
théorique dans chacune des classes soit au moins égal
à 5.
 Si ce n'est pas le cas, il faut au préalable regrouper les
classes afin d'avoir un effectif suffisant.
Exemple (cas de loi discrète)

 En lançant un dé successivement 60 fois , un joueur


obtient les résultats suivants:
Face 1 2 3 4 5 6

effectif 15 7 7 11 6 14

 Avec un seuil de risque de 5% , est ce que le dé est


truqué?

H0 :"le dé est normal "  H1 :"le dé est truqué "


Face 1 2 3 4 5 6 somme
Eff (Oi) 15 7 7 11 6 14 60
Eff (Ti) 10 10 10 10 10 10 60
(Oi  Ti ) 5 -3 -3 1 -4 4 0
(Oi  Ti )2 25 9 9 1 16 16
(Oi  Ti ) 2 2,5 0,9 0,9 0,1 1,6 1,6 7,6
Ti
1/6 1/6 …. … … …. ….
pi
On a k=6 et r=0 donc ddl =6-1=5 donc au seuil de risque de 5%
on détermine la valeur de  s2 dans la table de Khi-2 :

Et on a  s2  11, 07
Puisque   11,07    7,6
2
s
2
cal
Décision: on accepte H0, donc seuil de risque 5%, nous
acceptons que le dé n’est pas truqué.
Exemple ( loi continue)
On suppose que le rendement X (quintaux par hectares d’une
parcelle de blé) suit une loi normale N (m, σ). L’observation du
rendement de 1000 parcelles a donné les résultats suivants :
rendement [0, 10[ [10, 20[ [20,30[ [30, 40[ [40,50[ [50,60[ [60,70 [70, 80[ [80,90
[ [
Nombre de 5 6 40 168 288 277 165 49 2
parcelles

Déterminer la moyenne arithmétique et l’écart-type de la


distribution observée.

ii
n x 2

S2  i 1
 ( x)2  164,5424  S  12,827  Se  12,833
1000
Vérifier pour un test du χ 2 avec un risque de 0, 05 si l’ajustement
de la distribution observée à une loi normale N (m = 50, σ = 13) est
acceptable.
Les hypothèses du test du χ 2 sont les suivantes :
• H0 : X suit N (50, 13)
• H1 : X ne suit pas N (50, 13)
On désigne par [a0; a1[, [a1; a2[,. . . ,[a8; a9[ les classes et
par x1, x2,. . . ,x9 les centres de ces classes.

X  50
Sous H0, X  N (50,13), Z   N (0,1)
13

Donc pi  P( X   ai 1 , ai )  P(Z   zi 1 , zi )   (zi )   ( zi 1 )


ai 1  50 ai  50
zi 1  , zi 
13 13
L’effectif théorique de la i-ème classe est 1000pi
(ni  npi ) 2
9

Et on a 
1 np
  2
v
i
Classe ni zi φ(zi) pi npi npi ni
[ai−1; ai[ corrigé corrigé (ni − npi)2
/npi
[0; 10[ 5 −3, 0769 0, 001 0, 0009 0, 9 10, 4 11 0, 0346

[10; 20[ 6 −2, 3077 0, 0105 0, 0095 9, 5

[20; 30[ 40 −1, 5385 0, 0620 0, 0515 51, 5 51, 5 40 2, 568

[30; 40[ 168 −0, 7692 0, 2209 0, 1589 158, 9 158, 9 168 0, 5211

[40; 50[ 288 0 0, 5 0, 2791 279, 1 279, 1 288 0, 283

[50; 60[ 277 0, 7692 0, 7791 0, 2791 279, 1 279, 1 277 0, 0158

[60; 70[ 165 1, 5385 0, 9380 0, 1589 158, 9 158, 9 165 0, 234

[70; 80[ 49 2, 3077 0, 9895 0, 0515 51, 5 51, 5 49 0, 1214

[80; 90[ 2 3, 0769 0, 9990 0, 0095 9, 5 9, 5 2 5, 9211

Total 1000 – – 1 1000 1000 1000 9, 7


On effectue le regroupement des deux premières classes car npi < 5.
Le χ2 observé vaut 9, 7.
Après le regroupement, il reste 8 classes, les deux paramètres de la
loi normale sont donnés, le nombre de degrés de liberté est
ν = (8 − 1) − 0 = 7. À l’aide de la table, on obtient 7,0,95  14,07
2

Par suite
obs2  9,7 7,0,95
2
 14,07

Décision. On accepte H0, l’ajustement de la distribution


observée suit une loi normale N (50, 13) est acceptable
TEST DE CONFORMITE
Cas des moyennes :
On se propose d’étudier la conformité d’un
échantillon par rapport à une norme (ou un
modèle théorique) préalablement définie.
Position du problème :
Une machine fabrique en grande série des pièces
cylindriques. Soit X la v.a qui à chaque
pièce tirée au hasard dans la production, associe
son diamètre (en mm). X suit une loi normale
de moyenne m et d’écart-type  .
La machine est bien réglée lorsque m m0
On prélève périodiquement des
échantillons aléatoires non exhaustifs de
n pièces et on calcule la moyenne des
diamètres de ces pièces.
Loi d’échantillonnage :
X m
La v.a T  suit une loi de student à n 1 ddl
̂
n
Test bilatéral :

 hypothèse nulle H0 :" m m0 ".........machine bien réglée



 hypothèse alternat H1 :"m  m0 "...machine déréglée.
Fixons, à priori, le risque maximal que nous
acceptons de prendre en rejetant H0 alors
qu’elle est vraie. Ce risque, dit de première
espèce, est noté  .
X m
T Tn1 et P(T t )  .
̂
n
Si T t ,on rejette (H0 ) avec le risque  de se tromper.
Si T  t , on n 'a aucune raison de rejette (H0 ), avec
encore un risque de se tromper (risque  de 2éme
espéce)
1

t t

Rejet de H0 Acceptation de H0 Rejet de H0


test
on extrait un échantillon, de taille n,de moyenne me
et d’écart-type e .
 Si l’écart-type de la population est connu, on
calcule t  m e  m 0 et on applique la règle de

n

décision précédente en utilisant la loi


normale.

Si  est inconnu, on l’estime par ̂   e


n
 ,puis on
me  m0 n 1
calcule t  ˆ et on applique la règle de décision
n
précédente en utilisant la loi de
Student
Application
⚫ Le temps requis pour accomplir une
certaine tache dans une usine est supposé
distribué normalement avec une moyenne
de 590 min. Le patron de l’usine trouve
que ce temps est trop long et fait subir à
ses ouvriers un stage d’[Link]
ce stage, il sélectionne au hasard 11
ouvriers et note le temps qu’ a mis chacun
d’eux: 620-540-579-603-570-598-587-
530-595-629-550
Avec un seuil de risque égal à 10% et sur la
base de ces observations peut-il conclure
que le stage était bénéfique?
Réponse
⚫SoitX = « v.a donnant requis
pour accomplir la tache»
X  N(m , ) avec m et  inconnus
⚫On veut tester:
H 0 :" m  590"  H 1 :" m 590"
⚫ On a:
n 11; me 581,91; ̂ 31,92
me 590
donc: tobs  0,8406
̂
n
or sur la table de la loi de student,on lit tn1, 
1,372
⚫ Donc puisque tobs tn1, ;on ne doit
pas rejeter H0 et conclure que sur la
base de cet échantillon de données,
la moyenne de la variable n’est pas
significativement plus petite que
[Link] conséquent, le stage n’est
pas d’une efficacité significative sur
la réduction du temps.
Application 2
(test d’hypothèse sur une proportion)

⚫Dans une étude sur le contrôle de


l’usage des cellulaires au volant,
une enquête de surveillance montre
que sur 1350 interventions, 148
conducteurs sont fautifs.
Au seuil de risque 5% et sur la base de
ces données, peut-on affirmer que le
pourcentage des conducteurs
utilisant le cellulaire diffère de 10%?
se
⚫Soit p la proportion de
conducteurs utilisant le
cellulaire au volant.
⚫On veut tester:
H :" p  0,10"  H :" p  0,10"
⚫ On 0a: n  1350 ;   0,
1
5 ; p̂  0,1096
p̂  p0
et t obs  1,176
p0 (1  p 0 )
n
or t (lu sur la table de la loi normale)  1, 96
2

donc : tobs t
2
⚫Donc, on ne rejette pas H0 et on
conclut que le pourcentage de
conducteur utilisant le cellulaire
au volant n’est pas
significativement différent de 10%.

Vous aimerez peut-être aussi