Cours de Probabilité et Statistique
Cours de Probabilité et Statistique
Dr Malicki ZOROM
1 Probabilité
2 Variables aléatoires
3 Lois usuelles
4 Statistique descriptive
5 Échantillonnage et estimation
1 Probabilité
2 Variables aléatoires
3 Lois usuelles
4 Statistique descriptive
5 Échantillonnage et estimation
1 Probabilité
2 Variables aléatoires
3 Lois usuelles
4 Statistique descriptive
5 Échantillonnage et estimation
1 Probabilité
2 Variables aléatoires
3 Lois usuelles
4 Statistique descriptive
5 Échantillonnage et estimation
1 Probabilité
2 Variables aléatoires
3 Lois usuelles
4 Statistique descriptive
5 Échantillonnage et estimation
6 Tests d’hypothèses
Plan
1 Probabilité
Rappel sur les dénombrements
Probabilité
Probabilité conditionnelle
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites
Arrangements et permutations
Envisageons un ensemble de n objets différents. Choisissons maintenant r de ces n objets et ordonnons les.
Définition
Une disposition ordonnée de r objets distincts pris parmi n est appelée arrangement de r objets pris parmi n (on a
obligatoirement r ≤ n).
Combien y en a-t-il ?
Pour compter le nombre total d’arrangements de r objets pris parmi n, il suffit de considérer les r positions comme fixées et de
compter le nombre de façons dont on peut choisir les objets pour les placer dans ces r positions. C’est une expérience à r étapes
où l’on applique la technique du paragraphe précédent. Pour la première position, on a n choix possibles. Pour la deuxième
position, on a n − 1 choix possibles... Pour la r -ième position, on a n − r + 1 choix possibles. Si on désigne par Arn le nombre
total d’arrangements cherchés, l’arbre aura Arn branches terminales. On conclut Arn = n(n − 1)(n − 2) · · · (n − r + 1) = (n−r n! .
)!
rappel
n! (lire “factorielle n”) est le produit de tous les entiers jusqu’à n, n! = n(n − 1)(n − 2) · · · 3.2.1. Par convention, 0! = 1.
Exemple : Les arrangements de deux lettres prises parmi 4 lettres {a, b, c, d} sont au nombre de A24 = 4! 2!
= 12. Ce sont :
(a, b), (a, c), (a, d), (b, a), (b, c), (b, d), (c, a), (c, b), (c, d), (d, a), (d, b), (d, c).
Cas particulier : r = n Il s’agit d’ordonner n objets entre eux, c’est-à-dire d’effectuer une permutation de ces n objets.
Définition
Combinaisons
Définition
Un choix de r objets distincts pris parmi n sans tenir compte de leur ordre est appelé combinaison de r objets pris parmi n.
Dans l’exemple précédent correspondant à l’ensemble des quatre lettres {a, b, c, d}, la combinaison {a, b} est la même que la
combinaison {b, a} alors que l’arrangement (a, b) est différent de l’arrangement (b, a).
Combien y en a-t-il ? Le nombre total de combinaisons de r objets pris parmi n est noté Cnr . Pour trouver l’expression de Cnr ,
comparons le nombre d’arrangements et de combinaisons possibles de r objets pris parmi n.
Dans un arrangement on choisit r objets, puis on tient compte de leur ordre.
Dans une combinaison seul le choix des r objets compte. Comme le nombre de façons d’ordonner les r objets choisis est
r !, on conclut qu’à chaque combinaison de r objets pris parmi n, on peut associer r ! arrangements et donc qu’il y a r !
fois plus d’arrangements que de combinaisons.
On conclut
Proposition
Exemple
Le nombre de combinaisons de deux lettres prises parmi quatre {a, b, c, d} est C42 = 2!2!
4! = 6. Ce sont :
{a, b}, {a, c}, {a, d}, {b, c}, {b, d}, {c, d}.
Exemples
Exemple
Déterminer le nombre de numéros possibles que peuvent attribuer les compagnies téléphoniques au Burkina Faso ?
Exemple
Dans un lot de 20 pièces fabriquées, 4 sont mauvaises. De combien de façon différentes peut-on en prélever 4 dans les cas
suivants :
1 les 4 pièces sont bonnes
2 Une au moins d’entre elles est mauvaise.
3 Deux au moins sont mauvaises.
Les réponses dépendent de l’expérience. D’après l’énoncé il n’y a pas répétition mais est-ce que l’ordre compte ? Tirages
successifs, arrangements, ou tirage simultané, combinaison ?
Exemple
Une classe de 30 élèves, 12 filles et 18 garçons, doit élire un comité composé d’un président, un vice-président et un secrétaire.
1 Combien de comités peut-on constituer ?
2 Combien de comités peut-on constituer sachant que le poste de secrétaire doit être occupé par une fille ?
3 Quel est le nombre de comités comprenant l’élève X ?
4 Quel est le nombre de comités pour lesquels le président est un garçon et le secrétaire une fille ?
5 Quel est le nombre de comités pour lesquels le président et le vice-président sont de sexes différents ?
Plan
1 Probabilité
Rappel sur les dénombrements
Probabilité
Probabilité conditionnelle
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites
Définitions
Expérience aléatoire ε : expérience dont le résultat ne peut pas être déterminé avec certitude a priori.
Univers de ε : ensemble des aléatoires résultats possibles de ε. On le note Ω.
Résultat élémentaire de ε : résultat possible de ε. C’est un élément de Ω. On le note ω.
Exemples
Ensemble P(Ω) des parties de Ω : ensemble constitué de tous les sous-ensembles (parties) de Ω.
Evènement (aléatoire) =une partie (sous-ensemble) de Ω= assertion, qui peut ou non se réaliser suivant l’issue de ε
Réalisation d’un événement Soit A un évènement de Ω. Soit ω le résultat de l’expérience
A se réalise ⇐⇒ ω ∈ A
Cas particulier
Exemples
Soit ω le résultat de l’expérience : Complémentaire de A : événement constitué des résultats élémentaires de Ω qui
ne sont pas dans A. Soit ω le résultat de l’expérience :
Ω
A ∪ B = {ω ∈ Ω, ω ∈ A ou ωA.2 ∈Notions
B} de base: A = {ω ∈ Ω, ω ∉ A}
évènements
A
( A se réalise ssi A ne se réalise pas : non A).
A = {ω ∈ Ω, ω ∉ A}
A Ω
Intersection de A et B: évènement constitué des résultats élémentaires de Ω qui
appartiennent à la fois à A et à B. Soit ω le résultat de l’expérience
( A se réalise ssi A ne se réalise pas : non A).
Intersection de A et B : évènement constitué A ∩ B = {des résultats
ω ∈ Ω, ω ∈ A et ω ∈ B} élémentaires
B de Ω qui appartiennent à la fois à A et à B.
Réunion de A et B: ∩ B se réalise constitué
( Aévènement ssi A et B sedes résultats
réalisent élémentaires de Ω qui
: A et B).
Soit ω le résultat de l’expérience : appartiennent à A ou à B (ou aux deux). Soit ω le résultat de l’expérience :
A
A ∪ B = {ω ∈ Ω, ω ∈ A ou ω ∈ B}
A ∩ B = {ω ∈ Ω, ω ∈ A et ω ∈ B} A B
( A ∪ B se réalise ssi A se réalise ou B se réalise : A ou B).
A ∩ B = {ω ∈ Ω, ω ∈ A et ω ∈ B} B
( A ∩ B se réalise ssi A et B se réalisent : A et B).
A
A.2 Notions de base: évènements
Inclusion : A est inclus dans B si et seulement si tout élément de A appartient à B :
A ⊂ B ⇐⇒ (ω ∈ ARelations =⇒particulières
ω ∈ :B)
Si A est réalisé alors B est réalisé
• Inclusion : A est inclus dans B ssi tout élément de A appartient à B :
A.2 Notions de base: évènements
A ⊂ B ⇔ (ω ∈ A ⇒ ω ∈ B )
A
(Si A est réalisé alors B est réalisé).
Relations particulières : B
• Disjonction ou incompatibilité:
• Inclusion A et
: A est inclus B sont
dans disjoints
B ssi tout ssideAAet
élément B n’ontàpas
appartient B:
Disjonction ou incompatibilité : A et BA sont
d’éléments communs :
⊂ B ⇔ (disjoints
ω ∈ A ⇒ ω ∈ B ) si et seulement si A et B n’ont pas d’éléments communs :
A
A et B disjoints ⇐⇒ A ∩ (Si AB A= B∅disjoints
et alors
est réalisé ⇔ (A ∩ B = ∅ )
B est réalisé).
B
A
A et B disjoints : A(A etetB disjoints
B sont : A et B sont incompatibles).
incompatibles
• Disjonction ou incompatibilité: A et B sont disjoints ssi A et B n’ont pas
d’éléments communs :
A et B disjoints ⇔ (A ∩ B = ∅ ) B
(A et B disjoints : A et B sont incompatibles). A
Axiome des probabilités totales : Soit (Ai )1≤i≤n un système complet d’évènements :
Opérations sur les probabilités :
Pn Pn
∀B ∈ A, P(B) = P(B ∩ Ai ) = P(B/Ai )P(Ai )
i=1 i=1
CP: Si P(A)=0 alors A est presque impossible. On écrit A = ∅ p.s.
Si P(A)=1 alors A est presque sûr. On écrit A = Ω p.s.
Exemple 1
ε : “jet de deux pièces de monnaie distinguables”. Ω = {(P, P); (P, F ); (F , P); (F , F )} est
équiprobable. Soit A= “On obtient au moins une fois P”={(P, P); (P, F ); (F , P)}. P(A) = 3/4
Exemple 2
ε : “jet d’un dé pipé : le 6 apparaı̂t 2 fois plus que les autres ”. Ω non équiprobable :
p1 = p2 = p3 = p4 = p5 = p; p6 = 2p, p tel que :5p + 2p = 1, p = 1/7
A=”le lancer est pair”; P(A) = p2 + p4 + p6 = 4/7.
Exemple 3
ε : “lancer de la mine de crayon “. Soit A un événement (surface sur la feuille) de Ω d’aire A. Si
tous les emplacements sur la feuille ont la même chance d’être atteints, intuitivement, on peut
A
définir P(A) = .
l ⋆L
Par contre, P((x,y)=0 (lorsque Ω est infini, on admet que la probabilité de tomber sur un point
particulier est nulle).
Plan
1 Probabilité
Rappel sur les dénombrements
Probabilité
Probabilité conditionnelle
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites
Définition : Indépendance
P(A ∩ B)
Deux évènements A et B sont indépendants si = P(A) ou P(A/B) = P(A) ou
P(B)
P(B/A) = P(B)
Théorème de Bayes
P(B/A)P(A)
Pour deux évènements A et B : P(A/B) =
P(B)
Généralisation : Si {A1 , A2 , . . . , Ai , · · · , An } st un système complet
d’évènements, et quel que soit l’évènement B tel que P(B) ̸= 0,
P(B/Ai )P(Ai )
alors : P(Ai /B) = n avec
X
P(B/Ai )P(Ai )
i=1
n
X
P(B) = P(B/Ai )P(Ai )
i=1
La probabilité lors du lancer d’un dé non pipé d’obtenir ” plus de 2 ” se traduit par A = {3, 4, 5, 6} et A = {1, 2} d’où
P(A) = 1 − P(A) = 1 − 2/6 = 4/6 = 2/3
Exemple 2
Considérons le jeu qui consiste à lancer un dé à 6 faces, non pipé. Soient les deux évènements : A ” le résultat est pair ”
et B ” le résultat est un multiple de trois ” sont statistiquement indépendants.
En effet, soit A = {2, 4, 6} ; B = {3, 6} ; A ∩ B = {6}ainsi P(A) =3/6 ; P(B) = 2/6 ; P(A ∩ B) = 1/6. On vérifie
alors que : P(A ∩ B) = P(A)P(B) = 3/6 × 2/6 = 6/36 = 1/6
Si l’on considère une famille de deux enfants, les deux évènements : A ” enfants de sexe différent ” et B ” au plus une
fille ” ne sont pas statistiquement indépendants. En effet, l’espace probabilisé Ω, contient 4 évènements élémentaires (si
l’on considère une famille ordonnée),Ω = {GG , GF , FG , FF } avec A = {GF , FG }, B = {GG , GF , FG } et
A ∩ B = {GF , FG }
d’où sous l’hypothèse d’équiprobabilité : P(A) = 1/2, P(B) = 3/4 et P(A ∩ B) = 1/2. On vérifie alors que :
P(A ∩ B) ̸= P(A)P(B) = 1/2 × 3/4 = 3/8 ̸= 1/2
Exemple 3
Une population animale comporte 1/3 de mâles et 2/3 de femelles. L’albinisme frappe 6 % des mâles et 0,36 % des femelles. La
probabilité pour qu’un individu pris au hasard (dont on ignore le sexe) soit albinos est :
Soient les évènements A :” l’animale est mâle “ et A :” l’animale est femelle” constitue un système complet d’évènements B :”
l’animale est albinos” et B :” l’animale n’est pas albinos” sachant que P(B) = P(B/A)P(A) + P(B/A)P(A) alors
P(B) = (0, 06 × 1/3) + (0, 0036 × 2/3) = 0, 0224 soit 2,24% d’albinos dans cette population.
P(T /A)P(A)
P(A/T ) =
P(T /A)P(A) + P(T /A)P(A)
0, 01 × 0, 8
d’où P(A/T ) = = 0, 075
0, 01 × 0, 8 + 0, 1 × 0, 99
Ainsi avant le test, la probabilité d’être malade était de P(A)=0,01 (probabilité a priori)
et après le test la probabilité d’être malade est de P(A/T ) = 0, 075 (probabilité a
posteriori). Ainsi le test apporte un supplément d’information.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 22 / 143
Variables aléatoires
Dans la plupart des phénomènes aléatoires, le résultat d’une épreuve peut se traduire par une ” grandeur ” mathématique, très
souvent représentée par un nombre entier ou un nombre réel. La notion mathématique qui représente efficacement ce genre de
situation concrète est celle de variable aléatoire (notée également v.a.). On se limitera ici au cas des variables aléatoires réelles.
Définition
On suppose une expérience dont l’univers est muni d’une tribu A d’évènements et d’une probabilité P ( (Ω, A, P) espace
probabilisé) . Une variable aléatoire réelle X est une caractère quantitatif, discret ou continu, dont la valeur est fonction du
résultat de l’expérience :
X :Ω→E
ω 7→ X (ω) = x
Remarque
La mesurabilité de X dépend des tribus A et B choisie sur Ω et E . La tribu B est généralement P(E ) en discret, la
tribu borélienne en continu.
Lorsque X est une variable discrète, la séquence d’évènements {X = x} forme une partition de Ω. On l’appelle partition
engendrée par X .
Exemples
Exemple
lancer d’un dé régulier. (Ω, P(Ω), P) est un espace probabilisé. Soit X la fonction de Ω dans {0, 1} valant 1 si le lancer est pair
, 0 sinon. X est une fonction du résultat de l’expérience et elle est mesurable. En effet, B = {{0}, {1}, {0, 1}, ∅}. On a :
{X = 0} = {1, 3, 5} ∈ P(Ω)
{X = 1} = {2, 4, 6} ∈ P(Ω)
{X ∈ {0, 1}} = {X = 0 ou X = 1} = Ω ∈ P(Ω)
{X ∈ ∅} = ∅ ∈ P(Ω)
Exemple
On fait l’expérience E : “ on lance 2 pièces de monnaie régulières “. Soit X le nombre de ń P ż obtenu : X prend les valeurs
quantitatives discrètes 0, 1 ou 2 (E = {0, 1, 2}), selon le résultat de l’expérience :
ω = (F , F ) alors X (ω) = 0
ω = (F , P) ou ω = (P, F ) alors X (ω) = 1
ω = (P, P) alors X (ω) = 2
X est donc une variable aléatoire discrète.
L’évènement engendré par la valeur 0 est l’évènement {X = 0} = {(F , F )}
L’évènement engendré par la valeur 1 est l’évènement {X = 1} = {(F , P), (P, F )}
L’évènement engendré par la valeur 2 est l’évènement {X = 2} = {(P, P)}
On a : {X = 0} ∪ {X = 1} ∪ {X = 2} = Ω
Exemples
Exemple
Soit X l’abscisse de la mine : X prend des valeurs quantitatives continues
entre 0 et l (E = [0, l]), selon le résultat de l’expérience : si le résultat de
l’expérience est ω = (x, y ), X (ω) = x. On associe à E et à Ω les tribus
boréliennes A et B respectivement engendrées par les ouverts de [0, l] et
de [0, l] ⋆ [0, L] (qui contiennent tous les intervalles associés à ces
ensembles). Alors, l’image réciproque de tout élément de B (tout intervalle
I de [0, l] est dans A (c’est un intervalle de [0, l] ⋆ [0, L])
{X ∈ I } = {ω = (x, y ), x ∈ I , y ∈ [0, L]} ∈ B
X est donc une variable aléatoire (continue).
Définition : X prend ses valeurs dans un ensemble E discret de valeurs réelles (v.a.r.d.).
Loi : Séquence des probabilités : PX (x) = P(X = x), x ∈ E
Propriétés :
0 ≤ pX (x) ≤ 1
P
pX (x) = 1
x∈E
P
∀B ⊂ B, pX (B) = pX (x)
x∈B
Définition : X prend ses valeurs dans un ensemble E continu de valeurs réelles (v.a.r.c.).
Loi : ∀x ∈ E , P(X = x) = 0. Par contre P(X ∈ [x, x + dx[) ̸= 0. La loi de X est via la fonction f de R dans R,
appelé densité de probabilité : f (x) = P(X ∈ [x, x + dx[)
Propriétés :
0 ≤ f (x)
R
f (x)dx = 1
x∈R
R
∀B ⊂ B, pX (B) = f (x)dx
x∈B
variable aléatoire réelle continue Présentation : la loi de X est Présentation : La loi de X est
présentée dans un tableau (tableau donnée par la fonction f
de la loi de X ou tableau en
Présentation : la loi de X est donnée par la fonction f
fréquences):
Représentation graphique : courbe
Représentation graphique :Représentation
courbe graphique
de la :densité de la densité
diagramme en bâtons
F '( x ) = f ( x )
Propriétés : F ( x) = ∑ p ( y)
y ≤ x, y∈E X
x
F ( x ) = ∫−∞ f (t ) dt = Aire sous la courbe de la densité av
P
F (x) = PX (y )P(a ≤ X < b) = F (b) − F (a) b
P ( a ≤ X < b ) = P ( a ≤ X ≤ b ) = F (b ) − F ( a ) = ∫a f (
y ≤x, y ∈E P( X > x) = 1 − F ( x) +∞
P ( X > x ) = P ( X ≥ x ) = 1 − F ( x ) = ∫x f (t ) dt
P(a ≤ X < b) = F (b) − F (a)
P(X > x) = 1 − F (x)
F '( x ) = f ( x )
Propriétés
F ( x) = : ∑ p ( y)
y ≤ x, y∈E X
x
F ( x ) = ∫−∞ f (t ) dt = Aire sous la courbe de la densité avant x
F ′ (x) = f (x) b
P ( a ≤ X < b ) = F (b ) − F ( a ) P ( a ≤ X < b ) = P ( a ≤ X ≤ b ) = F (b ) − F ( a ) = ∫a f ( x ) dx
Rx
F (x) =P ( X > x ) =f 1(t)dt
− F ( x ) =Aire sous la courbe +∞
P( X > x ) = Pde lax )densité
(X ≥ = 1 − F ( x )avant
= ∫x fx(t ) dt
−∞
Rb
P(a ≤ X < b) = P(a ≤ x ≤ b) = F (b) − F (a) = f (x)dx
a
+∞
R
P(X > x) = P(X ≥ x) = 1 − F (x) = f (t)dt
x
Propriétés
E (a) = a
E (aX ) = aE (X )
E (aX + bY ) = aE (X ) + bE (Y )
E (XY ) = E (X )E (Y ) si X et Y des v.a. indépendantes
Définitions
Variance de X : V (X ) = σX2 = E ((X − E (X ))2 ), V (X ) ≥ 0
p
Écart-type de X : σX = V (X ), σX ≥ 0
Propriétés
Théorème de Koenig : V (X ) = E (X 2 ) − (E (X ))2
V (X + a) = V (X )
V (aX + b) = a2 V (X )
V (X ) = 0 alors X = constante p.s.
Exemples
Si l’on considère la constitution d’une fratrie de deux enfants, l’espace fondamental est constitué des évènements élémentaires
suivant :
Ω = {GG , GF , FG , FF }
Les valeurs possibles prises par la variable aléatoire X , ” nombres de fille dans la famille ” sont : X (Ω) = {0, 1, 2}
Dans le cas de la constitution d’une fratrie de deux enfants, si l’on fait l’hypothèse que la probabilité d’avoir un garçon est égale
à celle d’avoir une fille (1/2), alors la distribution de probabilité ou loi de probabilité du nombre de filles dans une fratrie de deux
enfants est :
Ω X P(X = xi ) ou pi
G et G 0 1/4
F et G ou G et F 1 1/2
F et F 2 1/4
Ω :Ensemble des évènements possibles
X : Valeurs de la variable aléatoire
P(X = xi ) ou pi : Probabilités associées à la variable X
X
Remarque : Une loi de probabilité n’est établie que si pi = 1,la somme étant étendue à tous les indices i.
i
l’espérance de la variable aléatoire ” nombre de filles ” est : E (X ) = 0 ∗ 1/4 + 1 ∗ 1/2 + 2 ∗ 1/4 = 1 d’où E (X ) = 1 Si l’on
observe un nombre suffisant de fratries de 2 enfants, on attend en moyenne une fille par fratrie.
Quelle est la variance ? Quelle est la fonction de répartition ?
Exemples
Dans une population de canards colverts, lors d’une alerte, l’ensemble des individus quittent leur lieu de repos. Ainsi à t = 0, la
surface de l’étang est déserte et la probabilité qu’un canard regagne l’étang entre les temps t1 et t2 (en minutes) est donnée
Rt
par : t 2 f (t) dt avec f (t) = 2e −t − 2e −2t qui représente la fonction densité de probabilité.
1
La primitive de f (t), FT (t), fonction de répartition est de la forme :
L’évolution de la recolonisation de l’étang par les canards colverts en fonction du temps est donnée par la courbe rouge. On
observe ainsi que plus de 50 % des canards se posent sur l’étang au cours des 2 premières minutes qui suivent l’alerte. Au bout
de 7 minutes, tous les canards ont regagné l’étang. La distribution des probabilités cumulées est donnée sur la courbe verte.
Déterminer l’espérance et la variance.
la durée moyenne pour la recolonisation est : E (T ) = 0+∞ tf (t) dt = 0+∞ 2e −t − 2e −2t dt = 3/2. Sous ce modèle, la
R R
durée moyenne de recolonisation pour l’ensemble R de la population de canards colverts est de 1,5 minutes.
+∞
La variance de la loi de probabilité est : V (T ) = −∞ (t − E (T ))2 f (t) dt = 5/4 avec σ = 1, 12
On appelle couple de variables aléatoires, deux variables aléatoires X et Y définies sur le même univers (issues de la même
expérience) à valeurs respectivement dans E et F .
Cas continu : c’est la fonction f de R2 dans R, appelée densité jointe telle que
f (x, y )dxdy = P(X ∈ [x, x + dx] ∩ Y ∈ [y , y + dy ])
Lois marginales de X
P
Cas discret : P(X = x) = P(X = x, Y = y )
y ∈F
+∞
Cas continu : c’est la fonction f de R2 dans R, appelée densité jointe telle que f (x) =
R
f (x, y )dy
−∞
P(X = x, Y = y )
Cas discret : P(Y = y /X = x) = , ∀y ∈ F
P(X = x)
f (x, y )
Cas continu : f (y /x) = , ∀y ∈ F
f (x)
Espérance conditionnelle
L’espérance conditionnelle E (Y /X ) est une variable aléatoire de même loi que X , dont les réalisations possibles sont les valeurs
{E (Y /X = x)}x∈E , valeurs des espérances des lois conditionnelles de Y /X = x
P
Cas discret : E (Y /X = x) = yP(Y = y /X = x), ∀x ∈ E
y ∈F
E (Y /X ) E (Y /X = x1 ) ··· E (Y /X = xn )
P(E (Y /X ) = x) P(X = x1 ) ··· P(X = xn )
R
Cas continu : E (Y /X = x) = yf (y /X = x)dy prise avec la densité f (x).
R
Propriété
Exemple
On place au hasard deux billes rouge et verte dans deux boites A et B. On note X , la variable aléatoire “nombre de billes dans la
boite A ” et Y , la variable aléatoire ” nombre de boites vides ” .
Les distributions de probabilités associées à chacune des variables X et Y ainsi que celle de la loi jointe sont indiquées
ci-dessous. Pour chaque loi, la valeur de l’espérance et de la variance est également indiquée.
xi 0 1 2
pi 1/4 1/2 1/4
Variable X : X (Ω) = {0, 1, 2} dans ce cas E (X ) = 1 et V (X ) = 1/2
yi 0 1
qi 1/2 1/2
Variable Y : Y (Ω) = {0, 1} dans ce cas E (Y ) = 1/2 et V (Y ) = 1/4
xi yj 0 1 2
ρi j 3/4 0 1/4
Variable XY : XY (Ω) = {0, 1, 2} dans ce cas E (XY ) = 1/2 et V (XY ) = 3/4
Remarque : L’application réciproque n’est pas vraie. La relation E (XY ) = E (X )E (Y ) n’implique pas forcément l’indépendance
de deux variables aléatoires.
La relation E (XY ) = E (X )E (Y ) est vérifiée car : E (X ) = 1 ; E (Y ) = 1/2 et E (XY ) = 1/2 cependant les variables aléatoires
X et Y ne sont pas indépendantes.
En effet ρ0 0 = P((X = 0) ∩ (Y = 0)) = 0 car il est impossible d’avoir à la fois aucune bille dans la boite A et aucune boite
Lorsque l’on considère deux variables aléatoires simultanément, il faut définir un indicateur de leur “ liaison ” qui complète les
paramètres qui les caractérisent chacune séparément (espérance mathématique et variance).
Définition
Si X et Y sont deux variables aléatoires définies sur le même univers Ω, on appelle covariance de ces deux variables, le réel :
Cov (X , Y ) = E ((X − E (X ))(Y − E (Y )))
Propriétés
Définition
cov (X , Y )
Le coefficient de corrélation est le réel : ρ(X , Y ) = où
σ(X )σ(Y )
X − E (X ) Y − E (Y )
ρ(X , Y ) = Cov (X ⋆ , Y ⋆ ) Où X ⋆ = et Y ⋆ = sont les
σ(X ) σ(Y )
variables centrées-réduites associées à X et Y .
Propriétés
−1 ≤ ρ(X , Y ) ≤ 1 D’autant plus proche de 1 en valeur absolu que le
lien linéaire est fort entre X et Y .
| ρ(X , Y ) |= 1 Lien linéaire parfait : Y = aX + b
| ρ(X , Y ) |= 0 Absence de lien linéaire (pas forcement indépendance
entre X et Y ) ⇒ Cov (X , Y ) = 0 d’où V (X + Y ) = V (X ) + V (Y ) et
E (XY ) = E (X )E (Y )
Plan
3 Lois usuelles
Lois discrètes
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Lois continues
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites
Définition
Une distribution de probabilité suit une loi uniforme discrète lorsque
toutes les valeurs prises par la variable aléatoire sont équiprobables (avec
la même probabilité). Si n est le nombre de valeurs différentes prises par la
variable aléatoire,
1
∀i ∈ {1, · · · , n}, P(X = xi ) =
n
Espérance et variance
xi = i ∀i ∈ [1, n] ou X (Ω) = {1, · · · , n}
n+1
L’espérance : E (X ) =
2
n2 − 1
La variance : V (X ) =
12
Exemple
On lance un dé régulier. Soit X la v.a. qui représente le numéro
apparaissant sur le dé. Quelle est la loi de probabilité X ? Déterminer
l’espérance et la variance ?
Loi Bernoulli
Définition
Soit un univers Ω constitué de deux éventualités, S pour succès et E pour
échec sur lequel on construit une variable aléatoire discrète, « nombre de
succès » telle que au cours d’une épreuve :
Si E est réalisé, X = 0, P(X = 0) = q
Si S est réalisé, X = 1, P(X = 1) = p avec p + q = 1.
Cette variable aléatoire à deux issues est appelé la variable de Bernoulli. La
loi de probabilité associée à la variable de Bernoulli X est appelée loi de
Bernoulli de paramètre p et est notée : X ∼ B(1, p).
Espérance et variance
X (Ω) = {0, 1}
L’espérance : E (X ) = p
La variance : V (X ) = pq
Loi Bernoulli
Exemple
On jette une pièce de monnaie équilibrée. Soit X la v.a. qui représente les
faces de la pièce. Quelle est la loi de probabilité de X ? Déterminer
l’espérance et la variance ?
Loi Binomiale
Définition
Soit l’application Sn : Ωn → {0, 1, · · · , n} avec
Sn = X1 + X2 + · · · + Xi + · · · + Xn où Xi est une variable de Bernoulli.
La variable, Sn , représente le nombre de succès obtenus lors de la répétition de
n épreuves identiques et indépendantes, chaque épreuve ne pouvant donner
que deux résultats possibles. La variable Sn est appelé une variable binomiale .
La loi de probabilité associée à la variable de Binomiale Sn est appelée la loi de
Xn
Binomiale de paramètres n et p et est notée : Sn = Xi ∼ B(n, p).
i=1
La loi de probabilité est : P(Sn = k) = Cnk p k q n−k
Espérance et variance
X (Ω) = {0, 1, · · · , n}
L’espérance : E (X ) = np
La variance : V (X ) = npq
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 47 / 143
Lois usuelles Lois discrètes
Loi Binomiale
Exemple
On jette 10 fois de suite une pièce de monnaie équilibrée. Quelle est la
probabilité d’avoir un total de 8 piles ? Donnez l’espérance et la variance
de X la v.a. qui associe à ces 10 lancers de pièce le nombre de pile ?
Loi Géométrique
Définition
Soit X le nombre d’essais de Bernoulli nécessaires pour obtenir un premier
succès. La loi de la variable aléatoire discrète X porte le nom de loi de loi
Géométrique de paramètre p telle que : P(X = k) = pq k−1 avec
k ∈ N∗ avec q = 1 − p
La loi Géométrique de paramètre p est notée : X ∼ G(p).
Espérance et variance
X (Ω) = {1, 2, · · · }
1
L’espérance : E (X ) =
p
q
La variance : V (X ) = 2
p
Loi Géométrique
Exemple
Supposons des clients qui achètent des melons au rayon légumes du
supermarché. 30 % d’entre eux ont préalablement senti leur melon. Donner
la loi de probabilité de X, ainsi que E (X ) et V (X ). Quelle est la
probabilité que le quatrième client soit le premier à humer son achat ?
Loi Hypergéométrique
Définition
On tire sans remise n objets d’un ensemble de N objets dont m possèdent
une caractéristique particulière (et les autres N − m ne la possèdent pas).
Soit X le nombre d’objets de l’échantillon qui possèdent la caractéristique.
La loi de la variable aléatoire discrète X porte le nom de loi de loi
Hypergéométrique de paramètres N, n, m telle que :
n−k
Cmk CN−m
P(X = k) = avec k = max(0, n − N + m), · · · , min(n, m).
CNn
La loi Hypergéométrique de paramètre N, n, m est notée :
X ∼ H(N, n, m).
Espérance et variance
m
L’espérance : E (X ) = n
N
m m N − n
La variance : V (X ) = n 1−
N N N −1
Loi Hypergéométrique
Exemple
Une boı̂te contient 8 composants parmi lesquels 2 sont défectueux. Trois
composants sont pris au hasard et sans remise de la boı̂te. Soit X le
nombre de composants défectueux dans l’échantillon. Donner la loi de
probabilité de X, ainsi que E (X ) et V (X ).
Loi de Poisson
La loi de Poisson ou la loi des évènements rares s’applique souvent aux phénomènes accidentels
où la probabilité p est très faible (p < 0, 05). Elle peut également dans certaines conditions être
définie comme limite d’une loi binomiale.
Cette loi est souvent utilisée dans la modélisation des files d’attente : nombre de clients en
attente à une caisse de supermarché, nombre de conducteurs passés à un péage pendant une
période de temps, des pannes de machines, des accidents d’avions, des fautes dans un texte, etc
Définition
Soit X une v.a. à valeurs dans N. On dit que X suit une loi de Poisson de paramètre
λ(λ ∈ N+ ), notée P(λ), si :
λk e −λ
∀k ∈ N, P(X = k) =
k!
.
La loi de Poisson de paramètre λ et est notée : X ∼ P(λ).
Espérance et variance
L’espérance : E (X ) = λ
La variance : V (X ) = λ
Loi de Poisson
Exemple
A un guichet d’une banque, on sait que le nombre moyen de clients par
heure est de 12. On suppose que le nombre de clients par heure est
distribué selon une loi de Poisson. Quelle est la probabilité pour qu’en une
heure, le guichetier s’occupe de plus de 15 clients ? Donner la loi de
probabilité de X , ainsi que E (X ) et V (X ).
Approximation
Soit X ∼ H(N, n, m). Si n/N est petit alors X suit approximativement une
m
loi binomiale B(n, p), où p = :
N
n−k
Cmk CN−m k m
k m n−k
P(X = k) = ≃ Cn 1 −
CNn N N
pour k = 0, 1, 2, · · · , n
(on suggère n/N < 0, 1).
Approximation
Soit X ∼ B(n, p). Si n est grand et p est petit (de sorte que np est
modéré) alors X suit approximativement une loi de Poisson P(λ) où
λ = np :
e −np (np)k
P(X = k) = Cnk p k (1 − p)n−k ≃
k!
pour k = 0, 1, 2, · · ·
(on suggère n > 20 et p < 0, 05).
Plan
3 Lois usuelles
Lois discrètes
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Lois continues
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites
Définition
La loi uniforme est la loi exacte de phénomènes continus uniformément répartis sur un intervalle.
La variable aléatoire X suit une loi uniforme sur le segment [a, b] avec a < b si sa densité de
probabilité est donnée par : (
1
, six ∈ [a, b]
fX (x) = b−a .
0, ailleurs
Espérance et variance
b+a
L’espérance : E (X ) =
2
(b − a)2
La variance : V (X ) =
12
0,
si x < a
x−a
La fonction de répartition est : FX (x) = , si a ≤ x ≤ b .
b−a
1, ailleurs
Exemple
On considère que la mesure d’un caractère biologique chez des patients
suit une loi uniforme sur l’intervalle continu [0, 20].
1 Quelle est la probabilité d’avoir une mesure entre 14 et 18 ?
2 Quelle est la probabilité d’avoir une mesure entre 4 et 8 ?
Loi exponentielle
La loi exponentielle modélise la survie au sens large (être humains, appareils,pièces mécaniques,
etc. ).
X : temps de survie : P(X ≥ x) = e −λx = S(x)
Définition
Soit X la variable aléatoire continue définie sur un intervalle [0, +∞[. Si sa densité de
probabilité est donnée par : (
λe −λx , six ≥ 0
fX (x) = .
0, ailleurs
Espérance et variance
1
L’espérance : E (X ) =
λ
1
La variance : V (X ) = 2
λ (
1 − e −λx , si x ≥ 0
La fonction de répartition est : FX (x) = .
0, ailleurs
Loi exponentielle
Exemple
Le temps de survie de patients atteints d’un certain cancer peut être
modélisé par une loi exponentielle de moyenne 2 ans. Soit X une v.a.r. qui
associe à un patient sa durée de survie en années.
Quelle est la probabilité de survivre au bout d’un an ? 2 ans ? 5 ans ?
Généralité
On parle de loi normale lorsque l’on a affaire à une variable aléatoire continue dépendant d’un
grand nombre de causes indépendantes dont les effets s’additionnent et dont aucune n’est
prépondérante (conditions de Borel). Cette loi acquiert sa forme définitive avec Gauss (en 1809)
et Laplace (en 1812). C’est pourquoi elle porte également les noms de : loi de Laplace, loi de
Gauss et loi de Laplace-Gauss.
Elle jouit d’une importance fondamentale car un grand nombre de méthodes statistiques reposent
sur elle. Ceci est lié au fait qu’elle intervient comme loi limite dans des conditions très générales.
Pour faire ressortir toute son importance et sa forme, Youden W.J., du National Bureau of
Standards, a eu l’ingénieuse idée de la présenter telle qu’elle apparaı̂t ci-dessous.
La
loi normale
des erreurs
constitue l’une
des généralisations
les plus étendues de
la philosophie naturelle
dans l’histoire de l’humanité.
Elle est un outil précieux pour la
recherche en sciences physiques et
sociales ainsi qu’en médecine, en agriculture
et en génie. Elle est indispensable à l’analyse et à
l’interprétation des données obtenues par l’observation ou
l’expérience.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 62 / 143
Lois usuelles Lois continues
Loi Normale
Exemple d’application
Ainsi la taille corporelle d’un animal dépend des facteurs
environnementaux (disponibilité pour la nourriture, climat, prédation,
etc.) et génétiques. Dans la mesure où ces facteurs sont indépendants
et qu’aucun n’est prépondérant, on peut supposer que la taille
corporelle suit une loi normale.
En métrologie, pour la distribution des erreurs d’observation.
En météorologie, pour la distribution de phénomènes aléatoires tels
que la température et la pression.
En biologie, pour la distribution de caractères biométriques comme la
taille ou le poids d’individus appartenant à une population homogène.
En technologie, pour la distribution des cotes des pièces usinées.
En économie, pour les fluctuations accidentelles d’une grandeur
économique (production, ventes, ....) autour de sa tendance, etc.....
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 63 / 143
Lois usuelles Lois continues
Loi Normale
Définition
Soit X une la variable aléatoire continue définie sur R.
Si sa densité de probabilité est donnée par :
1 1 x−µ 2
fX (x) = √ e− 2 ( σ )
σ 2π
avec µ ∈ R et σ ∈ R+
La loi normale de paramètre (µ; σ) est notée X ∼ N (µ, σ).
Espérance et variance
L’espérance : E (X ) = µ
La variance : V (X ) = σ 2
lim fX (x) = 0
x→±∞
Cette loi est symétrique par rapport à µ : FX (−x) = 1 − FX (x) et fX (µ + x) = fX (µ − x)
(symétrie par rapport à l’axe x = µ).
fX atteint son maximum en x = µ (µ est le mode de X )
Les points d’inflexion du graphe de fX sont x = µ ± σ.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 64 / 143
Lois usuelles Lois continues
0.6
0.5
0.4
0.3
f(z)
0.2
0.1
0.0
−4 −2 0 2 4
1.0
0.8
0.6
F(z)
0.4
0.2
0.0
−4 −2 0 2 4
Loi Normale
Fonction de répartition
La fonction de répartition est :
Zx
1 1 t−µ 2
FX (x) = P(X ≤ x) = √ e − 2 ( σ ) dt.
σ 2π
−∞
Problème
FX (x) n’a pas d’expression explicite (analytique) en fonction de x ! !
Solution
Nécessité d’utiliser des tables
Méthode des trapèzes : autant de calculs de lois possibles
On utilise une normalisation (centrée-réduite, standardisation) pour
utiliser une seule table
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 67 / 143
Lois usuelles Lois continues
Conséquence
Si X ∼ N (µ, σ) alors Z ∼ N (0, 1)
La fonction de répartition de Z , notée Φ(z), est tabulée
Souvent notée X ⋆ ou U la variable standardisée
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 68 / 143
Lois usuelles Lois continues
Loi Normale
Exemple
Le poids des bébés à la naissance suit une loi normale de moyenne 3,3 Kg
et d’écart-type 0,6 Kg. On note X la variable aléatoire ”poids des bébés à
la naissance”.
Calculer la probabilité que 2, 12 ≤ X ≤ 4, 48
Déterminer la limite du poids correspondant aux 10% des bébés les
plus gros.
Loi Normale
Additivité
Soit X1 , X2 , · · · , Xn des variables aléatoires indépendantes avec
Xi ∼ N (µi , σi ). pour tout i.
Soit Y = a0 + a1 X1 + a2 X2 + · · · + an Xn .
Alors Y ∼ N (µ, σ). où
µ = a0 + a1 µ1 + a2 µ2 + · · · + an µn
σ = a12 σ12 + a22 σ22 + · · · + an2 σn2
Approximation
Soit B(n, p) une variable aléatoire suivant une loi binomiale. Alors X est la
somme de variables de Bernoulli indépendantes de paramètre p.
Si n est grand alors
p X suit approximativement une loi normale
N (µ = np, σ = np(1 − p)).
Cette approximation est bonne si :
1
np > 5 lorsque p ≤ .
2
1
n(1 − p) > 5 lorsque p > .
2
ou
n
1X σ
X = Xi ∼ N (nµ, √ ).
n i=1 n
Si les lois des Xi sont proches d’une loi normale alors pour n ≥ 4
l’approximation donnée par le théorème central limite est bonne.
Si les lois des Xi sont moyennement proches d’une loi normale (p. ex.
loi uniforme) alors pour n ≥ 12 l’approximation donnée par le
théorème central limite est bonne.
Si les lois des Xi ne sont pas proches d’une loi normale alors pour
n ≥ 100 l’approximation donnée par le théorème central limite sera
bonne (par exemple fonction de densité très asymétrique).
Voici, lorsqu’elle s’applique, une méthode de travail qui peut guider votre
démarche.
1 Suite à l’énoncé du problème, identifier correctement à l’aide de mots
la variable aléatoire que vous allez considérer.
2 Préciser les valeurs possibles que peut prendre cette variable.
3 Identifier correctement la loi de probabilité qu’elle suit en essayant de
reconnaı̂tre dans le problème une situation type.
4 Déterminer les paramètres de la loi.
5 Utiliser les formules théoriques ou les tables pour déterminer les
probabilités demandées. Face à de longs calculs et en l’absence de
tables correspondant à vos ou votre paramètre, penser à approcher
votre loi par une autre.
Plan
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites
4 Statistique descriptive
Introduction
Terminologie
Définition
La statistique descriptive est un ensemble de méthodes (représentations
graphiques et calculs de caractéristiques numériques) permettant de faire
une synthèse statistique de données. Les données à examiner proviennent
généralement d’un échantillon.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 81 / 143
Statistique descriptive Terminologie
Plan
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites
4 Statistique descriptive
Introduction
Terminologie
Mesure et variable
Un individu est décrit par un ensemble de critères qu’on appellera
variables ou caractères.
Lorsqu’on mène une étude statistique on s’intéresse à des unités
statistiques ou unités d’observation :
par exemple des individus, des entreprises, des ménages. Dans la
pratique, on s’intéresse dans la plupart des cas à un nombre fini
d’unités.
Sur ces unités, on mesure un caractère ou une variable, le chiffre
d’affaires de l’entreprise, le revenu du ménage, l’âge de la personne, la
catégorie socioprofessionnelle d’une personne, la précipitation.
On suppose que la variable prend toujours une seule valeur sur chaque
unité. Les variables sont désignées par simplicité par une lettre
majuscule (X, Y, Z).
Les valeurs possibles de la variable, sont appelées modalités.
L’ensemble des valeurs possibles ou des modalités est appelé le
domaine de la variable .
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 84 / 143
Statistique descriptive Terminologie
Exemple
Les modalités de la variable sexe sont masculin (codé M) et féminin (codé F). Le domaine
de la variable est {M, F }.
Les modalités de la variable nombre d’enfants par famille sont 0,1,2,3,4,5,. . .C’est une
variable quantitative discrète.
Méthodologie
Une étude statistique débute par la collecte des données : les observations
« brutes »sont obtenues après enquête, mesures etc. C’est à ce niveau qu’intervient
les méthodes d’échantillonages (non abordées dans ce chapitre).
Une fois les données collectées, et avant d’apporter des réponses précises aux
questions posées au préalable de l’étude, il convient d’analyser ces données. Cette
analyse à pour but de synthétiser, résumer et structurer l’information contenue
dans les données à l’aide de tableaux, graphiques et résumés numériques. C’est
l’objet de la statistique descriptive, ou exploratoire, qui est l’objet de ce chapitre.
Cette analyse se fait sur l’échantillon qu’on a à disposition.
Cette description des données n’est en général pas suffisante. Une bonne étude
statistique consiste en formuler et valider des hypothèses relative à la population
totale. Le but est d’étendre les résultats observés précédement à toute la
population, en étudiant le risque d’erreur possible. C’est le but de l’inférence
statistique (qui ne sera pas abordée dans ce chapitre).
Lien statistique/Probabilité
Il existe des équivalences entre les termes utilisés en statistique et la probabilié (voir le
tableau ci-dessous).
Probabilité Statistique
Espace fondamental Population
Epreuve Tirage (d’un individu), expérimentation
Evènement élémentaire Individu, observation
Variable aléatoire Caractère
Epreuves répétées Echantillonnage
Nbre de répétitions d’une épreuve Taille de l’échantillon, effectif total
Probabilité Fréquence observée
Loi de probabilité Distribution observée ou loi empirique
Espérance mathématique Moyenne observée
Variance Variance observéee
Tableaux statistiques
Tableau de contingence
Pour les variables qualitatives, on peut construire un tableau de contingence. Ce tableau résume comment une caractéristique
dépend d’une autre. Pour des raisons pratiques, on se limite généralement au tableau de contingence de deux variables
qualitatives X et Y de modalités respectives (x1 , · · · , xi , · · · , xI ) et (y1 , · · · , yj , · · · , yJ ). Ce tableau donne le nombre
d’individus possédant simultanément la modalité xi de la variable X et la modalité yj de la variable Y . Un tel tableau se
présente sous la forme suivante, pour un échantillon de taille n :
XY y1 · yj · yJ
x1 n11 n1j n1J n1•
. . .
. . .
. . . n1•
xi ni1 nij niJ ni•
. . .
. . .
. . . n1•
xI nI 1 nIj nIJ nI •
n•1 n•j n•J n
où nij désigne le nombre de fois où X à pris la modalité xi et Y la modalité yj . Autrement dit, nij représente le nombre
d’individus qui possède à la fois la caractéristique xi et la caractéritique yj . On définit les quantités
J
X I
X
ni• = nij et n•j = nij
j=1 i=1
qui représentent respectivement le nombre d’individus qui possèdent la modalitée xi et le nombre d’individus avec la modalitée
yj .
k
X
Nk = ni
i=1
K
X
FK = fk = 1
k=1
On peut aussi définir les effectifs cumulés :
Défauts relevés sur une pièce de tissu : Un fabricant de tissu essaie une nouvelle
machine ; il compte le nombre de défauts sur 75 échantillons de 10 mètres. Il a trouvé les
résultats suivants :
Les fréquences relatives et les fréquences cumulées relatives peuvent être utilisées
pour comparer deux ou plusieurs populations.
Dans le cas d’une distribution continue, les données sont en général regroupées en
classes. Les fréquences absolues, relatives et cumulées sont définies par rapport aux
classes et non par rapport aux valeurs de la variable.
Variable continue Dans le cas où la variable X est continue, la réalisation d’un tableau
de fréquence nécessite au préalable une répartition en classes des données. On doit
définir a priori le nombre de classes K et l’amplitude (ou l’étendue) de chaque classe. Ce
choix doit résulte d’un compromis entre deux objectifs antagonistes : résumer les
données (K ne doit pas être trop grand) sans perdre l’information pertinente (K ne doit
pas être trop petit). Pour ce faire, un moyen « simple » est de diviser l’étendue des
données en plusieurs intervalles de même longueur, puis l’on regroupe les classes
d’effectifs trop petit (ie moins de 5 individus). On peut utiliser une des deux règles
suivantes pour déterminer le nombre de classes :
10
Règle de Sturge : K = 1 + log10 (n)
3
1
Règle de Yule : K = 2.5n 4
Représentations graphiques
X1 X2 X3 X4 Modalités
Variables quantitatives
Avant toute tentative de représentation,Effectif il you Fréquence
a lieu de distinguer entre variable discrète et
variable classée (regroupements en classes). Si pour une variable continue le regroupement en
classes est nécessaire, lorsque les modalités d’une variable discrète sont trop nombreuses il est
préférable de regrouper des modalités pour obtenir une variable classée, afin que les graphiques
synthétisent l’information et restent lisibles.
On considère une variable statistique quantitatives X prenant ses valeurs parmis K modalités ou
classes x1 , · · · , xk , · · · , xK . On suppose les modalités (ou classes) ordonnées telles que
x1 < · · · < xk < · · · < xK . On utilise le tableau de fréquence pour construire les graphiques
définis par la suite. Deux types de graphiques sont intéressants à représenter :
(1) Les diagrammes différentiels qui mettent en évidence les différences d’effectifs
(ou de fréquences) entre les différentes modalités ou classes.
X2 X3
X1
X4
Diagrammes différentiels :
Variables discrètes Pour les caractères quantitatifs discrets, la représentation graphique
différentielle est le diagramme en bâtons où la hauteur des bâtons correspond à l’effectif Nk (ou
la fréquence relative fk ) associé à chaque modalité du caractère xk .
Les valeurs discrètes prises par les modalités sont placées sur l’axe des abscisses,
ordonnées comme il se doit.
Les effectifs ou fréquences sont placées sur l’axe des ordonnées.
Les axes sont fléchés.
La hauteur du bâton est proportionnelle à l’effectif ou la fréquence.
Attention : bien faire des batons et non des tuyaux ou des histogrammes.
Effectif ou Fréquence
X1 X2 X3 X4 Modalités
Variables continues. Lorsque les caractères quantitatifs sont continus, on utilise l’histogramme.
Un histogramme est ensemble de rectangles contigus où chaque rectangle associé à chaque
classe a une surface proportionnelle à l’effectif (fréquence) de cette classe. Si les classes sont
d’amplitudes égales, alors la hauteur des rectangles est proportionnelle à l’effectif de la
classes.Avant toute construction d’histogramme, il faut donc regarder si les classes sont
d’amplitudes égales ou non.
Les modalités (continues) sont représentés en abscisses. Le cas des classes d’amplitudes égales
ne pose aucune difficulté car il suffit de reporter en ordonnée l’effectif (la fréquence). Si les
nk
classes sont d’amplitudes différentes, on reporte en ordonnée la densité dk = .
Lk
Figure – Histrogramme
L’histogramme est un outil statistique facile à utiliser, donnant rapidement une image du
comportement d’un procédé et l’allure globale de la distribution ; il montre l’étalement des
données et apporte ainsi des renseignements sur la dispersion et sur les valeurs extrêmes ; il
permet de déceler, éventuellement, des valeurs aberrantes.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 107 / 143
Statistique descriptive Terminologie
Pour tout réel x,F b est donc la proportion d’observations inférieurs ou égales à x. La fonction F b
est une fonction en escalier. Le calcul pratique de F b s’effectue en ordonnant les n observations
X (ω1 ), · · · , X (ωn ) par ordre croissant. On note x1′ , · · · , xI′ les I valeurs distinctes obtenues et ni
l’effectif de xi′ .
On utilise la fonction de répartition empirique pour répondre aux questions du style : Quel est le
nombre (ou le pourcentage) d’individus dont la valeur du caractère est inférieure ou égale à x ?
Polygone de fréquences
Il permet de représenter sous forme de courbe, la distribution des
fréquences absolues ou relatives. Il est obtenu en joignant, par des
segments de droite, les milieux des côtés supérieurs de chaque rectangle de
l’histogramme. Pour fermer ce polygone, on ajoute à chaque extrémité une
classe de fréquence nulle.
Étude de la dispersion d’un lot de 400 résistances : On a contrôlé 400 résistances dont la
valeur nominale est égale à 100 kΩ et on a regroupé les résultats en classes d’amplitude 2 kΩqui
représente environ le dixième de la dispersion totale de l’échantillon contrôlé.
Les classes étant toutes de même amplitude, l’histogramme est facile à tracer ; il suffit de
construire des rectangles dont l’aire est proportionnelle à la fréquence des résistances de la classe
correspondante.
Mesures de tendance
On considère sur un échantillon de n individus la variable statistique X = (X1 , X2 , · · · , Xn )
Indicateurs de tendance centrale : Les mesures de tendance centrale permettent de résumer un
ensemble de données relatives à une variable quantitative. Elles permettent de déterminer une
valeur « typique » ou centrale autour de laquelle des données ont tendance à se rassembler.
Moyennes : L’indicateur le plus couramment utilisé est la moyenne empirique ou moyenne
arithmétique.
n
X
Xi
X1 + X2 + · · · + Xn i=1
X = =
n n
k
X
ni vi
i=1
Sur une série discrète la moyenne est : X = où vi est la modalité de la série et dans le
n
k
X
ni ci
i=1
cas de série continue classée X = où ci représente le centre de la classe i.
n
n−k
1 X
Xk = Xi
n − 2k i=k+1
Cette moyenne s’obtient en fait en supprimant les k plus petites valeurs et les k plus grandes
valeurs d’une observations.
Il existe d’autres moyennes, dont on donne la définition pour les plus courantes.
L’utilisation de la moyenne géométrique fait sens si les valeurs ont un caractère multiplicatif.
Définition : Moyenne harmonique : On appelle moyenne harmonique de X la quantité
n n
Mh (X ) = 1 1 1
= n
X
+ X
+ · · · + X
X 1
1 2 n
i=1
Xi
On utilise la moyenne harmonique lorsqu’on veut déterminer un rapport moyen dans des
domaines ou ils existent des liens de proportionnalité inverse.
Définition : Moyenne quadratique :On appelle moyenne quadratique de X la quantité
v
u n
u1 X
Mq (X ) = t X2
n i=1 i
Quantiles
Les quantiles permettent de donner des indications du type « 1 personne sur 10 a moins de tel
âge ».
La médiane est un indicateur de tendance centrale (plus robuste que la moyenne empirique) qui
divise la population en deux parties, qui ont le même nombre d’individus. Autrement dit, elle
sépare l’échantillon en deux parties égales.
La formule de la médiane ci-dessous est valable pour les variables discrètes. Si les variables sont
continues, la médiane Me obtenue est dans l’intervalle [xk−1 ; xk [ avec la condition
0.5 − Fk−1
Fk−1 ≤ 0.5 < Fk par l’interpolation linéaire : Me = xk−1 + (xk − xk−1 )
Fk − Fk−1
Propriété :
Le calcul de la médiane est rapide.
La médiane n’est pas influencée par les valeurs extrêmes ou aberrantes.
La médiane est influencée par le nombre des données mais non par leurs valeurs, elle ne
peut donc pas être utilisée en théorie de l’estimation.
Si la variable statistique est discrète, la médiane peut ne pas exister ; elle correspond
seulement à une valeur possible de cette variable.
La médiane est le point d’intersection des courbes cumulatives croissante et décroissante.
La médiane ne se prête pas aux combinaisons algébriques ; la médiane d’une série globale
ne peut pas être déduite des médianes des séries composantes.
Exemple : Dispersion d’un lot de 400 résistances ; Calcul de la moyenne arithmétique :
1
X = 400 (93 ∗ 10 ∗ 1 + 95 ∗ 15 + 97 ∗ 40 + · · · + 111 ∗ 10) = 101, 90 La moyenne
400
arithmétique est égale à 101,90 kΩ. Médiane : la série des observations comporte un nombre
pair de classes. On peut définir une classe médiane comme la moyenne des classes V et VI,
c’est-à-dire la classe fictive [101, 103[ donc une résistance égale à 102 kΩ. Un calcul plus précis
consiste à chercher la valeur de la résistance de l’individu occupant le rang 200 (ou 200,5 !). Ne
connaissant pas la distribution à l’intérieur des classes, on fait une interpolation linéaire. Le
tableau de l’exemple ?? montre que cet individu appartient à la classe V.
125 résistances ont une valeur nominale inférieure à 100 kΩ et 215 résistances ont une valeur
2 ∗ (200 − 125)
nominale inférieure à 102 kΩ d’où le calcul de la médiane : 100 + = 101, 66.
215 − 125
La médiane est égale à 101,66 kΩ. Donc, 200 résistances ont une valeur nominale inférieure ou
égale à 101,66 kΩ et 200 résistances ont une valeur nominale supérieure à 101, 66 kΩ.
Le point d’intersection des deux courbes cumulatives a pour abscisse la médiane.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 117 / 143
Statistique descriptive Terminologie
Exemple : On considère les séries d’observations suivantes. Série I : 5 observations classées par
ordre croissant, 2, 5, 8, 11, 14
Moyenne arithmétique 8, médiane 8
Série II : 6 observations classées par ordre croissant, 6, 6, 14, 16, 18, 18
Moyenne arithmétique 13, médiane 15
Série III : les deux séries précédentes réunies, 2, 5, 6, 6, 8, 11, 14, 14, 16, 18, 18
Moyenne arithmétique 10,72, médiane 11
Plus généralement, on peut définir une valeur qui sépare l’échantillon en deux parties de tailles
approximativement égale à αN, où α ∈]a, b[. Une telle valeur est appelée quantile ou fractile
empirique d’ordre α. Plusieurs définitions existent, et l’on donne la suivante :
Les quantiles les plus utilisés sont les quartiles et les déciles. Les quartiles divisent les
observations en 4 parties (Q25% , Q50% , Q75% ). Les déciles divisent l’ensemble des observations
en 10 parties : (Q10% , Q20% , Q30% , Q40% , Q50% , Q60% · · · )
Enfin, un indicateur de position souvent utilisé dans le cas d’un caractère discret est le mode,
défini comme la valeur la plus fréquente dans la série d’observation (cette valeur n’est pas
nécessairement unique). Dans le cas d’un caractère continu, cette notion ne s’applique pas
directement, mais on peut définir une classe modale, lorsque les données ont été préalablement
catégorisées.
Les mesures données ci-dessus possèdent les deux propriétés suivantes, qui permettent de savoir
comment les données se comportent si elles subissent une translation ou un changement
d’échelle. Intuitivement, le « centre » d’une distribution doit « suivre »la transformation car
celle-ci ne pertube pas la position relative des points observés.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 118 / 143
Statistique descriptive Terminologie
Le mode : Le mode est la valeur de la variable statistique la plus fréquente que l’on observe
dans une série d’observations.
Si la variable est une variable discrète, le mode s’obtient facilement. Si la variable est une
variable continue, on définit une classe modale.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 120 / 143
Statistique descriptive Terminologie
Propriété :
Le mode n’existe pas toujours et quand il existe, il n’est pas toujours unique.
Si après regroupement des données en classes, on trouve deux ou plusieurs modes
différents, on doit considérer que l’on est en présence de deux ou plusieurs
populations distinctes ayant chacune leurs caractéristiques propres ; dans ce cas, la
moyenne arithmétique n’est pas une caractéristique de tendance centrale.
Exemple : Dispersion d’un lot de 400 résistances : On ne peut pas définir une valeur
modale en ne connaissant pas la distribution à l’intérieur de chaque classe. On définit
une classe modale, c’est la classe V.
Exemple : Avec l’exemple sur les séries d’observation. Série I : pas de mode.
Série II : deux modes 6 et 18.
Série III : les deux séries réunies, trois modes 6, 14 et 18.
Remarque : Pour définir n’importe quelle caractéristique (excepté la moyenne
arithmétique), il faut que les données soient classées en ordre croissant (ou décroissant).
Pour le calcul de la médiane, on peut trouver un résultat différent selon que les données
sont classées par ordre croissant ou décroissant.
Indicateurs de dispersion
Comme le nom l’indique, les indicateurs de dispertions permettent de mesurer comment les
données se « répartissent ». On peut définir deux types de mesure de dispersions :
♠ Les mesures définies par la distance entre deux valeurs représentatives de la
distribution
♠ Les mesures calculées en fonction de la déviation par rapport à une valeur
centrale
Définition : Étendue : L’étendu d’une série statistique est l’écart entre sa plus grande valeur et
sa plus petite.
e = max X − min X
Ce dernier indicateur est très peu robuste. On lui préférera souvent l’intervalle inter-quartile.
Un premier moyen de mesurer la dispersion des données autour de la moyenne est l’écart moyen
absolu.
Propriété :
L’étendue est facile à calculer.
Elle ne tient compte que des valeurs extrêmes de la série ; elle ne dépend ni du nombre, ni
des valeurs intermédiaires ; elle est très peu utilisée dès que le nombre de données dépasse
10.
Elle est utilisée en contrôle industriel où le nombre de pièces prélevées dépasse rarement 4
ou 5 ; elle donne une idée appréciable de la dispersion. Cependant, dès que cela est
possible, on préfère prélever 15 à 20 unités et utiliser l’écart-type pour apprécier la
dispersion.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 122 / 143
Statistique descriptive Terminologie
Définition : Écart moyen absolu : L’écart moyen absolu est définie par la
quantité
n
1X
|Xi − X |
n
i=1
Variance empirique
n
1X
σ2 = (Xi − X )2
n i=1
Un moyen pratique de calculer la variance empirique est donné par la proposition suivante :
Proposition :
n
1X 2 2
σ2 = X −X
n i=1 i
Proposition : à démontrer
Cet estimateur pose un autre problème : il est biaisé. On utilise alors en pratique une version
corrigée
n
∗2 1 X 2 2
σ = Xi − X
n − 1 i=1
Proposition :
∗2 n 2
σ = σ
n−1
Enfin, pour avoir une quantité qui s’exprime dans la même unité que la moyenne (l’unité de la variance est l’unité de la moyenne
élevée au carré), on utilise l’écart-type.
Définition : Écart-type : On définit l’écart type empirique comme la racine de la variance empirique :
v
p u
u1 X n
σ= σ2 = t (Xi − X )2
n i=1
Propriété
L’écart-type caractérise la dispersion d’une série de valeurs. Plus σ est petit, plus les
données sont regroupées autour de la moyenne arithmétique X et plus la population est
homogène ; cependant avant de conclure, il faut faire attention à l’ordre de grandeur des
données.
L’écart-type permet de trouver le pourcentage de la population appartenant à un
intervalle centré sur l’espérance mathématique.
La variance tient compte de toutes les données, c’est la meilleure caractéristique de
dispersion (nombreuses applications en statistique).
Exemple : Séries d’observations de l’exemple précédent :
Série I
Variance : 18
Écart-type : 4,24
Série II
Variance : 26,33
Écart-type : 5,13
Série III (les deux séries réunies)
Variance : 28,75
Écart-type : 5,36
n
1X
Pour une série discrète la variance est : σ 2 = ni (vi − X )2 où vi représente la modalité de
n i=1
la variable discrète et dans le cas d’une variable continue (intervalle) on a
n
1X
σ2 = ni (ci − X )2 avec ci est le centre de la classe i.
n i=1
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 126 / 143
Statistique descriptive Terminologie
Coefficient de variation
σ
CV = ∗ 100
X
.
Propriété :
Le coefficient de variation ne dépend pas des unités choisies.
Il permet d’apprécier la représentativité de la moyenne arithmétique X par rapport à
l’ensemble des données.
Il permet d’apprécier l’homogénéité de la distribution, une valeur du coefficient de
variation inférieure à 15 % traduit une bonne homogénéité de la distribution.
Il permet de comparer deux distributions, même si les données ne sont pas exprimées avec
la même unité ou si les moyennes arithmétiques des deux séries sont très différentes.
Quelques exemples de coefficient de variation : le coefficient de variation du régime nival
est voisin de 0,1 ; celui d’un cours d’eau régulier de 0,3 mais il peut atteindre 0,5 et même
1 pour un cours d’eau irrégulier.
Indicateurs de forme
Les indicateurs de forme donnent une idée de la symétrie et de l’aplatissement d’une
distribution. Leur usage est moins fréquent.
Distribution symétrique Une série a une distribution symétrique si ses valeurs sont également
dispersées de part et d’autre de la valeur centrale, c’est-à-dire si le graphe de la distribution -
histogramme ou diagramme en bâton en fréquences - admet une axe de symétrie.
Dans une distribution parfaitement symétrique, Me = X = Mode Coefficient d’asymétrie de
Pearson :
X − Me
δ=
σ
. On a −1 ≤ δ ≤ 1.
Si δ = 0 alors la symétrie parfaite.
Si δ < 0 alors la série étalée à gauche.
Si δ > 0 alors la série étalée à droite.
Coefficient de Yule
Q3 + Q1 − 2Me
q=
Q3 − Q1
Applatissement : Une distribution est plus ou moins aplatie selon que les
fréquences des valeurs voisines des valeurs centrales diffèrent peu ou
beaucoup les une par rapport aux autres.
m4
coefficient d’aplatissement de Fisher ou kurtosis : a = 4 avec
σ
Xn
4
m4 = (xi − X )
i
Si a = 3 pour une distribution qui suit une loi normale centrée réduite.
Si a < 3 la concentration des valeurs de la série autour de la moyenne
est forte : la distribution n’est pas aplatie.
Si a > 3 la concentration des valeurs autour de la moyenne est faible :
la distribution est aplatie.
Indicateurs de concentration
Ces caractéristiques sont utilisées pour une grandeur positive cumulative telle que le revenu, la
consommation ...
La concentration est définie pour les variables statistiques positives en utilisant la notion de
valeurs globales.
On appelle la valeur globale totale :
Xr
G = xj pour un caractère discret et des observations non groupées.
j=1
r
X
G = nj xj pour un caractère discret et des observations groupées. pour un caractère continu,
j=1
xi est remplacé par le centre de classe ci .
La valeur globale absolue partielle gi de la modalité i s’exprime par : gi = ni xi pour un
caractère discret et gi = ni ci pour un caractère continu.
Xi
La valeur globale absolue cumulée Gi = gj .
j=1
gi
La valeur globale relative partielle qi = .
G
r
X Gi
La valeur globale relative cumulée Qi = qj = où r est le nombre de classe.
j=1
G
Fi
Le graphique le plus adapté pour observer les variations simultanées de deux variables
quantitatives est le nuage de points (ou scatter-plot), représentant les n points de coordonnées
(xi , yi )dans un repère du plan.
Propriété :
c’ est une forme bilinéaire symétrique qui peut prendre toute valeur réelle et dont la
variance est la forme quadratique associée. On a (idem pour cov ∗ (x, y )).
ρ(ax + by , z) = aρ(x, z) + bρ(y , z) ; ρ(x, ay + bz) = aρ(x, y ) + bρ(x, z) ;
ρ(x, y ) = ρ(y , x) ; ρ(x, x) = σ 2 .
n−1
formule de Koenig généralisée : ρ(x, y ) = ρ(x, y )∗ = xy − xy
n
Lorsque le nuage de points est allongé suivant une direction de droite, on a affaire à une
corrélation linéaire entre x et y . L’intensité de la dépendance est alors mesurée par le coefficient
de corrélation linéaire.
Propriété :
Symétrie : r (x, y ) = r (y , x).
Le coefficient de corrélation linéaire est compris entre -1 et 1.
Evaluation du lien linéaire entre 2 variables quantitatives Il y a corrélation positive lorsque les
variations de x et y se produisent dans le même sens, corrélation négative sinon. Plus les points
sont étroitement alignés, plus la corrélation est proche de 1.
| r |= 1 si l’on a une relation de type linéaire entre les variables.
r = 0 si il n’existe aucun lien linéaire entre X et Y . On dit que les variables sont non
corrélées.
La covariance dépend des unités de mesure dans lesquelles sont exprimées x et y . Le coefficient
de corrélation est un indice de liaison « intrinsèque ».
La covariance et le coefficient de corrélation ne permettent de mettre en évidence qu’une
relation linéaire entre x et y .
Si deux variables sont statistiquement indépendantes (aucun lien), la corrélation est nulle, mais
l’inverse est faux : il peut exister un lien autre que linéaire entre elles.
Choix des échelles : Dans le cas de deux variables homogènes (exprimées dans la même unité),
on prend la même échelle sur les deux axes ; dans le cas de deux variables hétérogènes, il est
préférable de représenter les points de la série centrée et réduite ou de choisir des échelles
appropriées (automatique avec la plupart des logiciels).
Définition : La régression linéaire : Lorsqu’il y a liaison fonctionnelle entre x et y on dit qu’il y
a régression de y en x ou y est expliquée par x si y = f (x). La courbes représentative de f (x)
est appelée courbe de régression. Il y a régression linéaire lorsque la courbe de régression est une
droite si et seulement si | r |= 1 . Lorsque r ≃ 1, le nuage de points est distribué autour d’une
droite. On admet alors qu’approximativement y ≃ f (x), et que les différences constatées sont
dues aux fluctuations d’échantillon et diverses erreurs d’observation qui surviennent de manière
aléatoire.
Il existe alors deux réels a et b tels que y ≃ ax + b. Y = aX + b est l’équation de la droite de
régression de y en x .
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 134 / 143
Statistique descriptive Terminologie
n
X
a et b
b b sont tels que ei2 = S(b b) = (yi − b
a, b b)2 est minimal. Ce sont les
ax − b
i=1
coefficients de la régression ou estimations des moindres carrésde a et b. S(b a, b
b) sera
∂S ∂S
minimum lorsque = = 0.
∂ba ∂b
b Pn
i=1 (xi − x)(yi − y ) cov (x, y )
Après résolution on obtient : b
a= Pn = b = y −b
et b ax.
i=1 (xi − x) 2 ρ2x
♣ La droite d’ajustement y = b ax + bb s’appelle droite de régression ou des
moindres carrés.
♣ La valeur yi = b b s’appelle la i ème valeur estimée. C’est la valeur
axi + b
moyenne de Y lorsque X = xi . C’est aussi la prévision de Y pour une
observation telle que X = xi .
♣ La valeur ei = yi − ybi s’appelle le i ème résidu. On peut montrer que :
Xn
ei = 0
i=1
liaison entre 2 variables qualitatives : On suppose que les deux variables étudiées sont des
variables discrètes et que les caractères sont des caractères quantitatifs. Les tableaux statistiques
portent le nom de tableaux croisés ou tableaux de contingence.
Dans chaque case du tableau, on écrit l’effectif nij de l’échantillon, c’est-à-dire le nombre de
données tel que X = xi et Y = yj . On définit les fréquences absolues suivantes :
q
X Pp
Les fréquences marginales : ni• = nij et n•j = i=1 nij
j=1
La fréquence marginale ni• . est donc le nombre d’individus possédant la modalité i du
caractère X quelle que soit la distribution du caractère Y ; par exemple tous les individus
ayant le même poids quelle que soit leur taille.
Les fréquences conditionnelles sont définies pour chaque valeur de i et j.
La fréquence conditionnelle nj/i est la distribution de la variable Y quand on a fixé la
modalité i pour la variable X ; on s’intéresse, par exemple, à la répartition des tailles des
nij
individus ayant tous le même poids. Elle est définie par : nj/i =
ni•
nij
On définit de la même façon la fréquence conditionnelle nj/i par : nj/i = .
n•j
On s’intéresse, par exemple, à la répartition des poids des individus ayant tous la même
taille.
Les fréquences relatives fij , fi• et f•j sont obtenues en divisant les effectifs nij et les
fréquences marginales ni• et n•j par l’effectif total n.
Les distributions X et Y sont statistiquement indépendantes si et seulement si :
fij = fi• f•j pour toutes les valeurs des indices i et j.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 137 / 143
Statistique descriptive Terminologie
Échantillonnage et estimation
Tests d’hypothèses
Bibliographie