0% ont trouvé ce document utile (0 vote)
57 vues146 pages

Cours de Probabilité et Statistique

Le document présente un cours de Probabilité et Statistique dispensé par Dr Malicki ZOROM à l'Institut 2iE. Il aborde des concepts fondamentaux tels que les arrangements, combinaisons, et les lois de probabilité, ainsi que des notions de base sur les événements aléatoires. Le plan du cours inclut des sujets variés allant de la probabilité à l'échantillonnage et aux tests d'hypothèses.

Transféré par

ouedraogomahaomed03
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
57 vues146 pages

Cours de Probabilité et Statistique

Le document présente un cours de Probabilité et Statistique dispensé par Dr Malicki ZOROM à l'Institut 2iE. Il aborde des concepts fondamentaux tels que les arrangements, combinaisons, et les lois de probabilité, ainsi que des notions de base sur les événements aléatoires. Le plan du cours inclut des sujets variés allant de la probabilité à l'échantillonnage et aux tests d'hypothèses.

Transféré par

ouedraogomahaomed03
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Probabilité et Statistique

Dr Malicki ZOROM

Cours de Probabilité et Statistique de S4 et S6D


”Département Science et Techniques de l’Ingénieur”
email: [email protected]
Institut 2iE
6 novembre 2024

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 1 / 143


Plan

1 Probabilité

2 Variables aléatoires

3 Lois usuelles

4 Statistique descriptive

5 Échantillonnage et estimation

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 2 / 143


Plan

1 Probabilité

2 Variables aléatoires

3 Lois usuelles

4 Statistique descriptive

5 Échantillonnage et estimation

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 2 / 143


Plan

1 Probabilité

2 Variables aléatoires

3 Lois usuelles

4 Statistique descriptive

5 Échantillonnage et estimation

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 2 / 143


Plan

1 Probabilité

2 Variables aléatoires

3 Lois usuelles

4 Statistique descriptive

5 Échantillonnage et estimation

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 2 / 143


Plan

1 Probabilité

2 Variables aléatoires

3 Lois usuelles

4 Statistique descriptive

5 Échantillonnage et estimation

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 2 / 143


Plan

6 Tests d’hypothèses

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 3 / 143


Probabilité Rappel sur les dénombrements

Plan

1 Probabilité
Rappel sur les dénombrements
Probabilité
Probabilité conditionnelle
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 4 / 143


Probabilité Rappel sur les dénombrements

Arrangements et permutations
Envisageons un ensemble de n objets différents. Choisissons maintenant r de ces n objets et ordonnons les.

Définition

Une disposition ordonnée de r objets distincts pris parmi n est appelée arrangement de r objets pris parmi n (on a
obligatoirement r ≤ n).

Combien y en a-t-il ?
Pour compter le nombre total d’arrangements de r objets pris parmi n, il suffit de considérer les r positions comme fixées et de
compter le nombre de façons dont on peut choisir les objets pour les placer dans ces r positions. C’est une expérience à r étapes
où l’on applique la technique du paragraphe précédent. Pour la première position, on a n choix possibles. Pour la deuxième
position, on a n − 1 choix possibles... Pour la r -ième position, on a n − r + 1 choix possibles. Si on désigne par Arn le nombre
total d’arrangements cherchés, l’arbre aura Arn branches terminales. On conclut Arn = n(n − 1)(n − 2) · · · (n − r + 1) = (n−r n! .
)!

rappel

n! (lire “factorielle n”) est le produit de tous les entiers jusqu’à n, n! = n(n − 1)(n − 2) · · · 3.2.1. Par convention, 0! = 1.

Exemple : Les arrangements de deux lettres prises parmi 4 lettres {a, b, c, d} sont au nombre de A24 = 4! 2!
= 12. Ce sont :
(a, b), (a, c), (a, d), (b, a), (b, c), (b, d), (c, a), (c, b), (c, d), (d, a), (d, b), (d, c).
Cas particulier : r = n Il s’agit d’ordonner n objets entre eux, c’est-à-dire d’effectuer une permutation de ces n objets.

Définition

Une permutation de n éléments est une disposition ordonnée de ces n éléments.

Les permutations de n éléments sont au nombre de Ann = n!.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 5 / 143


Probabilité Rappel sur les dénombrements

Combinaisons
Définition

Un choix de r objets distincts pris parmi n sans tenir compte de leur ordre est appelé combinaison de r objets pris parmi n.

Dans l’exemple précédent correspondant à l’ensemble des quatre lettres {a, b, c, d}, la combinaison {a, b} est la même que la
combinaison {b, a} alors que l’arrangement (a, b) est différent de l’arrangement (b, a).
Combien y en a-t-il ? Le nombre total de combinaisons de r objets pris parmi n est noté Cnr . Pour trouver l’expression de Cnr ,
comparons le nombre d’arrangements et de combinaisons possibles de r objets pris parmi n.
Dans un arrangement on choisit r objets, puis on tient compte de leur ordre.
Dans une combinaison seul le choix des r objets compte. Comme le nombre de façons d’ordonner les r objets choisis est
r !, on conclut qu’à chaque combinaison de r objets pris parmi n, on peut associer r ! arrangements et donc qu’il y a r !
fois plus d’arrangements que de combinaisons.
On conclut

Proposition

r Arn n(n − 1)(n − 2) · · · (n − r + 1) n!


Cn = = = .
r! r! r !(n − r )!

Exemple

Le nombre de combinaisons de deux lettres prises parmi quatre {a, b, c, d} est C42 = 2!2!
4! = 6. Ce sont :

{a, b}, {a, c}, {a, d}, {b, c}, {b, d}, {c, d}.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 6 / 143


Probabilité Rappel sur les dénombrements

Exemples
Exemple

Déterminer le nombre de numéros possibles que peuvent attribuer les compagnies téléphoniques au Burkina Faso ?

Exemple

Dans un lot de 20 pièces fabriquées, 4 sont mauvaises. De combien de façon différentes peut-on en prélever 4 dans les cas
suivants :
1 les 4 pièces sont bonnes
2 Une au moins d’entre elles est mauvaise.
3 Deux au moins sont mauvaises.
Les réponses dépendent de l’expérience. D’après l’énoncé il n’y a pas répétition mais est-ce que l’ordre compte ? Tirages
successifs, arrangements, ou tirage simultané, combinaison ?

Exemple

Une classe de 30 élèves, 12 filles et 18 garçons, doit élire un comité composé d’un président, un vice-président et un secrétaire.
1 Combien de comités peut-on constituer ?
2 Combien de comités peut-on constituer sachant que le poste de secrétaire doit être occupé par une fille ?
3 Quel est le nombre de comités comprenant l’élève X ?
4 Quel est le nombre de comités pour lesquels le président est un garçon et le secrétaire une fille ?
5 Quel est le nombre de comités pour lesquels le président et le vice-président sont de sexes différents ?

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 7 / 143


Probabilité Probabilité

Plan

1 Probabilité
Rappel sur les dénombrements
Probabilité
Probabilité conditionnelle
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 8 / 143


Probabilité Probabilité

Notions de base : Quelques définitions


Théorie des probabilités

Décrit le comportement de phénomènes dont le résultat est soumis au hasard


permet de modéliser la fréquence de réalisation d’ “évènements “ aléatoires

Définitions

Expérience aléatoire ε : expérience dont le résultat ne peut pas être déterminé avec certitude a priori.
Univers de ε : ensemble des aléatoires résultats possibles de ε. On le note Ω.
Résultat élémentaire de ε : résultat possible de ε. C’est un élément de Ω. On le note ω.

Exemples

1 ε : “lancer d’un dé régulier”


Ω = {1, 2, 3, 4, 5, 6}.
ω = 2 est un résultat possible.
2 ε : “jet de deux pièces de monnaie distinguables”
Ω = {(P, P), (P, F ), (F , P), (F , F )}.
ω = (P, P) est un résultat possible.
3 ε : “lancer d’un crayon sur une feuille de papier de dimension l ⋆ L. Chaque point de la feuille est repéré par son abscisse
et son ordonnée”
Ω = {(x, y ), x ∈ [0, l], y ∈ [0, L]} est ensemble infini
l L
ω = ( , ) est un résultat possible.
2 2

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 9 / 143


Probabilité Probabilité

Notions de base : évènements


Définitions

Ensemble P(Ω) des parties de Ω : ensemble constitué de tous les sous-ensembles (parties) de Ω.
Evènement (aléatoire) =une partie (sous-ensemble) de Ω= assertion, qui peut ou non se réaliser suivant l’issue de ε
Réalisation d’un événement Soit A un évènement de Ω. Soit ω le résultat de l’expérience
A se réalise ⇐⇒ ω ∈ A

Cas particulier

A = Ω se réalise toujours. On l’appelle évènement certain.


A = ∅ ne se réalise jamais. On l’appelle évènement impossible.
A = {ω} s’appelle événement élémentaire.

Exemples

1 Si Ω = {a, b, c} , P(Ω) a 8 éléments.


l’ensemble vide : ∅
les parties à un élément : {a}, {b}, {c}
les parties à deux élts. : {b, c}, {a, c}, {a, b}
les parties à trois éléments : {a, b, c} = Ω
2 A=ń le lancer est pair ż={2, 4, 6}.
3 A= ń on obtient deux piles ż={(P, P)}
Si le résultat de ε est ω = (F , P) alors A ne se réalise pas.
4 A=ń le lancer a une abscisse>l/2 ż=]l/2, l] ⋆ [0, L]

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 10 / 143


Probabilité Probabilité

Opérations sur les évènements


Complémentaire de A : événement constitué des résultats élémentaires de Ω qui ne sont pas dans A. Soit ω le résultat
de l’expérience :
A = {ω ∈ Ω, ω ∈ / Ω}
A se réalise si et seulement si A ne se réalise pas : non A

A.2 Notions de base: évènements


Réunion de A et B : évènement constitué des résultats élémentaires de Ω qui appartiennent à A ou à B (ou aux deux).
 Opérations sur les évènements

Soit ω le résultat de l’expérience :  Complémentaire de A : événement constitué des résultats élémentaires de Ω qui
ne sont pas dans A. Soit ω le résultat de l’expérience :

A ∪ B = {ω ∈ Ω, ω ∈ A ou ωA.2 ∈Notions
B} de base: A = {ω ∈ Ω, ω ∉ A}
évènements
A
( A se réalise ssi A ne se réalise pas : non A).

A ∪ B se réalise si et seulement si A se réalise ou B se réalise : A ou B


 Opérations sur les de A et B: évènement constitué des résultats élémentaires de Ω qui
évènements
 Réunion
appartiennent à A ou à B (ou aux deux). Soit ω le résultat de l’expérience :

 Complémentaire de A : événement Aconstitué∪ B = {ωdes ∈Ω , ω ∈ A ou


résultats ω ∈ B} de Ω qui
élémentaires
ω réalise
ne sont pas dans A.( Soit se le résultat de l’expérience : A B
A∪ B ssi A se réalise ou B se réalise : A ou B).

A = {ω ∈ Ω, ω ∉ A}
A Ω
 Intersection de A et B: évènement constitué des résultats élémentaires de Ω qui
appartiennent à la fois à A et à B. Soit ω le résultat de l’expérience
( A se réalise ssi A ne se réalise pas : non A).
Intersection de A et B : évènement constitué A ∩ B = {des résultats
ω ∈ Ω, ω ∈ A et ω ∈ B} élémentaires
B de Ω qui appartiennent à la fois à A et à B.
 Réunion de A et B: ∩ B se réalise constitué
( Aévènement ssi A et B sedes résultats
réalisent élémentaires de Ω qui
: A et B).
Soit ω le résultat de l’expérience : appartiennent à A ou à B (ou aux deux). Soit ω le résultat de l’expérience :
A
A ∪ B = {ω ∈ Ω, ω ∈ A ou ω ∈ B}
A ∩ B = {ω ∈ Ω, ω ∈ A et ω ∈ B} A B
( A ∪ B se réalise ssi A se réalise ou B se réalise : A ou B).

A ∩ B se réalise si et seulement si A et B se réalisent : A et B


 Intersection de A et B: évènement constitué des résultats élémentaires de Ω qui
appartiennent à la fois à A et à B. Soit ω le résultat de l’expérience

A ∩ B = {ω ∈ Ω, ω ∈ A et ω ∈ B} B
( A ∩ B se réalise ssi A et B se réalisent : A et B).
A
A.2 Notions de base: évènements
Inclusion : A est inclus dans B si et seulement si tout élément de A appartient à B :
A ⊂ B ⇐⇒ (ω ∈ ARelations =⇒particulières
ω ∈ :B)
Si A est réalisé alors B est réalisé
• Inclusion : A est inclus dans B ssi tout élément de A appartient à B :
A.2 Notions de base: évènements
A ⊂ B ⇔ (ω ∈ A ⇒ ω ∈ B )
A
(Si A est réalisé alors B est réalisé).
 Relations particulières : B
• Disjonction ou incompatibilité:
• Inclusion A et
: A est inclus B sont
dans disjoints
B ssi tout ssideAAet
élément B n’ontàpas
appartient B:
Disjonction ou incompatibilité : A et BA sont
d’éléments communs :
⊂ B ⇔ (disjoints
ω ∈ A ⇒ ω ∈ B ) si et seulement si A et B n’ont pas d’éléments communs :
A
A et B disjoints ⇐⇒ A ∩ (Si AB A= B∅disjoints
et alors
est réalisé ⇔ (A ∩ B = ∅ )
B est réalisé).
B
A
A et B disjoints : A(A etetB disjoints
B sont : A et B sont incompatibles).
incompatibles
• Disjonction ou incompatibilité: A et B sont disjoints ssi A et B n’ont pas
d’éléments communs :

A et B disjoints ⇔ (A ∩ B = ∅ ) B
(A et B disjoints : A et B sont incompatibles). A

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 11 / 143


Probabilité Probabilité

Notions de base : évènements

Système complet d’évènements :


Soient A1 , A2 , · · · , An n évènements. On dit que (A1 , A2 , · · · , An )
constitue un système complet d’évènements si les parties A1 , A2 , . . . , An
de Ω constituent une partition de Ω telle que :
ils sont deux à deux incompatibles i.e. ∀i, Ai = ̸ ∅, ∀i ̸= j, Ai ∩ Aj = ∅
[n
si leur réunion est l’événement certain Ω i.e. Ai = Ω
i=1

Exemple : (A, A) forme un système complet d’évènements.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 12 / 143


Probabilité Probabilité

Notions de base : évènements


Tribu d’évènements de Ω, espace probabilisable
Tribu d’un ensemble de parties de Ω : Soit A ∈ P(Ω). A est une
tribu ou sigma-algèbre si elle contient Ω et est stable par
complémentation et réunion dénombrable. On dit alors que (Ω, A) est
un espace probabilisable.
Exemples :
Tribu grossière A = {∅, Ω}
Tribu des parties (appelée aussi tribu discrète) A = P(Ω)
Tribu des boréliens A = {]a, +∞[, a ∈ Q (ou R)}, lorsque Ω = R
Tribu A = {A, A, ∅, Ω}
Tribu Ω = {a, b, c, d} A = {∅, {a}, {b, c, d}, Ω}
Choix d’une tribu : se fait en fonction de l’information qu’on a sur le
problème. lorsque l’univers est fini ou dénombrable, on travaille
généralement avec la tribu discrète. Lorsque l’univers est infini
(Ω = R ou I un intervalle de R ) on travaille avec la tribu borélienne.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 13 / 143
Probabilité Probabilité

Notions de base : probabilité

Probabilité= fonction permettant de “ mesurer” la chance de réalisation


d’un évènement de P(Ω) (ou plus généralement d’une tribu A).
Définition : Soit (Ω, A) un espace probabilisable. Une probabilité sur
(Ω, A) est une application P : A → [0, 1] satisfaisant les 3 axiomes
suivants :
0 ≤ P(A) ≤ 1, ∀A ∈ A
P(Ω) = 1
[ X
Ai = P(Ai ), ∀(Ai )i∈N ensemble dénombrable d’évènements
i∈N i∈N
disjoints
Dès lors que P est définie, (Ω, A, P) s’appelle un espace probabilisé.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 14 / 143


Probabilité Probabilité

Notions de base : probabilité


Opérations sur les probabilité
P(∅) = 0
P(A) = 1 − P(A) (L’application de cette propriété est très utile lorsque le nombre
d’évènements élémentaires de A, k, est important et que le calcul des probabilités pi est
fastidieux.)
P(A) ≤ P(B) si A ⊂ B
P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
S P
P( Ai ) ≤ P(Ai )
0 ≤ P(Ai ) ≤ 1
En particulier Si P(A) = 0 alors A est presque impossible. On écrit A = ∅ p.s.
Si P(A) = 1 alors A est presque
A.3 Notions sûr.
de base: On écrit A = Ω p.s.
probabilité

Axiome des probabilités totales : Soit (Ai )1≤i≤n un système complet d’évènements :
 Opérations sur les probabilités :

Pn Pn
∀B ∈ A, P(B) = P(B ∩ Ai ) = P(B/Ai )P(Ai )
i=1 i=1
CP: Si P(A)=0 alors A est presque impossible. On écrit A = ∅ p.s.
Si P(A)=1 alors A est presque sûr. On écrit A = Ω p.s.

 Axiome des probabilités totales : ( Ai )1≤i ≤n


système complet d’évènements : A1 A2 A3 A4
n
∀B ∈ A , P ( B ) = ∑ P ( B ∩ Ai )
i =1

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 15 / 143


Probabilité Probabilité

Notions de base : probabilité


Construction pratique d’une probabilité en univers fini ou dénombrable
On suppose que l’ensemble des événements possibles est fini ou dénombrable. On note
Ω = {ω1 , · · · , ωn , · · · } l’ensemble des résultats possibles.
on définit la probabilité pi de chaque résultat élémentaire ωi on a alors une suite
Pn
(p1 , · · · , pn , · · · ) de nombres tels que : 0 ≤ pi ≤ 1 et pi = 1.
i=1
P
la probabilité d’un événement quelconque A est donné par : P(A) = pi .
ωi ∈A
Cas particulier d’un univers fini équiprobable : Lorsqu’il n’y a pas lieu d’attacher aux
différents évènements élémentaires des probabilités différentes, on a pour tout ω, pi = p.
On dit que l’univers est équiprobable. Lorsque l’univers est fini, de cardinal
1
|Ω| = card(Ω), on a pi = p = .On définit alors la probabilité P comme
|Ω|
précédemment : soit A un événement quelconque.

|A| cardA nombre de cas favorables


P(A) = = =
|Ω| cardΩ nombre de cas possibles

Cette probabilité est appelée probabilité uniforme sur Ω.


Cette formule permet de ramener les calculs de probabilités à des décomptes
d’évènements élémentaires effectués par des techniques d’analyse combinatoire qui ne sont
pas des probabilités
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 16 / 143
Probabilité Probabilité

Notions de base : probabilité

Exemple 1
ε : “jet de deux pièces de monnaie distinguables”. Ω = {(P, P); (P, F ); (F , P); (F , F )} est
équiprobable. Soit A= “On obtient au moins une fois P”={(P, P); (P, F ); (F , P)}. P(A) = 3/4

Exemple 2
ε : “jet d’un dé pipé : le 6 apparaı̂t 2 fois plus que les autres ”. Ω non équiprobable :
p1 = p2 = p3 = p4 = p5 = p; p6 = 2p, p tel que :5p + 2p = 1, p = 1/7
A=”le lancer est pair”; P(A) = p2 + p4 + p6 = 4/7.

Exemple 3
ε : “lancer de la mine de crayon “. Soit A un événement (surface sur la feuille) de Ω d’aire A. Si
tous les emplacements sur la feuille ont la même chance d’être atteints, intuitivement, on peut
A
définir P(A) = .
l ⋆L
Par contre, P((x,y)=0 (lorsque Ω est infini, on admet que la probabilité de tomber sur un point
particulier est nulle).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 17 / 143


Probabilité Probabilité conditionnelle

Plan

1 Probabilité
Rappel sur les dénombrements
Probabilité
Probabilité conditionnelle
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 18 / 143


Probabilité Probabilité conditionnelle

Notions de base : probabilité conditionnelle, indépendance


Définition : Probabilité conditionnelle
Soient deux évènements A et B d’un espace probabilisé Ω avec P(B) ̸= 0, on appelle probabilité
conditionnelle de l’évènement ” A si B “ (ou ” A sachant B ” ), le quotient
P(A ∩ B)
P(A/B) = notée aussi PB (A)
P(B)

Définition : Indépendance
P(A ∩ B)
Deux évènements A et B sont indépendants si = P(A) ou P(A/B) = P(A) ou
P(B)
P(B/A) = P(B)

Définition : Généralisation de l’indépendance à n évènements


n évènements (n ≥ 2) , A1 , A2 , . . . , Ai , . . . , An sont dit indépendants dans leur ensemble (ou
mutuellement indépendants) si on a :
P(A1 ∩ A2 ∩ . . . ∩ Ai ∩ . . . An ) = P(A1 ) × P(A2 ) × . . . × P(Ai ) × . . . × P(An ) ou
\n Y n
P( Ai ) = P(Ai )
i i=1

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 19 / 143


Probabilité Probabilité conditionnelle

Notions de base : probabilité conditionnelle, indépendance

Théorème de Bayes
P(B/A)P(A)
Pour deux évènements A et B : P(A/B) =
P(B)
Généralisation : Si {A1 , A2 , . . . , Ai , · · · , An } st un système complet
d’évènements, et quel que soit l’évènement B tel que P(B) ̸= 0,
P(B/Ai )P(Ai )
alors : P(Ai /B) = n avec
X
P(B/Ai )P(Ai )
i=1
n
X
P(B) = P(B/Ai )P(Ai )
i=1

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 20 / 143


Probabilité Probabilité conditionnelle

Exemple : probabilité, probabilité conditionnelle,


indépendance
Exemple 1

La probabilité lors du lancer d’un dé non pipé d’obtenir ” plus de 2 ” se traduit par A = {3, 4, 5, 6} et A = {1, 2} d’où
P(A) = 1 − P(A) = 1 − 2/6 = 4/6 = 2/3

Exemple 2

Considérons le jeu qui consiste à lancer un dé à 6 faces, non pipé. Soient les deux évènements : A ” le résultat est pair ”
et B ” le résultat est un multiple de trois ” sont statistiquement indépendants.
En effet, soit A = {2, 4, 6} ; B = {3, 6} ; A ∩ B = {6}ainsi P(A) =3/6 ; P(B) = 2/6 ; P(A ∩ B) = 1/6. On vérifie
alors que : P(A ∩ B) = P(A)P(B) = 3/6 × 2/6 = 6/36 = 1/6
Si l’on considère une famille de deux enfants, les deux évènements : A ” enfants de sexe différent ” et B ” au plus une
fille ” ne sont pas statistiquement indépendants. En effet, l’espace probabilisé Ω, contient 4 évènements élémentaires (si
l’on considère une famille ordonnée),Ω = {GG , GF , FG , FF } avec A = {GF , FG }, B = {GG , GF , FG } et
A ∩ B = {GF , FG }
d’où sous l’hypothèse d’équiprobabilité : P(A) = 1/2, P(B) = 3/4 et P(A ∩ B) = 1/2. On vérifie alors que :
P(A ∩ B) ̸= P(A)P(B) = 1/2 × 3/4 = 3/8 ̸= 1/2

Exemple 3

Une population animale comporte 1/3 de mâles et 2/3 de femelles. L’albinisme frappe 6 % des mâles et 0,36 % des femelles. La
probabilité pour qu’un individu pris au hasard (dont on ignore le sexe) soit albinos est :
Soient les évènements A :” l’animale est mâle “ et A :” l’animale est femelle” constitue un système complet d’évènements B :”
l’animale est albinos” et B :” l’animale n’est pas albinos” sachant que P(B) = P(B/A)P(A) + P(B/A)P(A) alors
P(B) = (0, 06 × 1/3) + (0, 0036 × 2/3) = 0, 0224 soit 2,24% d’albinos dans cette population.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 21 / 143


Probabilité Probabilité conditionnelle

Exemple : probabilité, probabilité conditionnelle,


indépendance
Exemple 4
Dans une population pour laquelle 1 habitant sur 100 est atteint d’une maladie
génétique A, on a mis au point un test de dépistage. Le résultat du test est soit positif
(T ) soit négatif (T ).
On sait que : P(T /A) = 0, 8 et P(T /A) = 0, 9
On soumet un patient au test. Celui-ci est positif. Quelle est la probabilité que ce patient
soit atteint de la maladie A soit PT (A) ou P(A/T ) ?

D’après la formule de Bayes :

P(T /A)P(A)
P(A/T ) =
P(T /A)P(A) + P(T /A)P(A)
0, 01 × 0, 8
d’où P(A/T ) = = 0, 075
0, 01 × 0, 8 + 0, 1 × 0, 99
Ainsi avant le test, la probabilité d’être malade était de P(A)=0,01 (probabilité a priori)
et après le test la probabilité d’être malade est de P(A/T ) = 0, 075 (probabilité a
posteriori). Ainsi le test apporte un supplément d’information.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 22 / 143
Variables aléatoires
Dans la plupart des phénomènes aléatoires, le résultat d’une épreuve peut se traduire par une ” grandeur ” mathématique, très
souvent représentée par un nombre entier ou un nombre réel. La notion mathématique qui représente efficacement ce genre de
situation concrète est celle de variable aléatoire (notée également v.a.). On se limitera ici au cas des variables aléatoires réelles.

Définition

On suppose une expérience dont l’univers est muni d’une tribu A d’évènements et d’une probabilité P ( (Ω, A, P) espace
probabilisé) . Une variable aléatoire réelle X est une caractère quantitatif, discret ou continu, dont la valeur est fonction du
résultat de l’expérience :
X :Ω→E

ω 7→ X (ω) = x

(E est l’ensemble des valeurs possibles de X )


qui est mesurable, c’est à dire telle que l’image réciproque X −1 (B) = {ω ∈ Ω, X (ω) ∈ B} de tout élément B de la tribu B
associée à E est un événement de A.
Remarque notation : ∀B ∈ B, X −1 (B) ∈ A et X −1 (B) = {X ∈ B} alors, on peut attribuer une chance de réalisation à tout
élément B de B

Remarque

La mesurabilité de X dépend des tribus A et B choisie sur Ω et E . La tribu B est généralement P(E ) en discret, la
tribu borélienne en continu.
Lorsque X est une variable discrète, la séquence d’évènements {X = x} forme une partition de Ω. On l’appelle partition
engendrée par X .

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 23 / 143


Variables aléatoires

Exemples

Exemple

lancer d’un dé régulier. (Ω, P(Ω), P) est un espace probabilisé. Soit X la fonction de Ω dans {0, 1} valant 1 si le lancer est pair
, 0 sinon. X est une fonction du résultat de l’expérience et elle est mesurable. En effet, B = {{0}, {1}, {0, 1}, ∅}. On a :
{X = 0} = {1, 3, 5} ∈ P(Ω)
{X = 1} = {2, 4, 6} ∈ P(Ω)
{X ∈ {0, 1}} = {X = 0 ou X = 1} = Ω ∈ P(Ω)
{X ∈ ∅} = ∅ ∈ P(Ω)

Exemple

On fait l’expérience E : “ on lance 2 pièces de monnaie régulières “. Soit X le nombre de ń P ż obtenu : X prend les valeurs
quantitatives discrètes 0, 1 ou 2 (E = {0, 1, 2}), selon le résultat de l’expérience :
ω = (F , F ) alors X (ω) = 0
ω = (F , P) ou ω = (P, F ) alors X (ω) = 1
ω = (P, P) alors X (ω) = 2
X est donc une variable aléatoire discrète.
L’évènement engendré par la valeur 0 est l’évènement {X = 0} = {(F , F )}
L’évènement engendré par la valeur 1 est l’évènement {X = 1} = {(F , P), (P, F )}
L’évènement engendré par la valeur 2 est l’évènement {X = 2} = {(P, P)}
On a : {X = 0} ∪ {X = 1} ∪ {X = 2} = Ω

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 24 / 143


Variables aléatoires

Exemples

Exemple
Soit X l’abscisse de la mine : X prend des valeurs quantitatives continues
entre 0 et l (E = [0, l]), selon le résultat de l’expérience : si le résultat de
l’expérience est ω = (x, y ), X (ω) = x. On associe à E et à Ω les tribus
boréliennes A et B respectivement engendrées par les ouverts de [0, l] et
de [0, l] ⋆ [0, L] (qui contiennent tous les intervalles associés à ces
ensembles). Alors, l’image réciproque de tout élément de B (tout intervalle
I de [0, l] est dans A (c’est un intervalle de [0, l] ⋆ [0, L])
{X ∈ I } = {ω = (x, y ), x ∈ I , y ∈ [0, L]} ∈ B
X est donc une variable aléatoire (continue).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 25 / 143


Variables aléatoires

Variable aléatoire réelle (v.a.r) : Loi

Loi d’une variable aléatoire :


La mesurabilité de X assure que l’image réciproque de tout élément B ∈ B
est dans A donc possède une probabilité. On peut ainsi définir, sur
(E , B)une mesure de probabilité, appelée loi de X et notée PX par

∀B ∈ B, PX (B) = P(X −1 (B) = P(X ∈ B))

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 26 / 143


Variables aléatoires

Variable aléatoire réelle v.a.r.) : Loi

variable aléatoire réelle discrète

Définition : X prend ses valeurs dans un ensemble E discret de valeurs réelles (v.a.r.d.).
Loi : Séquence des probabilités : PX (x) = P(X = x), x ∈ E
Propriétés :
0 ≤ pX (x) ≤ 1
P
pX (x) = 1
x∈E
P
∀B ⊂ B, pX (B) = pX (x)
x∈B

variable aléatoire réelle continue

Définition : X prend ses valeurs dans un ensemble E continu de valeurs réelles (v.a.r.c.).
Loi : ∀x ∈ E , P(X = x) = 0. Par contre P(X ∈ [x, x + dx[) ̸= 0. La loi de X est via la fonction f de R dans R,
appelé densité de probabilité : f (x) = P(X ∈ [x, x + dx[)

Propriétés :
0 ≤ f (x)
R
f (x)dx = 1
x∈R
R
∀B ⊂ B, pX (B) = f (x)dx
x∈B

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 27 / 143


Variables aléatoires

Variable aléatoire réelle v.a.r. : Loi aléatoire réelle (v.a.r): Loi


B.2 Variable

 Présentation : la loi de X est  Présentation : La loi de X est


présentée dans un tableau (tableau donnée par la fonction f
variable aléatoire réelle discrète de la loi de X ou tableau en
fréquences):
Présentation : la loi de X est présentée dans un tableau (tableau de la loi de X ou tableau en fréquences)
 Représentation :
graphique : courbe
xi 0 1 2 de la densité
pi 1/4 1/2 1/4  Représentation graphique :
diagramme en bâtons
Représentation graphique :diagramme en bâtons

B.2 Variable aléatoire réelle (v.a.r): Loi

variable aléatoire réelle continue  Présentation : la loi de X est  Présentation : La loi de X est
présentée dans un tableau (tableau donnée par la fonction f
de la loi de X ou tableau en
Présentation : la loi de X est donnée par la fonction f
fréquences):
 Représentation graphique : courbe
Représentation graphique :Représentation
courbe graphique
de la :densité de la densité

diagramme en bâtons

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 28 / 143


Variables aléatoires

Variable aléatoire réelle (v.a.r). : Loi

Fonction de répartition de la loi de X


F : R → [0, 1]
Définition :
x 7→ P(X ≤ x)
Propriétés :
(i) F est croissante
(ii) F est continue à droite
(iii) lim F (x) = 1 et lim F (x) = 0
x→+∞ x→−∞

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 29 / 143


Variables aléatoires

Variable aléatoire réelle (v.a.r.) : Loi


B.2 Variable aléatoire réelle (v.a.r): Loi

variable aléatoire réelle discrèteVariable discrete Variable continue


F est une fonction en escalier, continue F est une fonction continue
Forme de F : F est une fonction à droite en escalier, continue à droite

F '( x ) = f ( x )
Propriétés : F ( x) = ∑ p ( y)
y ≤ x, y∈E X
x
F ( x ) = ∫−∞ f (t ) dt = Aire sous la courbe de la densité av
P
F (x) = PX (y )P(a ≤ X < b) = F (b) − F (a) b
P ( a ≤ X < b ) = P ( a ≤ X ≤ b ) = F (b ) − F ( a ) = ∫a f (
y ≤x, y ∈E P( X > x) = 1 − F ( x) +∞
P ( X > x ) = P ( X ≥ x ) = 1 − F ( x ) = ∫x f (t ) dt
P(a ≤ X < b) = F (b) − F (a)
P(X > x) = 1 − F (x)

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 30 / 143


Variables aléatoires

Variable aléatoire réelle (v.a.r.) : Loi

B.2 Variable aléatoire réelle (v.a.r): Loi


variable aléatoire réelle continue Variable continue
Variable discrete
F est une fonction en escalier, continue F est une fonction continue
Forme de à droite : F est une fonction continue
F

F '( x ) = f ( x )
Propriétés
F ( x) = : ∑ p ( y)
y ≤ x, y∈E X
x
F ( x ) = ∫−∞ f (t ) dt = Aire sous la courbe de la densité avant x
F ′ (x) = f (x) b
P ( a ≤ X < b ) = F (b ) − F ( a ) P ( a ≤ X < b ) = P ( a ≤ X ≤ b ) = F (b ) − F ( a ) = ∫a f ( x ) dx
Rx
F (x) =P ( X > x ) =f 1(t)dt
− F ( x ) =Aire sous la courbe +∞
P( X > x ) = Pde lax )densité
(X ≥ = 1 − F ( x )avant
= ∫x fx(t ) dt
−∞
Rb
P(a ≤ X < b) = P(a ≤ x ≤ b) = F (b) − F (a) = f (x)dx
a
+∞
R
P(X > x) = P(X ≥ x) = 1 − F (x) = f (t)dt
x

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 31 / 143


Variables aléatoires

Variable aléatoire réelle (v.a.r.) : Loi

B.2 Variable aléatoire réelle (v.a.r): Loi

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 32 / 143


Variables aléatoires

Variable aléatoire réelle (v.a.r) : moments

variable aléatoire réelle discrète


P
Espérance d’une v.a.r.d. E (X ) = xpX (x)
x∈E
P
Espérance de Y = g (X ), X v.a.r.d. E (Y ) = g (x)pX (x)
x∈E

variable aléatoire réelle continue


R
Espérance d’une v.a.r.c. E (X ) = xf (x)dx
R
R
Espérance de Y = g (X ), X v.a.r.c. E (Y ) = g (x)f (x)dx
R

Propriétés

E (a) = a
E (aX ) = aE (X )
E (aX + bY ) = aE (X ) + bE (Y )
E (XY ) = E (X )E (Y ) si X et Y des v.a. indépendantes

Remarque : L’espérance peut ne pas exister

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 33 / 143


Variables aléatoires

Variable aléatoire réelle (v.a.r) : moments

Définitions
Variance de X : V (X ) = σX2 = E ((X − E (X ))2 ), V (X ) ≥ 0
p
Écart-type de X : σX = V (X ), σX ≥ 0

Propriétés
Théorème de Koenig : V (X ) = E (X 2 ) − (E (X ))2
V (X + a) = V (X )
V (aX + b) = a2 V (X )
V (X ) = 0 alors X = constante p.s.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 34 / 143


Variables aléatoires

Exemples

Si l’on considère la constitution d’une fratrie de deux enfants, l’espace fondamental est constitué des évènements élémentaires
suivant :
Ω = {GG , GF , FG , FF }

Les valeurs possibles prises par la variable aléatoire X , ” nombres de fille dans la famille ” sont : X (Ω) = {0, 1, 2}
Dans le cas de la constitution d’une fratrie de deux enfants, si l’on fait l’hypothèse que la probabilité d’avoir un garçon est égale
à celle d’avoir une fille (1/2), alors la distribution de probabilité ou loi de probabilité du nombre de filles dans une fratrie de deux
enfants est :
Ω X P(X = xi ) ou pi
G et G 0 1/4
F et G ou G et F 1 1/2
F et F 2 1/4
Ω :Ensemble des évènements possibles
X : Valeurs de la variable aléatoire
P(X = xi ) ou pi : Probabilités associées à la variable X
X
Remarque : Une loi de probabilité n’est établie que si pi = 1,la somme étant étendue à tous les indices i.
i
l’espérance de la variable aléatoire ” nombre de filles ” est : E (X ) = 0 ∗ 1/4 + 1 ∗ 1/2 + 2 ∗ 1/4 = 1 d’où E (X ) = 1 Si l’on
observe un nombre suffisant de fratries de 2 enfants, on attend en moyenne une fille par fratrie.
Quelle est la variance ? Quelle est la fonction de répartition ?

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 35 / 143


Variables aléatoires

Exemples

Dans une population de canards colverts, lors d’une alerte, l’ensemble des individus quittent leur lieu de repos. Ainsi à t = 0, la
surface de l’étang est déserte et la probabilité qu’un canard regagne l’étang entre les temps t1 et t2 (en minutes) est donnée
Rt
par : t 2 f (t) dt avec f (t) = 2e −t − 2e −2t qui représente la fonction densité de probabilité.
1
La primitive de f (t), FT (t), fonction de répartition est de la forme :

(a) Fonction de den-(b) Fonction de ré-


sité de probabilité partition

L’évolution de la recolonisation de l’étang par les canards colverts en fonction du temps est donnée par la courbe rouge. On
observe ainsi que plus de 50 % des canards se posent sur l’étang au cours des 2 premières minutes qui suivent l’alerte. Au bout
de 7 minutes, tous les canards ont regagné l’étang. La distribution des probabilités cumulées est donnée sur la courbe verte.
Déterminer l’espérance et la variance.
la durée moyenne pour la recolonisation est : E (T ) = 0+∞ tf (t) dt = 0+∞ 2e −t − 2e −2t dt = 3/2. Sous ce modèle, la
R R
durée moyenne de recolonisation pour l’ensemble R de la population de canards colverts est de 1,5 minutes.
+∞
La variance de la loi de probabilité est : V (T ) = −∞ (t − E (T ))2 f (t) dt = 5/4 avec σ = 1, 12

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 36 / 143


Variables aléatoires

Variable aléatoire réelle (v.a.r) : couples de v.a.r.


Définitions

On appelle couple de variables aléatoires, deux variables aléatoires X et Y définies sur le même univers (issues de la même
expérience) à valeurs respectivement dans E et F .

Loi jointe d’un couple de variables aléatoires :

Cas discret : c’est la séquence (P({X = x} ∩ {Y = y }))x∈E ,y ∈F

Cas continu : c’est la fonction f de R2 dans R, appelée densité jointe telle que
f (x, y )dxdy = P(X ∈ [x, x + dx] ∩ Y ∈ [y , y + dy ])

Lois marginales de X
P
Cas discret : P(X = x) = P(X = x, Y = y )
y ∈F
+∞
Cas continu : c’est la fonction f de R2 dans R, appelée densité jointe telle que f (x) =
R
f (x, y )dy
−∞

Lois conditionnelles de Y sachant X = x

P(X = x, Y = y )
Cas discret : P(Y = y /X = x) = , ∀y ∈ F
P(X = x)
f (x, y )
Cas continu : f (y /x) = , ∀y ∈ F
f (x)

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 37 / 143


Variables aléatoires

Variable aléatoire réelle (v.a.r) : couples de v.a.r.

Espérance conditionnelle

L’espérance conditionnelle E (Y /X ) est une variable aléatoire de même loi que X , dont les réalisations possibles sont les valeurs
{E (Y /X = x)}x∈E , valeurs des espérances des lois conditionnelles de Y /X = x

P
Cas discret : E (Y /X = x) = yP(Y = y /X = x), ∀x ∈ E
y ∈F
E (Y /X ) E (Y /X = x1 ) ··· E (Y /X = xn )
P(E (Y /X ) = x) P(X = x1 ) ··· P(X = xn )
R
Cas continu : E (Y /X = x) = yf (y /X = x)dy prise avec la densité f (x).
R

Propriété

L’espérance de l’espérance conditionnelle est E (E (Y /X )) = E (Y ).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 38 / 143


Variables aléatoires

Exemple
On place au hasard deux billes rouge et verte dans deux boites A et B. On note X , la variable aléatoire “nombre de billes dans la
boite A ” et Y , la variable aléatoire ” nombre de boites vides ” .

Les distributions de probabilités associées à chacune des variables X et Y ainsi que celle de la loi jointe sont indiquées
ci-dessous. Pour chaque loi, la valeur de l’espérance et de la variance est également indiquée.
xi 0 1 2
pi 1/4 1/2 1/4
Variable X : X (Ω) = {0, 1, 2} dans ce cas E (X ) = 1 et V (X ) = 1/2
yi 0 1
qi 1/2 1/2
Variable Y : Y (Ω) = {0, 1} dans ce cas E (Y ) = 1/2 et V (Y ) = 1/4
xi yj 0 1 2
ρi j 3/4 0 1/4
Variable XY : XY (Ω) = {0, 1, 2} dans ce cas E (XY ) = 1/2 et V (XY ) = 3/4
Remarque : L’application réciproque n’est pas vraie. La relation E (XY ) = E (X )E (Y ) n’implique pas forcément l’indépendance
de deux variables aléatoires.
La relation E (XY ) = E (X )E (Y ) est vérifiée car : E (X ) = 1 ; E (Y ) = 1/2 et E (XY ) = 1/2 cependant les variables aléatoires
X et Y ne sont pas indépendantes.

En effet ρ0 0 = P((X = 0) ∩ (Y = 0)) = 0 car il est impossible d’avoir à la fois aucune bille dans la boite A et aucune boite

vide. Or on attend si X et Y sont deux variables statistiquement indépendantes, à ce que

P((X = 0) ∩ (Y = 0)) == P(X = 0)P(Y = 0) = 1/4 ∗ 1/2 = 1/8 ̸= 0


Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 39 / 143
Variables aléatoires

Couples de Variable aléatoire réelle (v.a.r) : Covariance

Lorsque l’on considère deux variables aléatoires simultanément, il faut définir un indicateur de leur “ liaison ” qui complète les
paramètres qui les caractérisent chacune séparément (espérance mathématique et variance).

Définition

Si X et Y sont deux variables aléatoires définies sur le même univers Ω, on appelle covariance de ces deux variables, le réel :
Cov (X , Y ) = E ((X − E (X ))(Y − E (Y )))

Propriétés

Théorème de Koenig généralisé : Cov (X , Y ) = E (XY ) − E (X )E (Y )


Cov (X , Y ) = Cov (Y , X )
Cov (aX + bY , Z ) = aCov (X , Z ) + bCov (Y , Z )
Cov (X , aY + bZ ) = aCov (X , Y ) + bCov (X , Z )
Cov (a, Y ) = Cov (Y , a) = 0
V (aX + bY ) = a2 V (X ) + b 2 V (Y ) + 2abCov (X , Y )

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 40 / 143


Variables aléatoires

Couples de Variable aléatoire réelle (v.a.r) : Corrélation

Définition
cov (X , Y )
Le coefficient de corrélation est le réel : ρ(X , Y ) = où
σ(X )σ(Y )
X − E (X ) Y − E (Y )
ρ(X , Y ) = Cov (X ⋆ , Y ⋆ ) Où X ⋆ = et Y ⋆ = sont les
σ(X ) σ(Y )
variables centrées-réduites associées à X et Y .

Propriétés
−1 ≤ ρ(X , Y ) ≤ 1 D’autant plus proche de 1 en valeur absolu que le
lien linéaire est fort entre X et Y .
| ρ(X , Y ) |= 1 Lien linéaire parfait : Y = aX + b
| ρ(X , Y ) |= 0 Absence de lien linéaire (pas forcement indépendance
entre X et Y ) ⇒ Cov (X , Y ) = 0 d’où V (X + Y ) = V (X ) + V (Y ) et
E (XY ) = E (X )E (Y )

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 41 / 143


Lois usuelles Lois discrètes

Plan

3 Lois usuelles
Lois discrètes
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Lois continues
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 42 / 143


Lois usuelles Lois discrètes

Loi uniforme discrète

Définition
Une distribution de probabilité suit une loi uniforme discrète lorsque
toutes les valeurs prises par la variable aléatoire sont équiprobables (avec
la même probabilité). Si n est le nombre de valeurs différentes prises par la
variable aléatoire,
1
∀i ∈ {1, · · · , n}, P(X = xi ) =
n

Espérance et variance
xi = i ∀i ∈ [1, n] ou X (Ω) = {1, · · · , n}
n+1
L’espérance : E (X ) =
2
n2 − 1
La variance : V (X ) =
12

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 43 / 143


Lois usuelles Lois discrètes

Loi uniforme discrète

Éléments de calcul pour l’espérance et la variance :


n n
X n(n + 1) X n(n + 1)(2n + 1)
i= et i2 =
2 6
i=1 i=1

Exemple
On lance un dé régulier. Soit X la v.a. qui représente le numéro
apparaissant sur le dé. Quelle est la loi de probabilité X ? Déterminer
l’espérance et la variance ?

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 44 / 143


Lois usuelles Lois discrètes

Loi Bernoulli

Définition
Soit un univers Ω constitué de deux éventualités, S pour succès et E pour
échec sur lequel on construit une variable aléatoire discrète, « nombre de
succès » telle que au cours d’une épreuve :
Si E est réalisé, X = 0, P(X = 0) = q
Si S est réalisé, X = 1, P(X = 1) = p avec p + q = 1.
Cette variable aléatoire à deux issues est appelé la variable de Bernoulli. La
loi de probabilité associée à la variable de Bernoulli X est appelée loi de
Bernoulli de paramètre p et est notée : X ∼ B(1, p).

Espérance et variance
X (Ω) = {0, 1}
L’espérance : E (X ) = p
La variance : V (X ) = pq

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 45 / 143


Lois usuelles Lois discrètes

Loi Bernoulli

Exemple
On jette une pièce de monnaie équilibrée. Soit X la v.a. qui représente les
faces de la pièce. Quelle est la loi de probabilité de X ? Déterminer
l’espérance et la variance ?

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 46 / 143


Lois usuelles Lois discrètes

Loi Binomiale

Définition
Soit l’application Sn : Ωn → {0, 1, · · · , n} avec
Sn = X1 + X2 + · · · + Xi + · · · + Xn où Xi est une variable de Bernoulli.
La variable, Sn , représente le nombre de succès obtenus lors de la répétition de
n épreuves identiques et indépendantes, chaque épreuve ne pouvant donner
que deux résultats possibles. La variable Sn est appelé une variable binomiale .
La loi de probabilité associée à la variable de Binomiale Sn est appelée la loi de
Xn
Binomiale de paramètres n et p et est notée : Sn = Xi ∼ B(n, p).
i=1
La loi de probabilité est : P(Sn = k) = Cnk p k q n−k

Espérance et variance
X (Ω) = {0, 1, · · · , n}
L’espérance : E (X ) = np
La variance : V (X ) = npq
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 47 / 143
Lois usuelles Lois discrètes

Loi Binomiale

Exemple
On jette 10 fois de suite une pièce de monnaie équilibrée. Quelle est la
probabilité d’avoir un total de 8 piles ? Donnez l’espérance et la variance
de X la v.a. qui associe à ces 10 lancers de pièce le nombre de pile ?

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 48 / 143


Lois usuelles Lois discrètes

Loi Géométrique

Définition
Soit X le nombre d’essais de Bernoulli nécessaires pour obtenir un premier
succès. La loi de la variable aléatoire discrète X porte le nom de loi de loi
Géométrique de paramètre p telle que : P(X = k) = pq k−1 avec
k ∈ N∗ avec q = 1 − p
La loi Géométrique de paramètre p est notée : X ∼ G(p).

Espérance et variance
X (Ω) = {1, 2, · · · }
1
L’espérance : E (X ) =
p
q
La variance : V (X ) = 2
p

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 49 / 143


Lois usuelles Lois discrètes

Loi Géométrique

Exemple
Supposons des clients qui achètent des melons au rayon légumes du
supermarché. 30 % d’entre eux ont préalablement senti leur melon. Donner
la loi de probabilité de X, ainsi que E (X ) et V (X ). Quelle est la
probabilité que le quatrième client soit le premier à humer son achat ?

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 50 / 143


Lois usuelles Lois discrètes

Loi Hypergéométrique
Définition
On tire sans remise n objets d’un ensemble de N objets dont m possèdent
une caractéristique particulière (et les autres N − m ne la possèdent pas).
Soit X le nombre d’objets de l’échantillon qui possèdent la caractéristique.
La loi de la variable aléatoire discrète X porte le nom de loi de loi
Hypergéométrique de paramètres N, n, m telle que :
n−k
Cmk CN−m
P(X = k) = avec k = max(0, n − N + m), · · · , min(n, m).
CNn
La loi Hypergéométrique de paramètre N, n, m est notée :
X ∼ H(N, n, m).

Espérance et variance
m
L’espérance : E (X ) = n
N  
m m N − n
La variance : V (X ) = n 1−
N N N −1

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 51 / 143


Lois usuelles Lois discrètes

Loi Hypergéométrique

Exemple
Une boı̂te contient 8 composants parmi lesquels 2 sont défectueux. Trois
composants sont pris au hasard et sans remise de la boı̂te. Soit X le
nombre de composants défectueux dans l’échantillon. Donner la loi de
probabilité de X, ainsi que E (X ) et V (X ).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 52 / 143


Lois usuelles Lois discrètes

Loi de Poisson
La loi de Poisson ou la loi des évènements rares s’applique souvent aux phénomènes accidentels
où la probabilité p est très faible (p < 0, 05). Elle peut également dans certaines conditions être
définie comme limite d’une loi binomiale.
Cette loi est souvent utilisée dans la modélisation des files d’attente : nombre de clients en
attente à une caisse de supermarché, nombre de conducteurs passés à un péage pendant une
période de temps, des pannes de machines, des accidents d’avions, des fautes dans un texte, etc

Définition
Soit X une v.a. à valeurs dans N. On dit que X suit une loi de Poisson de paramètre
λ(λ ∈ N+ ), notée P(λ), si :
λk e −λ
∀k ∈ N, P(X = k) =
k!
.
La loi de Poisson de paramètre λ et est notée : X ∼ P(λ).

Espérance et variance
L’espérance : E (X ) = λ
La variance : V (X ) = λ

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 53 / 143


Lois usuelles Lois discrètes

Loi de Poisson

Exemple
A un guichet d’une banque, on sait que le nombre moyen de clients par
heure est de 12. On suppose que le nombre de clients par heure est
distribué selon une loi de Poisson. Quelle est la probabilité pour qu’en une
heure, le guichetier s’occupe de plus de 15 clients ? Donner la loi de
probabilité de X , ainsi que E (X ) et V (X ).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 54 / 143


Lois usuelles Lois discrètes

Approximation d’une loi hypergéométrique par une


binomiale

Approximation
Soit X ∼ H(N, n, m). Si n/N est petit alors X suit approximativement une
m
loi binomiale B(n, p), où p = :
N
n−k
Cmk CN−m k m
 k  m n−k
P(X = k) = ≃ Cn 1 −
CNn N N
pour k = 0, 1, 2, · · · , n
(on suggère n/N < 0, 1).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 55 / 143


Lois usuelles Lois discrètes

Approximation d’une loi binomiale par une Poisson

Approximation
Soit X ∼ B(n, p). Si n est grand et p est petit (de sorte que np est
modéré) alors X suit approximativement une loi de Poisson P(λ) où
λ = np :

e −np (np)k
P(X = k) = Cnk p k (1 − p)n−k ≃
k!
pour k = 0, 1, 2, · · ·
(on suggère n > 20 et p < 0, 05).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 56 / 143


Lois usuelles Lois continues

Plan

3 Lois usuelles
Lois discrètes
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Lois continues
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 57 / 143


Lois usuelles Lois continues

Loi uniforme continue

Définition
La loi uniforme est la loi exacte de phénomènes continus uniformément répartis sur un intervalle.
La variable aléatoire X suit une loi uniforme sur le segment [a, b] avec a < b si sa densité de
probabilité est donnée par : (
1
, six ∈ [a, b]
fX (x) = b−a .
0, ailleurs

La loi uniforme continue est notée X ∼ U[a,b] .

Espérance et variance
b+a
L’espérance : E (X ) =
2
(b − a)2
La variance : V (X ) =
12 
0,
 si x < a
x−a
La fonction de répartition est : FX (x) = , si a ≤ x ≤ b .
 b−a
1, ailleurs

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 58 / 143


Lois usuelles Lois continues

Loi uniforme continue

Exemple
On considère que la mesure d’un caractère biologique chez des patients
suit une loi uniforme sur l’intervalle continu [0, 20].
1 Quelle est la probabilité d’avoir une mesure entre 14 et 18 ?
2 Quelle est la probabilité d’avoir une mesure entre 4 et 8 ?

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 59 / 143


Lois usuelles Lois continues

Loi exponentielle
La loi exponentielle modélise la survie au sens large (être humains, appareils,pièces mécaniques,
etc. ).
X : temps de survie : P(X ≥ x) = e −λx = S(x)

Définition
Soit X la variable aléatoire continue définie sur un intervalle [0, +∞[. Si sa densité de
probabilité est donnée par : (
λe −λx , six ≥ 0
fX (x) = .
0, ailleurs

La loi exponentielle de paramètre λ est notée X ∼ E(λ).

Espérance et variance
1
L’espérance : E (X ) =
λ
1
La variance : V (X ) = 2
λ (
1 − e −λx , si x ≥ 0
La fonction de répartition est : FX (x) = .
0, ailleurs

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 60 / 143


Lois usuelles Lois continues

Loi exponentielle

Exemple
Le temps de survie de patients atteints d’un certain cancer peut être
modélisé par une loi exponentielle de moyenne 2 ans. Soit X une v.a.r. qui
associe à un patient sa durée de survie en années.
Quelle est la probabilité de survivre au bout d’un an ? 2 ans ? 5 ans ?

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 61 / 143


Lois usuelles Lois continues

Généralité
On parle de loi normale lorsque l’on a affaire à une variable aléatoire continue dépendant d’un
grand nombre de causes indépendantes dont les effets s’additionnent et dont aucune n’est
prépondérante (conditions de Borel). Cette loi acquiert sa forme définitive avec Gauss (en 1809)
et Laplace (en 1812). C’est pourquoi elle porte également les noms de : loi de Laplace, loi de
Gauss et loi de Laplace-Gauss.
Elle jouit d’une importance fondamentale car un grand nombre de méthodes statistiques reposent
sur elle. Ceci est lié au fait qu’elle intervient comme loi limite dans des conditions très générales.
Pour faire ressortir toute son importance et sa forme, Youden W.J., du National Bureau of
Standards, a eu l’ingénieuse idée de la présenter telle qu’elle apparaı̂t ci-dessous.
La
loi normale
des erreurs
constitue l’une
des généralisations
les plus étendues de
la philosophie naturelle
dans l’histoire de l’humanité.
Elle est un outil précieux pour la
recherche en sciences physiques et
sociales ainsi qu’en médecine, en agriculture
et en génie. Elle est indispensable à l’analyse et à
l’interprétation des données obtenues par l’observation ou
l’expérience.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 62 / 143
Lois usuelles Lois continues

Loi Normale
Exemple d’application
Ainsi la taille corporelle d’un animal dépend des facteurs
environnementaux (disponibilité pour la nourriture, climat, prédation,
etc.) et génétiques. Dans la mesure où ces facteurs sont indépendants
et qu’aucun n’est prépondérant, on peut supposer que la taille
corporelle suit une loi normale.
En métrologie, pour la distribution des erreurs d’observation.
En météorologie, pour la distribution de phénomènes aléatoires tels
que la température et la pression.
En biologie, pour la distribution de caractères biométriques comme la
taille ou le poids d’individus appartenant à une population homogène.
En technologie, pour la distribution des cotes des pièces usinées.
En économie, pour les fluctuations accidentelles d’une grandeur
économique (production, ventes, ....) autour de sa tendance, etc.....
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 63 / 143
Lois usuelles Lois continues

Loi Normale
Définition
Soit X une la variable aléatoire continue définie sur R.
Si sa densité de probabilité est donnée par :

1 1 x−µ 2
fX (x) = √ e− 2 ( σ )
σ 2π

avec µ ∈ R et σ ∈ R+
La loi normale de paramètre (µ; σ) est notée X ∼ N (µ, σ).

Espérance et variance
L’espérance : E (X ) = µ
La variance : V (X ) = σ 2
lim fX (x) = 0
x→±∞
Cette loi est symétrique par rapport à µ : FX (−x) = 1 − FX (x) et fX (µ + x) = fX (µ − x)
(symétrie par rapport à l’axe x = µ).
fX atteint son maximum en x = µ (µ est le mode de X )
Les points d’inflexion du graphe de fX sont x = µ ± σ.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 64 / 143
Lois usuelles Lois continues

Représentation graphique de loi Normale centrée-réduite

La loi normale centrée réduite

0.6
0.5
0.4
0.3
f(z)

0.2
0.1
0.0

−4 −2 0 2 4

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 65 / 143


Lois usuelles Lois continues

Représentation graphique de la fonction de répartition de


la loi Normale centrée-réduite
Fonction de répartion: loi normale c.r.

1.0
0.8
0.6
F(z)

0.4
0.2
0.0

−4 −2 0 2 4

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 66 / 143


Lois usuelles Lois continues

Loi Normale

Fonction de répartition
La fonction de répartition est :
Zx
1 1 t−µ 2
FX (x) = P(X ≤ x) = √ e − 2 ( σ ) dt.
σ 2π
−∞

Problème
FX (x) n’a pas d’expression explicite (analytique) en fonction de x ! !

Solution
Nécessité d’utiliser des tables
Méthode des trapèzes : autant de calculs de lois possibles
On utilise une normalisation (centrée-réduite, standardisation) pour
utiliser une seule table
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 67 / 143
Lois usuelles Lois continues

Loi Normale centrée-réduite


Définition
Soit X une variable aléatoire continue de moyenne µ et d’écart-type σ. On
appelle variable centrée-réduite ou standardisée la v.a. Z définie par
X −µ
Z=
σ
E (Z ) = 0 (On dit que Z est centrée) et V (Z ) = 1 (On dit que Z est
réduite).
1 1 2
La fonction densité est fZ (z) = √ e − 2 z

Conséquence
Si X ∼ N (µ, σ) alors Z ∼ N (0, 1)
La fonction de répartition de Z , notée Φ(z), est tabulée
Souvent notée X ⋆ ou U la variable standardisée
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 68 / 143
Lois usuelles Lois continues

Table de la loi Normale centrée-réduite

Présentation des tables


Table de la fonction de répartition Φ(z) de la loi normale
centrée-réduite
Cette table indique les probabilités des intervalles sous la forme
] − ∞, z] pour des valeurs positives de z.
Rz
C’est la fonction de répartition Φ telle que Φ(z) = f (t) dt.
−∞
Pour des valeurs négatives de z, on utilise la symétrie de la courbe.
Table de distribution de Z , loi normale centrée-réduite
On veut déterminer z tel que
P(Z ≤ z) = Φ(z) = 1 − α
La table donne zλ en fonction de λ

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 69 / 143


Lois usuelles Lois continuesP(Z > 3,29) = 0,0005

Table de la loi Normale centrée-réduite


Rappels:
1/ P(Z > z) = 1 - P(Z < z) et 2/ P(Z < -z) = P(Z > z)
Exemple: Sachant P(Z < 1,24) = 0,8925, on en déduit:
1/ (P(Z > 1,24) = 1 - P(Z < 1,24) = 1- 0,8925 = 0,1075
2/ P(Z < -1,24) = P(Z > 1,24) = 0,1075
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
0,0 0,5000 0,5040 0,5080 0,5120 0,5160 0,5199 0,5239 0,5279 0,5319 0,5359
0,1 0,5398 0,5438 0,5478 0,5517 0,5557 0,5596 0,5636 0,5675 0,5714 0,5753
0,2 0,5793 0,5832 0,5871 0,5910 0,5948 0,5987 0,6026 0,6064 0,6103 0,6141
0,3 0,6179 0,6217 0,6255 0,6293 0,6331 0,6368 0,6406 0,6443 0,6480 0,6517
0,4 0,6554 0,6591 0,6628 0,6664 0,6700 0,6736 0,6772 0,6808 0,6844 0,6879
0,5 0,6915 0,6950 0,6985 0,7019 0,7054 0,7088 0,7123 0,7157 0,7190 0,7224
0,6 0,7257 0,7291 0,7324 0,7357 0,7389 0,7422 0,7454 0,7486 0,7517 0,7549
0,7 0,7580 0,7611 0,7642 0,7673 0,7704 0,7734 0,7764 0,7794 0,7823 0,7852
0,8 0,7881 0,7910 0,7939 0,7967 0,7995 0,8023 0,8051 0,8078 0,8106 0,8133
0,9 0,8159 0,8186 0,8212 0,8238 0,8264 0,8289 0,8315 0,8340 0,8365 0,8389
1,0 0,8413 0,8438 0,8461 0,8485 0,8508 0,8531 0,8554 0,8577 0,8599 0,8621
1,1 0,8643 0,8665 0,8686 0,8708 0,8729 0,8749 0,8770 0,8790 0,8810 0,8830
1,2 0,8849 0,8869 0,8888 0,8907 0,8925 0,8944 0,8962 0,8980 0,8997 0,9015
1,3 0,9032 0,9049 0,9066 0,9082 0,9099 0,9115 0,9131 0,9147 0,9162 0,9177
1,4 0,9192 0,9207 0,9222 0,9236 0,9251 0,9265 0,9279 0,9292 0,9306 0,9319
1,5 0,9332 0,9345 0,9357 0,9370 0,9382 0,9394 0,9406 0,9418 0,9429 0,9441
1,6 0,9452 0,9463 0,9474 0,9484 0,9495 0,9505 0,9515 0,9525 0,9535 0,9545
1,7 0,9554 0,9564 0,9573 0,9582 0,9591 0,9599 0,9608 0,9616 0,9625 0,9633
1,8 0,9641 0,9649 0,9656 0,9664 0,9671 0,9678 0,9686 0,9693 0,9699 0,9706
1,9 0,9713 0,9719 0,9726 0,9732 0,9738 0,9744 0,9750 0,9756 0,9761 0,9767
2,0 0,9772 0,9778 0,9783 0,9788 0,9793 0,9798 0,9803 0,9808 0,9812 0,9817
2,1 0,9821 0,9826 0,9830 0,9834 0,9838 0,9842 0,9846 0,9850 0,9854 0,9857
2,2 0,9861 0,9864 0,9868 0,9871 0,9875 0,9878 0,9881 0,9884 0,9887 0,9890
Soit Z ∼ N (0, 1) : Lecture de la table : Pour z = 1, 24 (intersection de la ligne 1, 2 et de la
2,3 0,9893 0,9896 0,9898 0,9901 0,9904 0,9906 0,9909 0,9911 0,9913 0,9916
2,4 0,9918 0,9920 0,9922 0,9925 0,9927 0,9929 0,9931 0,9932 0,9934 0,9936
colonne 0, 04), on a la proportion P(Z ≤ 1, 24) = 0, 8925
2,5 0,9938 0,9940 0,9941 0,9943 0,9945 0,9946 0,9948 0,9949 0,9951 0,9952
2,6 0,9953 0,9955 0,9956 0,9957 0,9959 0,9960 0,9961 0,9962 0,9963 0,9964
2,7 0,9965 0,9966 0,9967 0,9968 0,9969 0,9970 0,9971 0,9972 0,9973 0,9974
2,8
2,9
0,9974
0,9981
Φ(1, 24) = Φ(1.2 + 0, 04) = P(Z ≤ 1, 24) = 0, 8925
0,9975
0,9982
0,9976
0,9982
0,9977
0,9983
0,9977
0,9984
0,9978
0,9984
0,9979
0,9985
0,9979
0,9985
0,9980
0,9986
0,9981
0,9986
3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900
3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929
Φ(−1, 24) = P(Z ≤ −1, 24) = P(Z ≥ 1, 24) = 1 − P(Z ≤ 1, 24) = 1 − 0, 8925 = 0, 1075
3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
3,6 0,99984 0,99985 0,99985 0,99986 0,99986 0,99987 0,99987 0,99988 0,99988 0,99989
3,7 0,99989 0,99990 0,99990 0,99990 0,99991 0,99991 0,99992 0,99992 0,99992 0,99992
Dr 3,8ZOROM
Malicki 0,99993(2iE)
0,99993 0,99993 0,99994 0,99994
Probabilité 0,99994
et Statistique 0,99994 0,99995 60,99995
novembre0,99995
2024 70 / 143
Lois usuelles Lois continues

Loi Normale

Exemple
Le poids des bébés à la naissance suit une loi normale de moyenne 3,3 Kg
et d’écart-type 0,6 Kg. On note X la variable aléatoire ”poids des bébés à
la naissance”.
Calculer la probabilité que 2, 12 ≤ X ≤ 4, 48
Déterminer la limite du poids correspondant aux 10% des bébés les
plus gros.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 71 / 143


Lois usuelles Lois continues

Loi Normale

Additivité
Soit X1 , X2 , · · · , Xn des variables aléatoires indépendantes avec
Xi ∼ N (µi , σi ). pour tout i.
Soit Y = a0 + a1 X1 + a2 X2 + · · · + an Xn .
Alors Y ∼ N (µ, σ). où

µ = a0 + a1 µ1 + a2 µ2 + · · · + an µn
σ = a12 σ12 + a22 σ22 + · · · + an2 σn2

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 72 / 143


Lois usuelles Lois continues

Approximation de la loi binomiale par la loi normale

Approximation
Soit B(n, p) une variable aléatoire suivant une loi binomiale. Alors X est la
somme de variables de Bernoulli indépendantes de paramètre p.
Si n est grand alors
p X suit approximativement une loi normale
N (µ = np, σ = np(1 − p)).
Cette approximation est bonne si :
1
np > 5 lorsque p ≤ .
2
1
n(1 − p) > 5 lorsque p > .
2

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 73 / 143


Lois usuelles Lois continues

Approximation de la loi binomiale par la loi normale

correction pour la continuité


Puisque B(n, p) est une variable discrète, on cherche à calculer des
probabilités comme P(X = x).
Or ceci n’a pas de sens pour une v.a. continue et on doit corriger la valeur
cherchée pour pouvoir utiliser l’approximation de X par une loi normale.
Par exemple
Valeur cherchée Valeur corrigée
1 1
P(X = x) P(x − ≤ X ≤ x + )
2 2
1 1
P(a ≤ X ≤ b) P(a − ≤ X ≤ b + )
2 2
Cette correction est appelée correction pour la continuité.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 74 / 143


Lois usuelles Lois continues

Loi des grands nombres

Loi des grands nombres


Soient X1 , X2 , · · · , Xn des variables aléatoires indépendantes ayant la
même distribution, avec E (Xi ) = µ pour i = 1, 2, · · · , n.
Alors pour tout ϵ > 0,
 P n 
X
 i=1 i 
lim P  − µ > ϵ = 0.
n→∞  n 

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 75 / 143


Lois usuelles Lois continues

Théorème central limite (TCL)

Théorème central limite


Soient X1 , X2 , · · · , Xn des variables aléatoires indépendantes, avec
E (Xi ) = µi et V (Xi ) = σi pour i = 1, 2, · · · , n.
Alors la variable aléatoire
n
P
(Xi − µi )
i=1
Z= s
n
σi2
P
i=1

suit approximativement une loi normale N (0, 1) si n est grand.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 76 / 143


Lois usuelles Lois continues

TCL : cas particulier

Soient X1 , X2 , · · · , Xn des variables aléatoires indépendantes et identiquement distribuées, avec


E (Xi ) = µ et V (Xi ) = σ pour i = 1, 2, · · · , n.
Alors la variable aléatoire
Pn
Xi − nµ
i=1
Z = √
σ n
suit approximativement une loi normale N (0, 1) si n est grand.
Autres formulations (pour n → ∞) :
n
X √
Xi ∼ N (nµ, σ n)
i=1

ou
n
1X σ
X = Xi ∼ N (nµ, √ ).
n i=1 n

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 77 / 143


Lois usuelles Lois continues

TCL : quelle valeur de n est assez grande ?

Si les lois des Xi sont proches d’une loi normale alors pour n ≥ 4
l’approximation donnée par le théorème central limite est bonne.
Si les lois des Xi sont moyennement proches d’une loi normale (p. ex.
loi uniforme) alors pour n ≥ 12 l’approximation donnée par le
théorème central limite est bonne.
Si les lois des Xi ne sont pas proches d’une loi normale alors pour
n ≥ 100 l’approximation donnée par le théorème central limite sera
bonne (par exemple fonction de densité très asymétrique).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 78 / 143


Lois usuelles Lois continues

Quelques conseils pour résoudre les problèmes

Voici, lorsqu’elle s’applique, une méthode de travail qui peut guider votre
démarche.
1 Suite à l’énoncé du problème, identifier correctement à l’aide de mots
la variable aléatoire que vous allez considérer.
2 Préciser les valeurs possibles que peut prendre cette variable.
3 Identifier correctement la loi de probabilité qu’elle suit en essayant de
reconnaı̂tre dans le problème une situation type.
4 Déterminer les paramètres de la loi.
5 Utiliser les formules théoriques ou les tables pour déterminer les
probabilités demandées. Face à de longs calculs et en l’absence de
tables correspondant à vos ou votre paramètre, penser à approcher
votre loi par une autre.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 79 / 143


Statistique descriptive Introduction

Plan
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites

4 Statistique descriptive
Introduction
Terminologie

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 80 / 143


Statistique descriptive Introduction

La statistique fait intervenir la collecte, la présentation et l’analyse


de données, ainsi que leur utilisation dans le but de résoudre des
problèmes.
D’une autre manière, la statistique est une discipline scientifique dont
le but est
de planifier et recueillir des données pertinentes,
d’extraire l’information contenue dans un ensemble de données,
de fournir une analyse et une interprétation des données afin de pouvoir
prendre des décisions.
La statistique utilise
des notions de probabilités,
des notions de mathématiques.

Définition
La statistique descriptive est un ensemble de méthodes (représentations
graphiques et calculs de caractéristiques numériques) permettant de faire
une synthèse statistique de données. Les données à examiner proviennent
généralement d’un échantillon.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 81 / 143
Statistique descriptive Terminologie

Plan
Loi uniforme discrète
Loi Bernoulli
Loi Binomiale
Loi Géométrique
Loi Hypergéométrique
Loi de Poisson
Approximations de loi discrète
Loi uniforme continue
Loi exponentielle
Loi Normale
Approximation de la loi binomiale par la loi normale
Théorèmes limites

4 Statistique descriptive
Introduction
Terminologie

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 82 / 143


Statistique descriptive Terminologie

L’univers est l’ensemble des objets sur lesquels porte l’étude


statistique.
Une variable est une caractéristique selon laquelle l’univers est étudié.
La population est l’ensemble de toutes les mesures ou observations
de la variable dans l’univers considéré.
Une unité expérimentale est un objet de l’univers, sur lequel la
variable est mesurée.
Un échantillon est un sous-ensemble
de l’univers : s’il est composé d’unités expérimentales,
de la population : s’il est composé de mesures de la variable.
Un paramètre est une mesure caractérisant la variable dans la
population.
Par exemple : la moyenne de la population.
En général, la vraie valeur d’un paramètre est inconnue.
Une statistique est une mesure caractérisant la variable dans un
échantillon de la population.
Par exemple : la moyenne échantillonnale.
Une statistique peut être calculée.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 83 / 143
Statistique descriptive Terminologie

Mesure et variable
Un individu est décrit par un ensemble de critères qu’on appellera
variables ou caractères.
Lorsqu’on mène une étude statistique on s’intéresse à des unités
statistiques ou unités d’observation :
par exemple des individus, des entreprises, des ménages. Dans la
pratique, on s’intéresse dans la plupart des cas à un nombre fini
d’unités.
Sur ces unités, on mesure un caractère ou une variable, le chiffre
d’affaires de l’entreprise, le revenu du ménage, l’âge de la personne, la
catégorie socioprofessionnelle d’une personne, la précipitation.
On suppose que la variable prend toujours une seule valeur sur chaque
unité. Les variables sont désignées par simplicité par une lettre
majuscule (X, Y, Z).
Les valeurs possibles de la variable, sont appelées modalités.
L’ensemble des valeurs possibles ou des modalités est appelé le
domaine de la variable .
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 84 / 143
Statistique descriptive Terminologie

Typologies des variables : qualitatives ou quantitatives.


Variables qualitatives : Ces caractères ne sont pas de nature numérique et
aucune opération arithmétique n’est possible (même si, parfois, elles peuvent être
codées par un nombre). Les valeurs prises par ces variables sont appelées
modalités. On peut distinguer deux types de variables qualitatives :
les variables nominales : ce sont les variables sur lesquels on ne peut faire
ni opération arithmétique, ni comparaison. L’échelle nominale est utilisée
pour représenter les variables dont les catégories ne sont pas naturellement
ordonnées. On peut coder ces catégories par des nombres. Exemple de
variables nominales : l’état civil, le sexe etc
les variables ordinales : L’échelle ordinale est utilisée pour représenter des
variables dont les catégories sont naturellement ordonnées ou en relation les
unes par rapport aux autres. Les modalités sont non-quantitatives et
indiquent uniquement une position dans une série ordonnée (on ne peut pas
mesurer la différence qui existe entre deux positions). Par exemple, un
classement de préférence ou par jugement comme « j’aime un peu »,
« beaucoup », « pas du tout ».

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 85 / 143


Statistique descriptive Terminologie

Typologies des variables statistiques


Variables quantitatives : Les modalités sont de nature numériques et l’on peut effectuer des
opérations arithmétiques et des classements. Elles peuvent être de deux sortes :
discrète : les modalités prennent leurs valeurs dans un ensemble fini ou dénombrable. La
mesure est donc toujours exacte. Par exemple, le nombre d’enfant par famille est une
variable discrète.
continue : ici les variables prennent des valeurs qui peuvent être arbitrairement proche les
unes des autres, et une valeur peut être aussi précise que l’on veut. En réalité, comme les
mesures sont faites en précision finie, l’échelle continue est une abstraction commode pour
modéliser les échelles possédant un grand nombre de valeurs (qui sont théoriquement aussi
proche qu’on veut les unes des autres). Par exemple, la taille est une variable continue.
Ces définitions sont à relativiser, l’âge est théoriquement une variable quantitative continue,
mais en pratique, l’âge est mesuré dans le meilleur des cas au jour près. Toute mesure est limitée
en précision !

Exemple

Les modalités de la variable sexe sont masculin (codé M) et féminin (codé F). Le domaine
de la variable est {M, F }.
Les modalités de la variable nombre d’enfants par famille sont 0,1,2,3,4,5,. . .C’est une
variable quantitative discrète.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 86 / 143


Statistique descriptive Terminologie

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 87 / 143


Statistique descriptive Terminologie

Méthodologie

Une étude statistique débute par la collecte des données : les observations
« brutes »sont obtenues après enquête, mesures etc. C’est à ce niveau qu’intervient
les méthodes d’échantillonages (non abordées dans ce chapitre).
Une fois les données collectées, et avant d’apporter des réponses précises aux
questions posées au préalable de l’étude, il convient d’analyser ces données. Cette
analyse à pour but de synthétiser, résumer et structurer l’information contenue
dans les données à l’aide de tableaux, graphiques et résumés numériques. C’est
l’objet de la statistique descriptive, ou exploratoire, qui est l’objet de ce chapitre.
Cette analyse se fait sur l’échantillon qu’on a à disposition.
Cette description des données n’est en général pas suffisante. Une bonne étude
statistique consiste en formuler et valider des hypothèses relative à la population
totale. Le but est d’étendre les résultats observés précédement à toute la
population, en étudiant le risque d’erreur possible. C’est le but de l’inférence
statistique (qui ne sera pas abordée dans ce chapitre).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 88 / 143


Statistique descriptive Terminologie

Lien statistique/Probabilité

Il existe des équivalences entre les termes utilisés en statistique et la probabilié (voir le
tableau ci-dessous).
Probabilité Statistique
Espace fondamental Population
Epreuve Tirage (d’un individu), expérimentation
Evènement élémentaire Individu, observation
Variable aléatoire Caractère
Epreuves répétées Echantillonnage
Nbre de répétitions d’une épreuve Taille de l’échantillon, effectif total
Probabilité Fréquence observée
Loi de probabilité Distribution observée ou loi empirique
Espérance mathématique Moyenne observée
Variance Variance observéee

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 89 / 143


Statistique descriptive Terminologie

Tableaux statistiques et graphiques

Dans cette section, on considèrera des échantillons de taille n, c’est-à-dire


n individus ω1 , · · · , ωn issus d’une population Ω. On notera en majuscule
(généralement X ou Y ) les variables statistiques. Les modalités des
variables statistiques seront notées avec la minuscule correspondante et
indicées, s’il y a lieu, par le numéro de la modalité dans le cas discret ou
de la classe (ie un ensemble de modalité) dans le cas continue. La
modalité prise par la variable X pour l’individu ωn sera notée X (ωn ).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 90 / 143


Statistique descriptive Terminologie

Tableaux statistiques

Tableau brut : On considère une étude statistique portant sur un


échantillon de taille n individus. On mesure plusieurs variables statistiques,
qui peuvent être qualitatives ou quantitatives. La récolte initiale des
données conduit à un tableau brut de la forme :
Individus variable 1 variable 2 ·
ω1 X (ω1 ) Y (ω1 ) ·
ω2 X (ω2 ) Y (ω2 ) ·
.. .. .. ..
. . . .
ωn X (ωn ) Y (ωn ) ·
Les tableaux des données sont présentés généralement sous cette forme
pour analyser les données dans la plus part des logiciels d’analyse de
données.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 91 / 143


Statistique descriptive Terminologie

Tableau de contingence

Pour les variables qualitatives, on peut construire un tableau de contingence. Ce tableau résume comment une caractéristique
dépend d’une autre. Pour des raisons pratiques, on se limite généralement au tableau de contingence de deux variables
qualitatives X et Y de modalités respectives (x1 , · · · , xi , · · · , xI ) et (y1 , · · · , yj , · · · , yJ ). Ce tableau donne le nombre
d’individus possédant simultanément la modalité xi de la variable X et la modalité yj de la variable Y . Un tel tableau se
présente sous la forme suivante, pour un échantillon de taille n :
XY y1 · yj · yJ
x1 n11 n1j n1J n1•
. . .
. . .
. . . n1•
xi ni1 nij niJ ni•
. . .
. . .
. . . n1•
xI nI 1 nIj nIJ nI •
n•1 n•j n•J n
où nij désigne le nombre de fois où X à pris la modalité xi et Y la modalité yj . Autrement dit, nij représente le nombre
d’individus qui possède à la fois la caractéristique xi et la caractéritique yj . On définit les quantités

J
X I
X
ni• = nij et n•j = nij
j=1 i=1

qui représentent respectivement le nombre d’individus qui possèdent la modalitée xi et le nombre d’individus avec la modalitée

yj .

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 92 / 143


Statistique descriptive Terminologie

Tableau des fréquences


Variable discrète : On considère une variable qualitative ou qualitative discrète X à
valeurs dans {x1 , · · · , xi , · · · , xK }. Si X est quantitative ou qualitative ordinale, on
suppose ses modalités ordonnées tels que x1 < · · · < xi < · · · < xK . On commence par
définir les quantités descriptives de bases.

Effectif ou fréquence absolue : On appelle effectif ou fréquence absolue de la modalité


xk le nombre Nk d’individus qui ont pris la modalité xk :
X
Nk = X (ω)
ω∈Ω|X (ω)=xk

k
X
Nk = ni
i=1

Fréquence relative : On appelle fréquence relative (ou simplement fréquence) de la


modalité xk le nombre fk définit par :
nk
fk =
n

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 93 / 143


Statistique descriptive Terminologie

Fréquence relative cumulée : On appelle fréquence relative cumulée (ou


simplement fréquence cumulée) de la modalité xk le nombre Fk définit
par :
k
X
Fk = fi
i=1

K
X
FK = fk = 1
k=1
On peut aussi définir les effectifs cumulés :

Effectifs cumulés : On appelle effectif cumulé de la modalité xk le


nombre Nk définit par :
k
X
Nk = ni = nFk
i=1

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 94 / 143


Statistique descriptive Terminologie

La distribution des n observations de X peut être présentée sous la forme


d’un tableau de fréquence où figurent, pour chaque modalité xk , l’effectif
nk , la fréquence relative fk et la fréquence cumulée Fk :
modalité effectif fréquence fréquence
relative cummulée
x1 n1 f1 F1
.. .. .. ..
. . . .
xk nk fk Fk
.. .. .. ..
. . . .
xK nK fK FK
Les fréquences relative et cumulée peuvent être donnée sous forme de
pourcentage.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 95 / 143


Statistique descriptive Terminologie

Défauts relevés sur une pièce de tissu : Un fabricant de tissu essaie une nouvelle
machine ; il compte le nombre de défauts sur 75 échantillons de 10 mètres. Il a trouvé les
résultats suivants :

Nombre d’individus : les 75 échantillons.


Fréquence absolue associée à la valeur k, le nombre nk : par exemple, sur les 75
échantillons examinés, 11 présentent k = 2 défauts, donc si k = 2, nk = 11.
nk
Fréquence relative associée à la valeur k : le quotient .
n
11/75=0,146 est la fréquence relative associée à la valeur k = 2.
Fréquence cumulée absolue associée à la valeur k : le nombre d’échantillons ayant au
plus k défauts (k compris).
38 + 1 + 15 + 1 + 11 = 64 est la fréquence cumulée absolue associée à la valeur k = 2.
Fréquence cumulée relative associée à la valeur k, le nombre d’échantillons ayant au plus
k défauts (k compris) divisé par n.
64/75=0,853 est la fréquence cumulée relative associée à la valeur k = 2.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 96 / 143


Statistique descriptive Terminologie

Les fréquences relatives et les fréquences cumulées relatives peuvent être utilisées
pour comparer deux ou plusieurs populations.
Dans le cas d’une distribution continue, les données sont en général regroupées en
classes. Les fréquences absolues, relatives et cumulées sont définies par rapport aux
classes et non par rapport aux valeurs de la variable.
Variable continue Dans le cas où la variable X est continue, la réalisation d’un tableau
de fréquence nécessite au préalable une répartition en classes des données. On doit
définir a priori le nombre de classes K et l’amplitude (ou l’étendue) de chaque classe. Ce
choix doit résulte d’un compromis entre deux objectifs antagonistes : résumer les
données (K ne doit pas être trop grand) sans perdre l’information pertinente (K ne doit
pas être trop petit). Pour ce faire, un moyen « simple » est de diviser l’étendue des
données en plusieurs intervalles de même longueur, puis l’on regroupe les classes
d’effectifs trop petit (ie moins de 5 individus). On peut utiliser une des deux règles
suivantes pour déterminer le nombre de classes :
10
Règle de Sturge : K = 1 + log10 (n)
3
1
Règle de Yule : K = 2.5n 4

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 97 / 143


Statistique descriptive Terminologie

L’intervalle entre les classes est alors donné par


xmax − xmin
Longueur de l ′ intervalle =
K
, où xmax (resp.xmin ) désigne la plus grande (res. la plus petite) valeur de prise par les
X (ω), ω ∈ Ω.
On note Ck l’ensemble des individus qui appartiennent à la classe K .
Le nombre de classes ne devrait être ni inférieur à 5, ni supérieur à 20 (il varie
généralement entre 6 et 12). Ce choix est fonction du nombre d’observations et de leur
dispersion .

Amplitude : L’amplitude Lk de la classe k est donnée par


Lk = max{X (ω), ω ∈ Ck } − min{X (ω), ω ∈ Ck } c’est-à-dire la longueur de l’intervalle. Si
xk−1 et xk sont les bornes respectivement inférieure et supérieure de la classe k alors
Lk = xk − xk−1
nk
Densité : La densité dk de la classe k est donnée par dk =
Lk
Ce découpage en classes permet de se ramener au cas discret décrit précédemment pour
obtenir le tableau de fréquences, en adaptant directement les définitions vues
précédemment.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 98 / 143


Statistique descriptive Terminologie

Variable discrête : On complète le tableau de l’exemple des défauts


relevés sur une pièce de tissu en calculant les fréquences relatives fi ,
toutes les fréquences absolues cumulées Ni et les fréquences relatives
cumulées Fi .

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 99 / 143


Statistique descriptive Terminologie

Variable continue : Essais de fiabilité de dispositifs électroniques


100 dispositifs identiques ont été soumis à un test de fiabilité ; on a noté la
durée de vie, en heures, jusqu’à défaillance (fin de l’aptitude du dispositif à
remplir la fonction requise).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 100 / 143


Statistique descriptive Terminologie

Représentations graphiques

Lorsqu’on observe un caractère sur des individus, les tableaux de chiffres


définis précédemment sont peu parlant. Ils sont cependant très utiles pour
construire des graphiques divers, qui permettent d’un seul coup d’oeil
d’avoir une idée de la manière dont se répartissent les individus.
Variables qualitatives On considère une variable statistique qualitative X
prenant K modalités x1 , · · · , xk , · · · , xK . La seule représentation qui nous
intéresse est celle des effectifs Nk ou des fréquences fk . On utilise le
tableau de fréquence pour construire les graphiques définis par la suite.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 101 / 143


Statistique descriptive Terminologie

Diagramme en barre ou tuyaux d’orgue


Les modalités de la variable sont placées sur une droite horizontale (attention : si
la variable est nominale, ne pas orienter cette droite car les modalités n’ont pas de
relation d’ordre).
Les effectifs ou les fréquences sont placées sur un axe vertical. La hauteur du baton
est proportionnelle à l’effectif.
Les tuyaux ont une certaine épaisseur pour qu’il n’y ait pas de confusion avec les
diagrammes en bâtons réservés à la variable quantitative discrète.
Il doit y avoir un espace entre les tuyaux pour ne pas les confondres avec les
histogrammes réservés aux variables quantitatives continues.
Effectif ou Fréquence

X1 X2 X3 X4 Modalités

Figure – Diagramme en barres

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 102 / 143


Statistique descriptive Terminologie

Diagramme en secteurs ou « camenbert »


L’effectif total est représenté par un disque.
Chaque modalité est représentée par un secteur circulaire dont la
surface (pratiquement : l’angle au centre) est proportionnelle à
l’effectif correspondant.
Si ce type de graphique est couramment utilisé dans les médias, c’est une
très mauvaise représentation car il présente un risque d’interprétation :
l’oeil distingue moins bien les différences entre secteurs (d’un camembert)
qu’entre hauteurs (d’un diagramme en barre).

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 103 / 143


Statistique descriptive Terminologie

Variables quantitatives
Avant toute tentative de représentation,Effectif il you Fréquence
a lieu de distinguer entre variable discrète et
variable classée (regroupements en classes). Si pour une variable continue le regroupement en
classes est nécessaire, lorsque les modalités d’une variable discrète sont trop nombreuses il est
préférable de regrouper des modalités pour obtenir une variable classée, afin que les graphiques
synthétisent l’information et restent lisibles.
On considère une variable statistique quantitatives X prenant ses valeurs parmis K modalités ou
classes x1 , · · · , xk , · · · , xK . On suppose les modalités (ou classes) ordonnées telles que
x1 < · · · < xk < · · · < xK . On utilise le tableau de fréquence pour construire les graphiques
définis par la suite. Deux types de graphiques sont intéressants à représenter :
(1) Les diagrammes différentiels qui mettent en évidence les différences d’effectifs
(ou de fréquences) entre les différentes modalités ou classes.

X2 X3

X1

X4

Figure – Diagramme en secteurs


(2) les (2iE)
Dr Malicki ZOROM diagrammes cumulatifs quietpermettent
Probabilité Statistique de répondre 6aux questions
novembre 2024 du style
104 / 143
Statistique descriptive Terminologie

Diagrammes différentiels :
Variables discrètes Pour les caractères quantitatifs discrets, la représentation graphique
différentielle est le diagramme en bâtons où la hauteur des bâtons correspond à l’effectif Nk (ou
la fréquence relative fk ) associé à chaque modalité du caractère xk .
Les valeurs discrètes prises par les modalités sont placées sur l’axe des abscisses,
ordonnées comme il se doit.
Les effectifs ou fréquences sont placées sur l’axe des ordonnées.
Les axes sont fléchés.
La hauteur du bâton est proportionnelle à l’effectif ou la fréquence.
Attention : bien faire des batons et non des tuyaux ou des histogrammes.

Effectif ou Fréquence

X1 X2 X3 X4 Modalités

Figure – Diagramme en batons

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 105 / 143


Statistique descriptive Terminologie

Classement de 100 familles en fonction du nombre d’enfants : On a relevé le nombre d’enfants


de 100 familles choisies au hasard. Le tableau ci-dessous donne les principales caractéristiques de
cette étude.

xi nombre d’enfants compris entre 0 et 7.


ni nombre de familles ayant xi enfants.
fi fréquence relative des familles ayant xi enfants.
Fi fréquence cumulée des familles ayant au plus xi enfants.

Figure – Diagramme en bâtons de la distribution de l’exemple de la famille

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 106 / 143


Statistique descriptive Terminologie

Variables continues. Lorsque les caractères quantitatifs sont continus, on utilise l’histogramme.
Un histogramme est ensemble de rectangles contigus où chaque rectangle associé à chaque
classe a une surface proportionnelle à l’effectif (fréquence) de cette classe. Si les classes sont
d’amplitudes égales, alors la hauteur des rectangles est proportionnelle à l’effectif de la
classes.Avant toute construction d’histogramme, il faut donc regarder si les classes sont
d’amplitudes égales ou non.
Les modalités (continues) sont représentés en abscisses. Le cas des classes d’amplitudes égales
ne pose aucune difficulté car il suffit de reporter en ordonnée l’effectif (la fréquence). Si les
nk
classes sont d’amplitudes différentes, on reporte en ordonnée la densité dk = .
Lk

Figure – Histrogramme

L’histogramme est un outil statistique facile à utiliser, donnant rapidement une image du
comportement d’un procédé et l’allure globale de la distribution ; il montre l’étalement des
données et apporte ainsi des renseignements sur la dispersion et sur les valeurs extrêmes ; il
permet de déceler, éventuellement, des valeurs aberrantes.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 107 / 143
Statistique descriptive Terminologie

diagrammes cummulatifs. Les diagrammes cummulatifs permettent de visualiser l’évolution des


fréquences cummulées ou des effectifs cummulés. On utilise en général la fonction de répartition
empirique dont la courbe correspond à l’évolution des fréquences cummulées. Elle se définie de
la même manière pour les variables quantitatives continues ou discrètes.
Fonction de répartition empirique : Soit X une variable statistiques quantitative observée sur
un échantillon ω1 , · · · , ωn de taille n issue d’une population Ω. On appelle fonction de
répartition
 empirique la fonction :

 0, x < x1′
i


b = Fi = 1
 X
F nj , si x1′ ≤ x < xi+1


 n j=1


1, si x ≥ xI′

Pour tout réel x,F b est donc la proportion d’observations inférieurs ou égales à x. La fonction F b
est une fonction en escalier. Le calcul pratique de F b s’effectue en ordonnant les n observations
X (ω1 ), · · · , X (ωn ) par ordre croissant. On note x1′ , · · · , xI′ les I valeurs distinctes obtenues et ni
l’effectif de xi′ .
On utilise la fonction de répartition empirique pour répondre aux questions du style : Quel est le
nombre (ou le pourcentage) d’individus dont la valeur du caractère est inférieure ou égale à x ?

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 108 / 143


Statistique descriptive Terminologie

Polygone de fréquences
Il permet de représenter sous forme de courbe, la distribution des
fréquences absolues ou relatives. Il est obtenu en joignant, par des
segments de droite, les milieux des côtés supérieurs de chaque rectangle de
l’histogramme. Pour fermer ce polygone, on ajoute à chaque extrémité une
classe de fréquence nulle.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 109 / 143


Statistique descriptive Terminologie

Étude de la dispersion d’un lot de 400 résistances : On a contrôlé 400 résistances dont la
valeur nominale est égale à 100 kΩ et on a regroupé les résultats en classes d’amplitude 2 kΩqui
représente environ le dixième de la dispersion totale de l’échantillon contrôlé.

Les classes étant toutes de même amplitude, l’histogramme est facile à tracer ; il suffit de
construire des rectangles dont l’aire est proportionnelle à la fréquence des résistances de la classe
correspondante.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 110 / 143


Statistique descriptive Terminologie

Courbes de fréquences cumulées


Courbe cumulative croissante : on joint les points ayant pour abscisses
la limite supérieure des classes et pour ordonnées les fréquences cumulées
croissantes correspondant à la classe considérée (pour le premier point, on
porte la valeur 0). Elle donne le nombre d’observations inférieures à une
valeur quelconque de la série.
Courbe cumulative décroissante : la construction de cette courbe est
analogue à la précédente. Les points ont pour abscisses, les limites
inférieures des classes et pour ordonnées, les fréquences cumulées
décroissantes (pour le dernier point, la valeur est 0). Elle donne le nombre
d’observations supérieures à une valeur quelconque de la série.

Figure – Histogramme de la distribution de l’exemple sur l’étude de dispersion


d’unDr lot et ZOROM
Malicki polygone
(2iE) de fréquence.
Probabilité et Statistique 6 novembre 2024 111 / 143
Statistique descriptive Terminologie

Mesures de tendance
On considère sur un échantillon de n individus la variable statistique X = (X1 , X2 , · · · , Xn )
Indicateurs de tendance centrale : Les mesures de tendance centrale permettent de résumer un
ensemble de données relatives à une variable quantitative. Elles permettent de déterminer une
valeur « typique » ou centrale autour de laquelle des données ont tendance à se rassembler.
Moyennes : L’indicateur le plus couramment utilisé est la moyenne empirique ou moyenne
arithmétique.

Moyenne arithmétique : On appelle moyenne arithmétique de X la quantité :

n
X
Xi
X1 + X2 + · · · + Xn i=1
X = =
n n

k
X
ni vi
i=1
Sur une série discrète la moyenne est : X = où vi est la modalité de la série et dans le
n
k
X
ni ci
i=1
cas de série continue classée X = où ci représente le centre de la classe i.
n

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 112 / 143


Statistique descriptive Terminologie

La moyenne possède, entre autre, la propriété importante suivante :

Proposition : La somme des écarts à la moyenne empirique est nulle.


n
X n
X
En effet, (Xi − X ) = Xi − nX = 0 L’inconvénient principal de la moyenne empirique
i=1 i=1
comme indicateur de tendance centrale est d’être assez sensible à la présence de valeurs
« abérantes ». Un indicateur de tendance centrale plus robuste est donné par la moyenne
tronquée d’ordre k :
La moyenne arithmétique permet de résumer par un seul nombre la série statistique.
Elle prend en compte toutes les valeurs de la série et elle est facile à calculer.
Elle est sensible aux valeurs extrêmes, il est parfois nécessaire de supprimer des valeurs
extrêmes ou « aberrantes ».

Moyenne tronquée d’ordre k : On appelle moyenne tronquée d’ordre k de X la quantité

n−k
1 X
Xk = Xi
n − 2k i=k+1

Cette moyenne s’obtient en fait en supprimant les k plus petites valeurs et les k plus grandes
valeurs d’une observations.
Il existe d’autres moyennes, dont on donne la définition pour les plus courantes.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 113 / 143


Statistique descriptive Terminologie

Définition : Moyenne géométrique : On appelle moyenne géométrique de X la quantité


v
u n
pn
uY
n
Mg (X ) = X1 X2 · · · Xn = t Xi
i=1

L’utilisation de la moyenne géométrique fait sens si les valeurs ont un caractère multiplicatif.
Définition : Moyenne harmonique : On appelle moyenne harmonique de X la quantité
n n
Mh (X ) = 1 1 1
= n
X
+ X
+ · · · + X
X 1
1 2 n

i=1
Xi

On utilise la moyenne harmonique lorsqu’on veut déterminer un rapport moyen dans des
domaines ou ils existent des liens de proportionnalité inverse.
Définition : Moyenne quadratique :On appelle moyenne quadratique de X la quantité
v
u n
u1 X
Mq (X ) = t X2
n i=1 i

Définition : Généralisation de la moyenne : On peut généraliser la notion de moyenne de X de


la façon suivante, pour m ∈ R
v
u n
u1 X
Mm (X ) = t n
Xm
n i=1 i

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 114 / 143


Statistique descriptive Terminologie

On retrouve les moyennes définies précédemment avec cette définition très


générale :
Pour m = 1, M1 (X ) est la moyenne arithmétique ;
Pour m = −1, M−1 (X ) est la moyenne harmonique ;
Pour m = 2, M2 (X ) est la moyenne quadratique ;
Lorsque m → 0 Mm (X ) tend vers la moyenne géométrique.

Théorème : Inégalité des moyennes : Soient a ∈ R et b ∈ R. Soit une


variable statistique X sur N individus. On note M0 (X ) la moyenne
géométrique.
Si a < b alors Ma (X ) < Mb (X )

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 115 / 143


Statistique descriptive Terminologie

Quantiles

Les quantiles permettent de donner des indications du type « 1 personne sur 10 a moins de tel
âge ».
La médiane est un indicateur de tendance centrale (plus robuste que la moyenne empirique) qui
divise la population en deux parties, qui ont le même nombre d’individus. Autrement dit, elle
sépare l’échantillon en deux parties égales.

Définition : Médiane : La médiane Me est définie comme suit :


Si n est impair alors Me = X n+1 . la médiane est une valeur observée de la série
2
Xn+1 + Xn
Si n est pair alors Me = . on peut prendre pour valeur médiane, indifféremment
2
l’une ou l’autre des valeurs centrales ou n’importe quelle valeur intermédiaire entre ces
deux valeurs, par exemple, la moyenne arithmétique de ces deux valeurs, mais, dans ces
conditions, ce n’est pas une valeur observée.

La formule de la médiane ci-dessous est valable pour les variables discrètes. Si les variables sont
continues, la médiane Me obtenue est dans l’intervalle [xk−1 ; xk [ avec la condition
0.5 − Fk−1
Fk−1 ≤ 0.5 < Fk par l’interpolation linéaire : Me = xk−1 + (xk − xk−1 )
Fk − Fk−1

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 116 / 143


Statistique descriptive Terminologie

Propriété :
Le calcul de la médiane est rapide.
La médiane n’est pas influencée par les valeurs extrêmes ou aberrantes.
La médiane est influencée par le nombre des données mais non par leurs valeurs, elle ne
peut donc pas être utilisée en théorie de l’estimation.
Si la variable statistique est discrète, la médiane peut ne pas exister ; elle correspond
seulement à une valeur possible de cette variable.
La médiane est le point d’intersection des courbes cumulatives croissante et décroissante.
La médiane ne se prête pas aux combinaisons algébriques ; la médiane d’une série globale
ne peut pas être déduite des médianes des séries composantes.
Exemple : Dispersion d’un lot de 400 résistances ; Calcul de la moyenne arithmétique :
1
X = 400 (93 ∗ 10 ∗ 1 + 95 ∗ 15 + 97 ∗ 40 + · · · + 111 ∗ 10) = 101, 90 La moyenne
400
arithmétique est égale à 101,90 kΩ. Médiane : la série des observations comporte un nombre
pair de classes. On peut définir une classe médiane comme la moyenne des classes V et VI,
c’est-à-dire la classe fictive [101, 103[ donc une résistance égale à 102 kΩ. Un calcul plus précis
consiste à chercher la valeur de la résistance de l’individu occupant le rang 200 (ou 200,5 !). Ne
connaissant pas la distribution à l’intérieur des classes, on fait une interpolation linéaire. Le
tableau de l’exemple ?? montre que cet individu appartient à la classe V.
125 résistances ont une valeur nominale inférieure à 100 kΩ et 215 résistances ont une valeur
2 ∗ (200 − 125)
nominale inférieure à 102 kΩ d’où le calcul de la médiane : 100 + = 101, 66.
215 − 125
La médiane est égale à 101,66 kΩ. Donc, 200 résistances ont une valeur nominale inférieure ou
égale à 101,66 kΩ et 200 résistances ont une valeur nominale supérieure à 101, 66 kΩ.
Le point d’intersection des deux courbes cumulatives a pour abscisse la médiane.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 117 / 143
Statistique descriptive Terminologie

Exemple : On considère les séries d’observations suivantes. Série I : 5 observations classées par
ordre croissant, 2, 5, 8, 11, 14
Moyenne arithmétique 8, médiane 8
Série II : 6 observations classées par ordre croissant, 6, 6, 14, 16, 18, 18
Moyenne arithmétique 13, médiane 15
Série III : les deux séries précédentes réunies, 2, 5, 6, 6, 8, 11, 14, 14, 16, 18, 18
Moyenne arithmétique 10,72, médiane 11
Plus généralement, on peut définir une valeur qui sépare l’échantillon en deux parties de tailles
approximativement égale à αN, où α ∈]a, b[. Une telle valeur est appelée quantile ou fractile
empirique d’ordre α. Plusieurs définitions existent, et l’on donne la suivante :

Définition : Quantile d’ordre α : Soit α ∈]a, b[ Si αn ∈ ⋉ alors Qα = Xαn


Sinon Qα = X⌊αn⌋+1

Les quantiles les plus utilisés sont les quartiles et les déciles. Les quartiles divisent les
observations en 4 parties (Q25% , Q50% , Q75% ). Les déciles divisent l’ensemble des observations
en 10 parties : (Q10% , Q20% , Q30% , Q40% , Q50% , Q60% · · · )
Enfin, un indicateur de position souvent utilisé dans le cas d’un caractère discret est le mode,
défini comme la valeur la plus fréquente dans la série d’observation (cette valeur n’est pas
nécessairement unique). Dans le cas d’un caractère continu, cette notion ne s’applique pas
directement, mais on peut définir une classe modale, lorsque les données ont été préalablement
catégorisées.
Les mesures données ci-dessus possèdent les deux propriétés suivantes, qui permettent de savoir
comment les données se comportent si elles subissent une translation ou un changement
d’échelle. Intuitivement, le « centre » d’une distribution doit « suivre »la transformation car
celle-ci ne pertube pas la position relative des points observés.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 118 / 143
Statistique descriptive Terminologie

Application : boı̂te à moustaches


Le diagramme en boı̂te à moustaches ou box-plot (Tukey)ou box-andWiskers plot permet de
représenter schématiquement les principales caractéristiques d’une distribution en utilisant les
quartiles.
La partie centrale de la distribution est représentée par une boı̂te de largeur arbitraire et de
longueur la distance interquartile, la médiane est tracée à l’intérieur.
La boı̂te à moustache résume la série à partir de ses valeurs extrêmes, ses quartiles et sa
médiane. Elle permet une comparaison visuelle immédiate de plusieurs séries. La boı̂te rectangle
est complétée par des moustaches correspondant aux valeurs suivantes :
valeur supérieure : Q3 + 1, 5(Q3 − Q1 )
valeur inférieure : Q1 − 1, 5(Q3 − Q1 )
Les valeurs extérieures « aux moustaches »sont représentées par des étoiles ou des petits cercles
et peuvent être considérées comme aberrantes.
I = Q3 − Q1 est appelé l’intervalle inter-quartile et comporte 50% des observations de la série.
On trace un rectangle de longueur l’inter-quartile et la largeur proportionnelle à la racine carrée
de la taille de la série.
Valeurs
atypiques ou
singulières ou
outliers

Q1-I(Q3- Q1) Q1 Q2=Me Q3 Q3+I(Q3- Q1)


Xmin Xmax

Figure – Exemple de boı̂te à moustaches (les astérisques ∗ représentent les valeurs


aberrantes de la distribution)
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 119 / 143
Statistique descriptive Terminologie

Proposition : Translation : Soit a ∈ R et la variable statistique Y définie comme Y = X + a.


Alors on a µY = µX + a, où µ désigne une mesure de tendance centrale (par exemple, la
moyenne ou la médiane).

Proposition : Changement d’échelle : Soit a ∈ R et la variable statistique Y définie comme


Y = aX . Alors on a µY = aµX , où µ désigne une mesure de tendance centrale (par exemple, la
moyenne ou la médiane).

Enfin, on peut se demander quels relations il existent entre la moyenne et la médiane. De


manière générale, il n’existe pas de lien entre la moyenne et la médiane. Cependant, on
comparera souvent la moyenne et la médiane pour caractériser la distribution d’une série
statistique :
♣ Si la moyenne est supérieure à la médiane, on dit que la distribution des
valeurs observées présente une dissymétrie positive.
♣ Si la moyenne est inférieure à la médiane, on dit que la distribution des
valeurs observées présente une dissymétrie négative.
♣ Si la moyenne est égale à la médiane, on dit que la distribution des valeurs
observées est symétrique.
Mode : Définition : Le mode est une moyenne de fréquence.

Le mode : Le mode est la valeur de la variable statistique la plus fréquente que l’on observe
dans une série d’observations.

Si la variable est une variable discrète, le mode s’obtient facilement. Si la variable est une
variable continue, on définit une classe modale.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 120 / 143
Statistique descriptive Terminologie

Propriété :
Le mode n’existe pas toujours et quand il existe, il n’est pas toujours unique.
Si après regroupement des données en classes, on trouve deux ou plusieurs modes
différents, on doit considérer que l’on est en présence de deux ou plusieurs
populations distinctes ayant chacune leurs caractéristiques propres ; dans ce cas, la
moyenne arithmétique n’est pas une caractéristique de tendance centrale.
Exemple : Dispersion d’un lot de 400 résistances : On ne peut pas définir une valeur
modale en ne connaissant pas la distribution à l’intérieur de chaque classe. On définit
une classe modale, c’est la classe V.
Exemple : Avec l’exemple sur les séries d’observation. Série I : pas de mode.
Série II : deux modes 6 et 18.
Série III : les deux séries réunies, trois modes 6, 14 et 18.
Remarque : Pour définir n’importe quelle caractéristique (excepté la moyenne
arithmétique), il faut que les données soient classées en ordre croissant (ou décroissant).
Pour le calcul de la médiane, on peut trouver un résultat différent selon que les données
sont classées par ordre croissant ou décroissant.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 121 / 143


Statistique descriptive Terminologie

Indicateurs de dispersion
Comme le nom l’indique, les indicateurs de dispertions permettent de mesurer comment les
données se « répartissent ». On peut définir deux types de mesure de dispersions :
♠ Les mesures définies par la distance entre deux valeurs représentatives de la
distribution
♠ Les mesures calculées en fonction de la déviation par rapport à une valeur
centrale
Définition : Étendue : L’étendu d’une série statistique est l’écart entre sa plus grande valeur et
sa plus petite.
e = max X − min X
Ce dernier indicateur est très peu robuste. On lui préférera souvent l’intervalle inter-quartile.
Un premier moyen de mesurer la dispersion des données autour de la moyenne est l’écart moyen
absolu.
Propriété :
L’étendue est facile à calculer.
Elle ne tient compte que des valeurs extrêmes de la série ; elle ne dépend ni du nombre, ni
des valeurs intermédiaires ; elle est très peu utilisée dès que le nombre de données dépasse
10.
Elle est utilisée en contrôle industriel où le nombre de pièces prélevées dépasse rarement 4
ou 5 ; elle donne une idée appréciable de la dispersion. Cependant, dès que cela est
possible, on préfère prélever 15 à 20 unités et utiliser l’écart-type pour apprécier la
dispersion.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 122 / 143
Statistique descriptive Terminologie

Écart moyen absolu

Définition : Écart moyen absolu : L’écart moyen absolu est définie par la
quantité
n
1X
|Xi − X |
n
i=1

Cette mesure à l’inconvénient mathématique de ne pas être dérivable


partour (la valeur absolue n’est pas dérivable en 0). On corrige ce
problème en mesurant la moyenne des écarts élevés au carré. On obtient
alors la définition de la variance empirique :

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 123 / 143


Statistique descriptive Terminologie

Variance empirique

Définition : Variance empirique : On appelle variance empirique de la série statistique X la


quantité

n
1X
σ2 = (Xi − X )2
n i=1

Un moyen pratique de calculer la variance empirique est donné par la proposition suivante :
Proposition :

On appelle variance empirique de la série statistique X la quantité

n
1X 2 2
σ2 = X −X
n i=1 i

Proposition : à démontrer
Cet estimateur pose un autre problème : il est biaisé. On utilise alors en pratique une version
corrigée

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 124 / 143


Statistique descriptive Terminologie

Variance empirique corrigée et Écart-type


Définition : Variance empirique corrigée :

n
∗2 1 X 2 2
σ = Xi − X
n − 1 i=1

Proposition :

∗2 n 2
σ = σ
n−1

Enfin, pour avoir une quantité qui s’exprime dans la même unité que la moyenne (l’unité de la variance est l’unité de la moyenne
élevée au carré), on utilise l’écart-type.

Définition : Écart-type : On définit l’écart type empirique comme la racine de la variance empirique :

v
p u
u1 X n
σ= σ2 = t (Xi − X )2
n i=1

Les mesures de dispertions possèdent notamment les propriétés suivantes :


Proposition (Invariance par translation) Les quantités de mesure de dispertion définies ci-dessus sont invariantes par translation.
2 2
Proposition (Changement d’échelle) Soit a ∈ R et Y = aX . On note σY (resp.σX ) la variance de Y (resp. de X ). On a
2
σY = a 2 σX 2
et σY = aσX

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 125 / 143


Statistique descriptive Terminologie

Propriété
L’écart-type caractérise la dispersion d’une série de valeurs. Plus σ est petit, plus les
données sont regroupées autour de la moyenne arithmétique X et plus la population est
homogène ; cependant avant de conclure, il faut faire attention à l’ordre de grandeur des
données.
L’écart-type permet de trouver le pourcentage de la population appartenant à un
intervalle centré sur l’espérance mathématique.
La variance tient compte de toutes les données, c’est la meilleure caractéristique de
dispersion (nombreuses applications en statistique).
Exemple : Séries d’observations de l’exemple précédent :
Série I
Variance : 18
Écart-type : 4,24
Série II
Variance : 26,33
Écart-type : 5,13
Série III (les deux séries réunies)
Variance : 28,75
Écart-type : 5,36
n
1X
Pour une série discrète la variance est : σ 2 = ni (vi − X )2 où vi représente la modalité de
n i=1
la variable discrète et dans le cas d’une variable continue (intervalle) on a
n
1X
σ2 = ni (ci − X )2 avec ci est le centre de la classe i.
n i=1
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 126 / 143
Statistique descriptive Terminologie

Coefficient de variation

Définition : Coefficient de variation : Il s’exprime, sous la forme d’un pourcentage, par


l’expression suivante :

σ
CV = ∗ 100
X
.

Propriété :
Le coefficient de variation ne dépend pas des unités choisies.
Il permet d’apprécier la représentativité de la moyenne arithmétique X par rapport à
l’ensemble des données.
Il permet d’apprécier l’homogénéité de la distribution, une valeur du coefficient de
variation inférieure à 15 % traduit une bonne homogénéité de la distribution.
Il permet de comparer deux distributions, même si les données ne sont pas exprimées avec
la même unité ou si les moyennes arithmétiques des deux séries sont très différentes.
Quelques exemples de coefficient de variation : le coefficient de variation du régime nival
est voisin de 0,1 ; celui d’un cours d’eau régulier de 0,3 mais il peut atteindre 0,5 et même
1 pour un cours d’eau irrégulier.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 127 / 143


Statistique descriptive Terminologie

Indicateurs de forme
Les indicateurs de forme donnent une idée de la symétrie et de l’aplatissement d’une
distribution. Leur usage est moins fréquent.
Distribution symétrique Une série a une distribution symétrique si ses valeurs sont également
dispersées de part et d’autre de la valeur centrale, c’est-à-dire si le graphe de la distribution -
histogramme ou diagramme en bâton en fréquences - admet une axe de symétrie.
Dans une distribution parfaitement symétrique, Me = X = Mode Coefficient d’asymétrie de
Pearson :
X − Me
δ=
σ
. On a −1 ≤ δ ≤ 1.
Si δ = 0 alors la symétrie parfaite.
Si δ < 0 alors la série étalée à gauche.
Si δ > 0 alors la série étalée à droite.
Coefficient de Yule
Q3 + Q1 − 2Me
q=
Q3 − Q1

Si q = 0 alors la symétrie parfaite.


Si q < 0 alors la série étalée à gauche.
Si q > 0 alors la série étalée à droite.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 128 / 143
Statistique descriptive Terminologie

Applatissement : Une distribution est plus ou moins aplatie selon que les
fréquences des valeurs voisines des valeurs centrales diffèrent peu ou
beaucoup les une par rapport aux autres.
m4
coefficient d’aplatissement de Fisher ou kurtosis : a = 4 avec
σ
Xn
4
m4 = (xi − X )
i
Si a = 3 pour une distribution qui suit une loi normale centrée réduite.
Si a < 3 la concentration des valeurs de la série autour de la moyenne
est forte : la distribution n’est pas aplatie.
Si a > 3 la concentration des valeurs autour de la moyenne est faible :
la distribution est aplatie.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 129 / 143


Statistique descriptive Terminologie

Indicateurs de concentration
Ces caractéristiques sont utilisées pour une grandeur positive cumulative telle que le revenu, la
consommation ...
La concentration est définie pour les variables statistiques positives en utilisant la notion de
valeurs globales.
On appelle la valeur globale totale :
Xr
G = xj pour un caractère discret et des observations non groupées.
j=1
r
X
G = nj xj pour un caractère discret et des observations groupées. pour un caractère continu,
j=1
xi est remplacé par le centre de classe ci .
La valeur globale absolue partielle gi de la modalité i s’exprime par : gi = ni xi pour un
caractère discret et gi = ni ci pour un caractère continu.
Xi
La valeur globale absolue cumulée Gi = gj .
j=1
gi
La valeur globale relative partielle qi = .
G
r
X Gi
La valeur globale relative cumulée Qi = qj = où r est le nombre de classe.
j=1
G

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 130 / 143


Statistique descriptive Terminologie

L’indice de Gini est :


Xr r
X
ig = 1 − [F1 Q1 + (Fi − Fi−1 )(Qi + Qi−1 )] = 1 − [f1 Q1 + fi (Qi + Qi−1 )]
i=2 i=2
Plus la distribution de X est inégalement répartie, plus la courbe de concentration s’éloigne de la
première bissectrice, la première bissectrice traduisant l’équirépartition. La courbe en rouge de la
figure est appelée la courbe de Lorentz.
En pratique, lorsqu’on s’intéresse à la répartition d’une masse au sein d’une population, on trace
d’abord une courbe de LORENZ afin d’avoir une idée visuelle de l’égalité ou de l’inégalité de
cette répartition. Ensuite, si l’on désire résumer cette inégalité par un chiffre, on calcule le
coefficient de GINI.
Qi

Fi

Figure – Courbe de concentration et indice de Gini


Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 131 / 143
Statistique descriptive Terminologie

Liaison entre deux variables statistiques


On dispose de deux séries x et y représentant l’observation des variables X et Y sur les mêmes
n individus : on a une série bidimensionnelle (x, y ) de taille n. Nous voulons mettre en évidence
une éventuelle variation simultanée des deux variables statistiques X et Y , appelée liaison.
La liaison peut être
causale : une variable X expliquant l’autre Y .
symétrique : les deux variables jouent des rôles symétriques.
Sauf mention particulière, on s’intéresse ici à une liaison symétrique. Visualisation :

Le graphique le plus adapté pour observer les variations simultanées de deux variables
quantitatives est le nuage de points (ou scatter-plot), représentant les n points de coordonnées
(xi , yi )dans un repère du plan.

Indicateurs de liaison linéaire

Définition : La covariance : de la population respectivement de la population est définie par :


n
1X
cov (x, y ) = ρ(x, y ) = ρxy = (xi − x)(yi − y ) et
n i=1
n
1 X
cov ∗ (x, y ) = ρ∗ (x, y ) = ρ∗xy = (xi − x)(yi − y )
n − 1 i=1

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 132 / 143


Statistique descriptive Terminologie

Propriété :
c’ est une forme bilinéaire symétrique qui peut prendre toute valeur réelle et dont la
variance est la forme quadratique associée. On a (idem pour cov ∗ (x, y )).
ρ(ax + by , z) = aρ(x, z) + bρ(y , z) ; ρ(x, ay + bz) = aρ(x, y ) + bρ(x, z) ;
ρ(x, y ) = ρ(y , x) ; ρ(x, x) = σ 2 .
n−1
formule de Koenig généralisée : ρ(x, y ) = ρ(x, y )∗ = xy − xy
n
Lorsque le nuage de points est allongé suivant une direction de droite, on a affaire à une
corrélation linéaire entre x et y . L’intensité de la dépendance est alors mesurée par le coefficient
de corrélation linéaire.

Définition : Le coefficient de corrélation linéaire de Pearson : le coefficient de corrélation est


égal à la covariance des séries centrées et réduites x ∗ et y ∗ respectivement associées à x et y :
xi − x yi − y
r (x, y ) = ρ(x ∗ , y ∗ ) avec x ∗ = ) et y ∗ = ).
σx σy
ρ(x,y )
Le coefficient de corrélation est égal à : r (x, y ) = σ σ
x y

Propriété :
Symétrie : r (x, y ) = r (y , x).
Le coefficient de corrélation linéaire est compris entre -1 et 1.

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 133 / 143


Statistique descriptive Terminologie

Evaluation du lien linéaire entre 2 variables quantitatives Il y a corrélation positive lorsque les
variations de x et y se produisent dans le même sens, corrélation négative sinon. Plus les points
sont étroitement alignés, plus la corrélation est proche de 1.
| r |= 1 si l’on a une relation de type linéaire entre les variables.
r = 0 si il n’existe aucun lien linéaire entre X et Y . On dit que les variables sont non
corrélées.
La covariance dépend des unités de mesure dans lesquelles sont exprimées x et y . Le coefficient
de corrélation est un indice de liaison « intrinsèque ».
La covariance et le coefficient de corrélation ne permettent de mettre en évidence qu’une
relation linéaire entre x et y .
Si deux variables sont statistiquement indépendantes (aucun lien), la corrélation est nulle, mais
l’inverse est faux : il peut exister un lien autre que linéaire entre elles.
Choix des échelles : Dans le cas de deux variables homogènes (exprimées dans la même unité),
on prend la même échelle sur les deux axes ; dans le cas de deux variables hétérogènes, il est
préférable de représenter les points de la série centrée et réduite ou de choisir des échelles
appropriées (automatique avec la plupart des logiciels).
Définition : La régression linéaire : Lorsqu’il y a liaison fonctionnelle entre x et y on dit qu’il y
a régression de y en x ou y est expliquée par x si y = f (x). La courbes représentative de f (x)
est appelée courbe de régression. Il y a régression linéaire lorsque la courbe de régression est une
droite si et seulement si | r |= 1 . Lorsque r ≃ 1, le nuage de points est distribué autour d’une
droite. On admet alors qu’approximativement y ≃ f (x), et que les différences constatées sont
dues aux fluctuations d’échantillon et diverses erreurs d’observation qui surviennent de manière
aléatoire.
Il existe alors deux réels a et b tels que y ≃ ax + b. Y = aX + b est l’équation de la droite de
régression de y en x .
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 134 / 143
Statistique descriptive Terminologie

Calcul des coefficients de la droite de régression :


On commence par chercher le ”meilleur” ajustement linéaire sur nos données, au sens des
moindres carrés :

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 135 / 143


Statistique descriptive Terminologie

n
X
a et b
b b sont tels que ei2 = S(b b) = (yi − b
a, b b)2 est minimal. Ce sont les
ax − b
i=1
coefficients de la régression ou estimations des moindres carrésde a et b. S(b a, b
b) sera
∂S ∂S
minimum lorsque = = 0.
∂ba ∂b
b Pn
i=1 (xi − x)(yi − y ) cov (x, y )
Après résolution on obtient : b
a= Pn = b = y −b
et b ax.
i=1 (xi − x) 2 ρ2x
♣ La droite d’ajustement y = b ax + bb s’appelle droite de régression ou des
moindres carrés.
♣ La valeur yi = b b s’appelle la i ème valeur estimée. C’est la valeur
axi + b
moyenne de Y lorsque X = xi . C’est aussi la prévision de Y pour une
observation telle que X = xi .
♣ La valeur ei = yi − ybi s’appelle le i ème résidu. On peut montrer que :
Xn
ei = 0
i=1

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 136 / 143


Statistique descriptive Terminologie

liaison entre 2 variables qualitatives : On suppose que les deux variables étudiées sont des
variables discrètes et que les caractères sont des caractères quantitatifs. Les tableaux statistiques
portent le nom de tableaux croisés ou tableaux de contingence.
Dans chaque case du tableau, on écrit l’effectif nij de l’échantillon, c’est-à-dire le nombre de
données tel que X = xi et Y = yj . On définit les fréquences absolues suivantes :
q
X Pp
Les fréquences marginales : ni• = nij et n•j = i=1 nij
j=1
La fréquence marginale ni• . est donc le nombre d’individus possédant la modalité i du
caractère X quelle que soit la distribution du caractère Y ; par exemple tous les individus
ayant le même poids quelle que soit leur taille.
Les fréquences conditionnelles sont définies pour chaque valeur de i et j.
La fréquence conditionnelle nj/i est la distribution de la variable Y quand on a fixé la
modalité i pour la variable X ; on s’intéresse, par exemple, à la répartition des tailles des
nij
individus ayant tous le même poids. Elle est définie par : nj/i =
ni•
nij
On définit de la même façon la fréquence conditionnelle nj/i par : nj/i = .
n•j
On s’intéresse, par exemple, à la répartition des poids des individus ayant tous la même
taille.
Les fréquences relatives fij , fi• et f•j sont obtenues en divisant les effectifs nij et les
fréquences marginales ni• et n•j par l’effectif total n.
Les distributions X et Y sont statistiquement indépendantes si et seulement si :
fij = fi• f•j pour toutes les valeurs des indices i et j.
Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 137 / 143
Statistique descriptive Terminologie

Définition : Le coefficient de Khi-deux : la mesure de la liaison entre X et Y va se faire en


évaluant l’écart entre la situation observée et la situation qu’on observerait si il y avait
indépendance statistique. Cet écart appelé coefficient de Khi-deux est :
p X q n n
X (nij − i•n •j )2
χ2 = ni• n•j .
i=1 j=1 n
Plus χ2 est petit, plus la liaison entre les variables X et Y est forte.

Le χ2 n’étant pas borné, il est difficile d’apprécier l’importance de la dépendance ou de


comparer deux distributions. Il est donc important de quantifier ce lien si elle existe entre les
deux variables qualitatives. Nous donnons ici trois varaintes de coefficient :
s
χ2
Coefficient de contingence : 2
χ +n
χ2
Coefficient de Pearson : Φ2 =
n
Φ2
Coefficient de Tschuprow : T = p où p et q désignent le nombre de
(p − 1)(q − 1)
modalités prises par les variables X et Y respectivement. Ce coefficient est analogue à un
coefficient de corrélation linéaire 0 < T < 1

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 138 / 143


Échantillonnage et estimation

Échantillonnage et estimation

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 139 / 143


Tests d’hypothèses

Tests d’hypothèses

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 140 / 143


Tests d’hypothèses

Application avec le logiciel R

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 141 / 143


Tests d’hypothèses

Bibliographie

Kowalski M. (2009), Tableaux statistiques et graphiques, http://webpages.lss.supelec.


fr/perso/kowalski/downloads/Enseignement/2008_2009/StatDes/cours2.pdf,
consulté le 29/08/2013
Kowalski M.(2009), Mesures de tendance centrale et de dispersion,
http://webpages.lss.supelec.fr/perso/kowalski/downloads/Enseignement/2008_
2009/StatDes/cours3.pdf, consulté le 29/08/2013
Veysseyre R. (2006), Aide-méoire statistique et probabilités pour l’ingénieur, 2ème édition
448 pages
Traoré E., Cours de statistique et probabilités EIER-ETSHER, pour Bachelor 3, 46 pages.

Anderson J.P.(2008), probabilités et statistique en S5 IFIPS, 107 pages.


http://www.math.u-psud.fr/~pansu/web_ifips/proba_S5-IFIPS.pdf
Mouchiroud D., Cours de probabilités et statistique du premier cycle universitaire pour
biologiste. http://spiral.univ-lyon1.fr/mathsv/

Dr Malicki ZOROM (2iE) Probabilité et Statistique 6 novembre 2024 142 / 143

Vous aimerez peut-être aussi