0% ont trouvé ce document utile (0 vote)
31 vues16 pages

Probabilites

Le document présente les éléments fondamentaux de la théorie des probabilités, incluant le dénombrement, les arrangements, les permutations et les combinaisons. Il explique également les concepts de probabilité, d'événements aléatoires et de calcul de probabilités, en fournissant des exemples pour illustrer chaque notion. Enfin, il aborde des situations de non équiprobabilité et les propriétés associées aux événements.

Transféré par

mariemlahlali726
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
31 vues16 pages

Probabilites

Le document présente les éléments fondamentaux de la théorie des probabilités, incluant le dénombrement, les arrangements, les permutations et les combinaisons. Il explique également les concepts de probabilité, d'événements aléatoires et de calcul de probabilités, en fournissant des exemples pour illustrer chaque notion. Enfin, il aborde des situations de non équiprobabilité et les propriétés associées aux événements.

Transféré par

mariemlahlali726
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Chapitre 1

Éléments sur la théorie des probabilités

1 Notion de dénombrement sur un ensemble fini


— On dira qu’un ensemble E est fini lorsqu’il admet un nombre fini d’éléments. Le nombre d’éléments de
E est appelé le cardinal de l’ensemble et il est noté : Card(E) ou |E|.
— Par convention, l’ensemble vide ∅ est un ensemble fini de cardinal 0.
— Dénombrer, c’est compter le nombre d’éléments que contient un ensemble fini, c’est à dire en déterminer
le cardinal.
— Par exemple, soit E l’ensemble des étudiants d’un classe contenant 80 étudiants. Donc : Card(E) =
|E| = 80.

1.1 Principe additif


— Définition : On dit que deux ensembles sont disjoints s’ils ont aucun élément T en commun.
— Propriété : Soit Ei , i = 1, . . . , n n ensembles finis deux à deux disjoints (Ei Ej = ∅, i ̸= j). Alors
 n  n
S P
Card Ei = Card (Ei )
i=1 i=1
T S
— Exemple : Soient E = {a; b; c; d} et F = {α,
S β, γ}deux ensembles. Puisque E F = ∅, alors Card(E F) =
Card(E) + Card(F ), c’est à dire Card(E F ) = 4 + 3 = 7.

1.2 Principe multiplicatif


— Pour illustrer ce principe, considérons l’exemple suivant : Soit trois individus qui choisissent de façon
aléatoire un chapeau et une paire de chaussures. Les couleurs des chapeaux sont blanc, noir et gris. Pour
les chaussures marron, blanc et rouge.
— Considérons les trois ensembles suivants : E1 = {Ind1 ; Ind2 ; Ind3 }(Individus), E2 = {Chap1 ; Chap2 ; Chap3 }
(Chapeaux) et E3 = {Chau1 ; Chau2 , Chau3 } (Chaussures).
— On appelle produit cartésien E1 × E2 × E3 , l’ensemble de tous les triplets formés d’un élément de E1 ,
d’un élément de E2 et d’un élément de E3 . Par exemple, {Ind1 ; Chap1 ; Chau1 }, {Ind2 ; Chap3 ; Chau2 },
{Ind3 ; Chap1 ; Chau2 }, {Ind2 ; Chap3 ; Chau2 } etc .... Il existe 3 × 3 × 3 = 27 triplets différents.
— Définition : Soit p ensembles Ei , i = 1, ..., p.
▷ Le produit cartésien E1 × E2 est l’ensemble des couples (a1 , a2 ) où a1 ∈ E1 et a2 ∈ E2 .
▷ Le produit cartésien E1 × E2 × E3 est l’ensemble des triplets (a1 , a2 , a3 ) où a1 ∈ E1 , a2 ∈ E2 et
a3 ∈ E3 .
▷ Le produit cartésien E1 × E2 . . . × Ep est l’ensemble des p-uplets (a1 , a2 , . . . , ap ) où ai ∈ Ei , p =
1, 2, . . . , p .
— Remarque : Si on effectue un produit cartésien d’un ensemble sur lui-même, on note E × E = E 2 et
dans le cas général, E p est le produit de p ensembles E.
— Propriété : Soit p ensembles finis Ei , i = 1, ..., p. Alors on a :
 p  p
Q Q
Card Ei = Card (Ei )
i=1 i=1

— Exemple : Un restaurant propose sur sa carte 3 entrées, 4 plats de résistance et 2 desserts.


1. Combien de menus différents composés d’une entrée, d’un plat et d’un dessert peut-on constituer ?
1
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 2

2. Même question si le dessert est une tarte aux pommes imposée.

— Propriété : Soit un ensemble fini E à n éléments. Alors on a : Card (E) = np .

2 Arrangements et permutations
2.1 La factorielle d’un nombre
— Définition : On appelle factorielle n le produit de tous les nombres entiers de 1 à n. On note : n! =
1 × 2 × 3 × . . . × n. n! se lit “factoriel n”, On pose par définition : 0! = 1.

2.2 Arrangement dans un ensemble E


— Définition : Soit E un ensemble à n éléments p un entier positif tel que p ≤ n. Un arrangement de p
éléments de E est un p-uplet d’éléments distincts de E.
— Propriété 1 : Dans un arrangement l’ordre des éléments compte et les éléments ne se répètent pas.
— Propriété 2 : Soit E un ensemble à n éléments. Le nombre d’arrangements, noté Apn , de p éléments de
E est égal à :
n!
Apn = n × (n − 1) × . . . (n − p + 1) = (n−p)!

— Exemple : Pour nettoyer un appareil électrique, Omar débranche les 3 prises qui se trouvent à l’arrière
de l’appareil. Mais au moment d’effectuer à nouveau les branchements, il se rend compte qu’il existe 12
positions différentes pour les 3 prises. Comme il n’a pas pris soin de noter les positions respectives des 3
prises et qu’il n’y connait rien en électronique, il décide d’effectuer les branchements au hasard. Combien
y-a-t-il de possibilités ?

2.3 Permutation dans un ensemble E


— Définition : Soit E un ensemble à n éléments. Une permutation de E est un arrangement à n éléments
de E.
— Propriété : Soit E un ensemble à n éléments. Le nombre de permutations de E est égal à n !.
— Exemple : Pour une conférence, on a invité 12 scientifiques, 6 hommes et 6 femmes renommés, qui seront
placés au premier rang de la salle qui comprend 12 places. On attend 5 mathématiciens, 3 physiciens et
4 biologistes. C’est le moment de prendre place, l’organisateur demande aux scientifiques de s’installer.
▷ Les mathématiciens proposent que chacun choisisse une place au hasard.
▷ Les physiciens préfèrent rester ensemble et qu’ainsi tous les physiciens soient assis côte à côte.
▷ Les biologistes disent que dans ce cas, il serait mieux que les hommes se placent ensemble et que les
femmes en fassent de même.
Calculer le nombre de façons différentes de s’assoir pour chaque proposition.
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 3

3 Combinaisons
3.1 Nombre de combinaisons
— Définition : Soit E un ensemble à n éléments. Soit un entier p ≤ n. Une combinaison de p éléments de
E est un sous-ensemble de E.
— Propriété : Soit E un ensemble à n éléments. Le nombre de combinaisons de p éléments de E est égal à :
n×(n−1)×...×(n−1) n!
p! = p!(n−p)!
 
 n  Ap
On le note : Cnp ou 

 et on a Cnp =
 p! .
n

p
— Cas particuliers : Pour tout entier naturel n : Cn0 = 1, Cnn = 1, Cn1 = n.
— Exemple : Une classe composée de 18 filles et 16 garçons va élire les 4 délégués. On ne distingue pas les
délégués et les délégués-adjoints.
1. Combien existe-t-il de possibilités pour cette élection ?
2. Khadija dit qu’elle ne souhaite pas être élue si Soufiane est élu. Dans ces conditions, combien existe-t-il
de possibilités ?

3.2 Coefficients binomiaux


— Le nombre Cnp de combinaisons de p parmi n porte également le nom de coefficient binomial en référence
à une loi de probabilité : la loi binomiale qui est définie à l’aide des coefficients Cnp . Celle-ci sera étudiée
plus loin.
p
— Propriété de symétrie : Pour tout entier naturel p tel que 0 ≤ p ≤ n : Cn−p = Cnp .
p+1
— Propriété (triangle de Pascal) : Pour tout entier naturel p tel que 0 ≤ p ≤ n : Cnp + Cnp+1 = Cn+1 .

3.3 Parties d’un ensemble


n
Cnp = 2n .
P
— Soit E un ensemble à n éléments. Le nombre de sous-ensemble de E est égal à :
p=0
— Exemple : Soit : E = 1, 2, 3. Alors toutes les parties de E sont : ∅, 1, 2, 3, 1, 2, 1, 3,2, 3, 1, 2, 3. Elles sont
au nombre de 8 et en effet : 23 = 8.
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 4

4 Probabilités sur un ensemble


4.1 Situations liées au hasard
a) Expérience aléatoire

On dit d’une expérience qu’elle est aléatoire lorsqu’elle vérifie trois conditions :
1. On connait tous les résultats possibles de l’expérience ;
2. Le résultat n’est pas prévisible ;
3. On peut reproduire plusieurs fois l’expérience dans les mêmes conditions.
Définition : Une expérience (lancé un dé par exemple) est aléatoire lorsqu’elle a plusieurs résultats ou issues
(pile ou face) et que l’on ne peut pas prévoir, à priori, quel résultat se produira. L’ensemble des issues d’une
expérience s’appelle l’univers (pile, face).

b) Calcul d’une probabilité élémentaire


— Un évènement est constitué de plusieurs issues d’une même expérience aléatoire. Par exemple, si on lance
un dé à 6 faces, on peut considérer l’évènement suivant : « On obtient un nombre supérieur ou égal à 5
».Cet évènement est constitué des issues : « 5 » et « 6 ».
— Pour évaluer, les chances que cet évènement se réalise, on peut effectuer un calcul de probabilité : Quelles
sont les chances que l’évènement précédent se réalise ? Cet évènement possède 2 issues possibles sur 6
issues en tout. Il a donc 2 chances sur 6 de se réaliser.
— On dit que la probabilité que cet évènement se réalise est de 2 sur 6 que l’on peut noter 62 = 31 .
— Exemple :Calculer les probabilités des évènements suivants :
1. Tomber sur le nombre 2 en lançant un dé à 6 faces.
2. Obtenir une boule verte en piochant au hasard une boule dans une urne contenant 3 boules vertes et 4
boules jaunes.

4.2 Notion de probabilité


a) Arbre des possibilités
— Lorsqu’on fait tourner la roue précédente, quatre issues sont possibles. On le schématise sur l’arbre des
possibles :
— L’arbre des possibles permet de visualiser les issues d’une expérience aléatoire.

b) Probabilité
— Définition : Les fréquences obtenues d’un évènement E se rapprochent d’une valeur théorique lorsque
le nombre d’expérience augmente (Loi des grands nombres). Cette valeur s’appelle la probabilité de
l’évènement E et on la note P (E)
— Exemple : 2 secteurs sur 8 sont de couleur bleue. Lors d’une expérience aléatoire, il y a donc 2 chances
sur 8 d’obtenir un secteur de couleur bleue. On dit que la probabilité d’obtenir un secteur bleu est égale
à 82 , soit 14 . On inscrit sur l’arbre des possibles les probabilités des différentes issues.
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 5

Figure 1.1

c) Évènement
— Définition : Un évènement est constitué par plusieurs issues d’une même expérience aléatoire.
— Définition : La probabilité d’un évènement est un nombre compris entre 0 et 1 qui exprime « la chance
qu’a un évènement de se produire ».
— Exemple : Soit l’évènement E « La roue s’arrête sur un secteur bleu ou rouge ». On pourrait se demander
quelle est la probabilité que cet évènement se réalise ?

— Définition : Les évènements élémentaires sont les évènements réduits à une unique issue de l’expérience.
— Dans l’exemple, « La roue s’arrête sur un secteur bleu ou rouge » est un évènement. « La roue s’arrête
sur un secteur bleu » est un évènement élémentaire.

d) Vocabulaire des évènements


— Un évènement dont la probabilité est égale à 0 est un évènement impossible.
— Un évènement dont la probabilité est égale à 1 est un évènement certain.
— Propriétés :
▷ La probabilité P (E) d’un évènement E est telle : 0 ≤ P (E) ≤ 1.
▷ La somme des probabilités des évènements élémentaires est égale à 1.
▷ La probabilité d’un évènement est la somme des probabilités des évènements élémentaires
— Définition : L’ensemble des probabilités de ces évènements élémentaires constitue ce qu’on appelle la
loi de probabilité.

e) Évènement contraire
— Définition : L’évènement
 contraire de A, noté A, est l’ensemble de toutes les issues n’appartenant pas à
A. On a : P Ā + P (A) = 1.
— Exemple : On lance un dé à 6 faces et on regarde la face du dessus. On pose : A = «On obtient un 1» et
donc l’évènement contraire A = «On obtient un 2, 3, 4, 5 ou 6.»

f) Calcul de probabilités
— En cas d’équiprobabilité (chaque issue a autant de chance de se produire), la probabilité d’un évènement
A est :
Nombre d’issues favorables à A card(A)
P (A) = Nombre d’issues totales = card(E)

avec A ⊂ E (E représente l’ensemble de toutes les issues possibles).


— Exemple :On considère l’expérience aléatoire suivante : On tire une carte dans un jeu de 32 cartes. Soit
A l’évènement : « On tire un as ». Quelle est la probabilité que l’évènement A se réalise ?
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 6

g) Cas de non équiprobabilité


— Dans une boite, Walid trouve un dé à 6 faces qui est pipé. Il s’agit d’un dé mal équilibré dont les chances
de tomber sur une face ne sont pas les mêmes que de tomber sur une autre. Chaque issue n’a pas la
même probabilité : on dit qu’il n’y a pas équiprobabilité. La notice lui précise qu’il a trois fois plus de
chance de tomber sur un chiffre impair que sur un chiffre pair.
— On note p la probabilité d’obtenir un chiffre pair. Alors la probabilité d’obtenir un chiffre impair est égale
3p. En lançant un dé, on obtient soit un chiffre pair soit un chiffre impair, il n’y a pas d’autre issue.

4.3 Réunion et intersection de deux évènements


a) Définitions :
— L’évènement "A et B", noté A ∩ B, est réalisé lorsque les deux évènements A et B sont simultanément
réalisés.
— L’évènement "A ou B", noté A ∪ B, est réalisé lorsqu’au moins l’un des deux évènements est réalisé.

b) Probabilité d’une réunion


— Si A et B sont deux évènements d’une expérience aléatoire, alors :

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

— Exemple : On considère l’expérience aléatoire suivante : On lance un dé à six faces et on regarde le


nombre de points inscrits sur la face du dessus. On considère les évènements suivants : A = « On obtient
un nombre impair» et B = « On obtient un multiple de 3 ». Calculer la probabilité de l’évènement A ∪ B.

c) Évènements incompatibles
— Définition : On dit que deux évènements A et B sont incompatibles si A ∩ B = ∅.
— Propriété : Si deux évènements A et B sont incompatibles alors P (A ∪ B) = P (A) + P (B).
— Exemple : On considère l’expérience aléatoire suivante : On tire une carte dans un jeu de 32 cartes à
jouer.
On considère les évènements suivants : A = «On tire un valet» et B = «On tire un roi». Calculer
P (A ∪ B).

4.4 Probabilité conditionnelle


— Définition : Soit A et B deux évènements avec P (A) ̸= 0. On appelle probabilité conditionnelle de B
sachant A, la probabilité que l’évènement B se réalise sachant que l’évènement A est réalisé. Elle est
notée PA (B) ou P (B/A) et est définie par :
P (A∩B)
PA (B) = P (A)
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 7

— Propriétés : Soit A et B deux évènements avec P (A) ̸= 0. On a :


▷ 0 ≤ PA (B) ≤ 1 ;
▷ PA (B) = 1 − PA (B) ;
▷ P (A ∩ B) = P (A) × PA (B).
— Exemple : Un sac contient 50 boules, dont 20 boules rouges et 30 boules noires, où il est marqué soit
"Gagné" ou soit "Perdu". Sur 15 boules rouges, il est marqué « Gagné ». Sur 9 boules noires, il est
marqué « Gagné ». On tire au hasard une boule dans le sac. Soient R l’évènement "On tire une boule
rouge" et G l’évènement "On tire une boule marquée Gagné" . Calculer PR (G).

4.5 Probabilités et indépendance


a) Indépendance de deux évènements
— Définition : On dit que deux évènements A et B de probabilité non nulle sont indépendants lorsque on
a

P (A ∩ B) = P (A) × P (B)

— Propriété : Si A et B sont indépendants alors A et B sont indépendants.


— Exemple : Dans une population, un individu est atteint par la maladie m avec une probabilité égale
à 0, 005 et par la maladie n avec une probabilité égale à 0, 01. On choisit au hasard un individu de
cette population. Soit M l’évènement "L’individu a la maladie m" et soit N l’évènement "L’individu a
la maladie n". On suppose que les évènements M et N sont indépendants.
Calculer la probabilité de l’évènement E "L’individu a au moins une des deux maladies".

5 Variable aléatoire discrète


5.1 Variable aléatoire et loi de probabilité
a) Variable aléatoire
— Définitions :
▷ Chaque résultat d’une expérience aléatoire s’appelle une issue.
▷ L’univers des possibilités est l’ensemble des issues d’une expérience aléatoire.
▷ Un évènement est un sous-ensemble de l’univers des possibles.
▷ Un évènement élémentaire est un évènement contenant une seule issue.
— Définition : Une variable aléatoire X est une fonction définie sur un univers Ω et à valeur dans R.

b) Loi de probabilité
— Définition : Soit une variable aléatoire X définie sur un univers Ω et prenant les valeurs (xi , i = 1...n).
La loi de probabilité de X associe à toute valeur xi la probabilité P (X = xi ).
— Exemple : Soit l’expérience aléatoire : "On lance un dé à six faces et on regarde le résultat." on considère
le jeu suivant :
▷ Si le résultat est pair, on gagne 2Dh.
▷ Si le résultat est 1, on gagne 3Dh.
▷ Si le résultat est 3 ou 5, on perd 4Dh.
On a défini ainsi une variable aléatoire Xsur l’univers de possibilités Ω = 1; 2; 3; 4; 5; 6 qui peut prendre les
valeurs 2, 3 ou –4. On a donc : X(1) = 3, X(2) = 2, X(3) = –4, X(4) = 2, X(5) = –4, X(6) = 2.
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 8

— Chaque issue du lancer de dé est équiprobable et égale à 16 . Alors, La probabilité que la variable aléatoire
prenne la valeur 2 est égale à 36 = 12 .On note : P (X = 2) = 12 .
— De même, on écrit : P (X = 3) = 16 et P (X = −4) = 26 = 13 .
— On peut résumer les résultats dans un tableau :

xi −4 2 3

1 1 1
P (X = xi ) 3 2 6

Table 1.1

Ce tableau résume la loi de probabilité de la variable aléatoire X.

c) Espérance, variance et écart-type


— Définitions : Soit une variable aléatoire X définie sur un univers Ω et prenant les valeurs (xi , i = 1...n).
La loi de probabilité de X associe à toute valeur xi la probabilité pi = P (X = xi) .
▷ L’espérance mathématique de la loi de probabilité de X est :
n
X
E(X) = X = p i xi
i=1

▷ La variance de la loi de probabilité de X est :


n
X 2
var(X) = (X − E(X)) = pi (xi − E(X))
i=1

▷ L’écart-type de la loi de probabilité de X est :


p
σ(X) = var(X)

— Exemple : Soit l’expérience aléatoire : "On tire une carte dans un jeu de 32 cartes." On considère le jeu
suivant :
▷ Si on tire un cœur, on gagne 2Dh.
▷ Si on tire un roi, on gagne 5Dh.
▷ Si on tire une autre carte, on perd 1Dh.
On appelle X la variable aléatoire qui à une carte tirée associe un gain ou une perte.
1. Déterminer la loi de probabilité de X.
2. Calculer l’espérance E(X), la variance var(X) ainsi que l’écart-type σ(X).

— Propriétés : Soit une variable aléatoire X définie sur un univers Ω. Soit a et b deux nombres réels. On
a:
E(aX + b) = aE(X) + b

var(aX + b) = a2 var(X)

— Exemple : Une entreprise qui fabrique des roulements à bille fait une étude sur une gamme de billes
produites. Le diamètre théorique doit être égal à 1, 3cm mais cette mesure peut être légèrement erronée.
L’expérience consiste à tirer au hasard une bille d’un lot de la production et à mesurer son diamètre.
La loi de probabilité de X est résumée dans le tableau suivant :
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 9

xi 1, 298 1, 299 1, 305 1, 302 1, 3

P (X = xi ) 0, 2 0, 1 0, 2 0, 4 0, 1

Table 1.2

Calculer E(X), var(X) et σ(X)

6 Lois discrètes
6.1 Loi uniforme discrète
— Définition : On dit que X suit une loi uniforme discrète sur l’ensemble {1, 2..., n} si pour tout entier i
de {1, 2..., n}, on a : P (X = xi ) = n1 .
— Propriété : Soit X une variable aléatoire qui suit la loi uniforme discrète de paramètre n, alors :
E(X) = n+1 2 .

6.2 Épreuve de Bernoulli


— Définition : Une épreuve de Bernoulli est une expérience aléatoire à deux issues que l’on peut nommer
"succès" ou "échec".
— Définition : Une loi de Bernoulli est une loi de probabilité qui suit le schéma suivant :
▷ la probabilité d’obtenir un succès est égale à p.
▷ la probabilité d’obtenir un échec est égale à 1–p.
p est appelé le paramètre de la loi de Bernoulli.
— Propriété : Soit X une variable aléatoire qui suit la loi de Bernoulli de paramètre p, alors :
(
E(X) = p
var(X) = p(1 − p)

6.3 Schéma de Bernoulli-Loi binomiale


a) Schéma de Bernoulli
— Définition : Un schéma de Bernoulli est la répétition de n épreuves de Bernoulli identiques et indépen-
dantes pour lesquelles la probabilité du succès est p.
— Exemple : La répétition de 10 lancers d’une pièce de monnaie est un schéma de Bernoulli de paramètres
n = 10 et p = 12 .

b) Loi binomiale
— Définition : On réalise un schéma de Bernoulli composé de n épreuves de Bernoulli identiques et indé-
pendantes. Une loi binomiale est une loi de probabilité définie sur l’ensemble {0, 1, 2...n} qui donne le
nombre de succès de l’expérience.
— n et p sont les paramètres de la loi binomiale et on note B(n, p).

c) Expression de la loi binomiale à l’aide des coefficients binomiaux


— Définition : On réalise une expérience suivant un schéma de Bernoulli de paramètres n et p. Soit un
entier naturel k tel que 0 ≤ k ≤ n. Le nombre de chemins conduisant à k succès parmi n épreuves sur
l’arbre représentant l’expérience est égale à Ckn .
— Propriété : On réalise une expérience suivant un schéma de Bernoulli de paramètres n et p. On associe
à l’expérience la variable aléatoire X qui suit la loi binomiale B(n, p). Pour tout entier naturel k tel que
0 ≤ k ≤ n, la loi de probabilité de X est :

P (X = k) = Ckn pk (1 − p)n−k
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 10

— Exemple : Une urne contient 5 boules gagnantes et 7 boules perdantes. Une expérience consiste à tirer
au hasard 4 fois de suite une boule et de la remettre. On appelle X la variable aléatoire qui associe le
nombre de tirages gagnants.
1. Prouver que X suit une loi binomiale.
2. Déterminer la loi de probabilité de X.
3. Calculer la probabilité d’obtenir 3 boules gagnantes.

6.4 Loi de Poisson


— Définition : On dit qu’une variable aléatoire X suit la loi de Poisson P(λ) de paramètre λ > 0, si sa loi
de probabilité s’écrit :
λk
P (X = k) = exp(−λ)
k!
avec k ∈ N.
— La loi de Poisson permet de modéliser des comptages d’évènements rares c’est-à-dire des évènements ayant
une faible probabilité de réalisation (maladies rares, accidents mortels rares, pannes, radioactivité...).
— Propriétés :
▷ On a : E(X) = var(X) = λ.
▷ Pour la loi binomiale B(n, p), on n → +∞ et p → 0, Cette loi converge vers loi de Poisson avec λ = np

7 Variable aléatoire continue


7.1 Variables aléatoires continues
— Supposons qu’entreprise fabrique des disques durs. On peut définir une variable aléatoire qui, à chaque
disque dur, associe sa durée de vie en heures. Cette durée n’est pas nécessairement un nombre entier et
peut prendre toutes les valeurs de l’intervalle [0, +∞[. On dit que cette variable aléatoire est continue.

7.2 Densité de probabilité


— Définition : On appelle fonction de densité (ou densité de probabilité) toute fonction f définie, continue
et positive sur un intervalle I de R telle que l’intégrale de f sur I soit égale à 1.
— Si X est une variable aléatoire continue sur [a, b], la probabilité de l’évènement {X ∈ [a, b]}, où [a, b] est
un intervalle de I, est égale à l’aire sous la courbe de f sur [a, b], soit :
Z b
P (a ≤ X ≤ b) = f (t)dt
a

— Exemple : Dans l’exemple précédent, on peut par exemple calculer P (5000 ≤ X ≤ 20000) correspondant
à la probabilité que la durée de vie d’un disque dur soit comprise entre 5000 heures et 20000 heures.
Connaissant la densité de probabilité f , la probabilité P (5000 ≤ X ≤ 20000) est donné par :
Z 20000
P (5000 ≤ X ≤ 20000) = f (t)dt
5000

Cette intégrale représente l’aire comprise entre l’axe des abscisses, la courbe représentative de la densité
de probabilité et les droites d’équations x = 5000 et x = 20000.
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 11

Figure 1.2

— Exemple : Démontrer que la fonction f définie sur [2, 4] par f (x) = 0, 5x−1 est une densité de probabilité.

7.3 Fonction de répartition


— Définition : Soit X une variable aléatoire continue de fonction de densité f sur un intervalle [a, b]. Alors,
pour tout x de [a, b], on a : Z x
P (X ≤ x) = f (t)dt
a

— La fonction définie sur [a, b] par x 7−→ P (X ≤ x) est appelée fonction de répartition de la variable
aléatoire X et on la note F (x).
— Propriétés : On a lim F (x) = 1 et lim F (x) = 0
x→+∞ x→−∞

7.4 Espérance et variance


— Définition : Soit X une variable aléatoire continue de densité f sur un intervalle [a, b]. L’espérance
mathématique de X est :
Z b
E(X) = tf (t)dt
a

La variance de X est : Z b
2
V ar(X) = (t − E(X)) f (t)dt
a
— Exemple : Une entreprise produit des dalles en plâtre suivant une variable aléatoire continue X, en
tonnes, qui prend ses valeurs dans l’intervalle [0, 20] avec une densité de probabilité f définie par :

f (x) = 1, 5.10−2 x − 7, 5.10−4 x2

1. Vérifier que f est une densité de probabilité sur [0, 20].


2. Calculer la probabilité de l’évènement E = « La production quotidienne est supérieure ou égale à 12
tonnes ».
3. Calculer l’espérance et la variance mathématique de X.
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 12

7.5 Moments d’une variable aléatoire


— La notion de moment et une généralisation de la notion de moyenne. Le n-ième moment est définit par :
µn = E(X n ).
— La donnée des moments permet d’avoir plus d’informations que la donnée de la distribution (ceci n’est
pas général). Les deux manières sont des deux méthodes pour encoder l’information sur les propriétés
statistiques de la variable aléatoire.
— Il est utile de savoir que les moments peuvent diverger si la distribution ne croit pas assez vite (exemple
−α−1
f (x) ∼ |x| . Dans ce cas, les moments d’ordre n > α sont infinis).
— On a : µ1 = E(X) et V ar(X) = µ2 − µ21 .

7.6 Covariance de deux variables aléatoires


— Soit X et Y sont des variables aléatoires ayant la loi de probabilité produit, i.e. elles ont une distribution
de probabilité jointe ou de produit, d’espérance respectives E(X) et E(Y ). On définit la covariance de
X et Y par :
Cov(X, Y ) = E(XY ) − E(X)E(Y )
— On définit le coefficient de corrélation entre X et Y par :

Cov(X, Y )
ρ(X, Y ) =
σX σY

Cov(X, Y ) et ρ(X, Y ) sont des mesures de la relation qui existe entre X et Y .

8 Lois de probabilités
8.1 Loi uniforme
a) Loi uniforme sur [0, 1]
— Définition : La loi uniforme sur [0, 1], notée U(0, 1), est la loi ayant pour densité de probabilité la
fonction constante f définie sur [0, 1] par : f (x) = 1.
— L’espérance et la variance de la loi uniforme sont donnés par : E(X) = 1 et V ar(X) = 31 .
— La fonction génératrice s’écrit : F (x) = x.

b) Loi uniforme sur [a, b]


— Définition : Soit a et b deux réels non nuls tels que a < b. La loi uniforme sur [a, b], notée U ([a, b]), est
1
la loi ayant pour densité de probabilité la fonction constante f définie sur [a, b] par : f (x) = b−a .
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 13

Figure 1.3

x−a
— La fonction de partition est donnée par : F (x) = b−a
a+b (b−a)2
— L’espérance et la variance s’écrivent : E(X) = 2 et V ar(X) = 12 .

8.2 Loi exponentielle


— Définition : Soit λ un réel strictement positif. La loi exponentielle de paramètre λ est la loi ayant pour
densité de probabilité la fonction f définie sur [0, +∞[ par : f (x) = λ exp (−λx) .

Figure 1.4

— La fonction de partition F (x) est donnée par : F (x) = 1 − exp (−λx).


— Propriété : Soit X une variable aléatoire qui suit la loi exponentielle de paramètre λ. Alors : E(X) = λ1
et V ar(X) = λ12 .
— Propriété d’absence de mémoire : Soit X une variable aléatoire qui suit la loi exponentielle de
paramètre λ. Alors, pour tout réel tet h positifs, on a : P (X ≥ t + h) = P (X ≥ h).
— Exemple : La durée de vie, exprimée en heures, d’un petit composant électronique d’une carte d’an-
niversaire musicale est une variable aléatoire X qui suit la loi exponentielle de paramètre λ = 0, 0035.
Sachant qu’un composant testé a fonctionné plus de 200 heures, calculer la probabilité qu’il tombe en
panne avant 300 heures.

8.3 Loi normale centrée réduite


— Définition : La loi normale centrée réduite, notée N (0, 1), est la loi ayant pour densité de probabilité la
fonction f définie sur R par :  2
1 x
f (x) = √ exp −
2π 2
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 14

Figure 1.5

— Propriété 1 : X est une variable aléatoire qui suit la loi normale centrée réduite N (0, 1). Pour tout
α ∈]0, 1[, il existe un unique réel positif uα tel que P (−uα ≤ X ≤ uα ) = 1 − α.
— Propriété 2 : X est une variable aléatoire qui suit la loi normale centrée réduite N (0, 1). Alors E(X) = 0
et V ar(X) = 1.

8.4 Loi normale


— Définition : Soit un nombre réel µ et un nombre réel strictement positif σ. On dit qu’une variable
aléatoire continue X suit la loi normale d’espérance E(X) = µ et d’écart-type σ, notée N (µ, σ 2 ), si la
variable aléatoire X−µ
σ suit la loi normale centrée réduite N (0, 1).

Figure 1.6

— Propriétés :
▷ La courbe représentative de la fonction densité de la loi N (µ, σ 2 ) est une courbe en cloche symétrique
par rapport à la droite d’équation x = µ.
▷ La courbe est d’autant plus "resserrée" autour de son axe de symétrie que l’écart-type σ est petit.
L’écart-type (ou la variance) est un caractère de dispersion autour de l’espérance qui est un caractère
de position.

Figure 1.7

— Exemple : Une compagnie de transport possède un parc de 200 cars. On appelle X, la variable aléatoire
qui, à un car choisi au hasard associe la distance journalière parcourue. On suppose que X suit la loi
normale N (80, 142 ).
1. Quelle est la probabilité, à 10−3 près, qu’un car parcourt entre 70 et 100km par jour ?
2. Déterminer le réel t tel que P (x ≤ t) = 0, 9. Interpréter.
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 15

— Intervalles à « 1, 2 ou 3 sigmas" : On a :
▷ P (µ − σ ≤ X ≤ µ + σ) ≈ 0, 683 ;
▷ P (µ − 2σ ≤ X ≤ µ + 2σ) ≈ 0, 954 ;
▷ P (µ − 3σ ≤ X ≤ µ + 3σ) ≈ 0, 997 ;

(a) (b)

(c)

Figure 1.8

8.5 Théorème de la limite centrale


— n est un entier naturel non nul et p ∈ ]0, 1[. Soit Xn une variable aléatoire qui suit la loi binomiale
B(n, p). Soit Zn = Xn −E(X
σ
n)
la variable centrée réduite associée à Xn . Alors pour tous réels a et b tels
que a < b, on a :
Z b  2
1 x
lim P (a ≤ Zn ≤ b) = √ exp − dx
n→+∞ 2π a 2
— Ce théorème traduit le fait que la probabilité d’un évènement associé à une loi binomiale peut être
approchée pas une probabilité d’un évènement associé à la loi normale centrée réduite.

Figure 1.9

— Exemple : Soit X une variable aléatoire qui suit une loi binomiale de paramètre n = 1000 et p = 0, 3.
Calculer P (X ≤ 320).
CHAPITRE 1. ÉLÉMENTS SUR LA THÉORIE DES PROBABILITÉS 16

Vous aimerez peut-être aussi