0% ont trouvé ce document utile (0 vote)
30 vues28 pages

Probabilite

Le document traite des concepts fondamentaux de la théorie des probabilités, incluant l'espace probabilisé, le conditionnement, l'indépendance, et les variables aléatoires. Il présente des définitions clés, des exemples pratiques, et des théorèmes relatifs aux événements et à leur probabilité. Ce texte est destiné aux étudiants en mathématiques, en particulier dans le cadre des cours de probabilités.

Transféré par

atachoerudit6
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
30 vues28 pages

Probabilite

Le document traite des concepts fondamentaux de la théorie des probabilités, incluant l'espace probabilisé, le conditionnement, l'indépendance, et les variables aléatoires. Il présente des définitions clés, des exemples pratiques, et des théorèmes relatifs aux événements et à leur probabilité. Ce texte est destiné aux étudiants en mathématiques, en particulier dans le cadre des cours de probabilités.

Transféré par

atachoerudit6
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Mathématiques

Probabilité 2

SSI & SIL-2/HECM-Natitingou/2025-2026

Dr Oumarou ASSO
Porto-Novo, Bénin
Table des matières

1 Généralités 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 L’espace probabilisé (Ω, A, P) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Construction d’espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Dénombrement, modèle d’urne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6

2 Conditionnement et indépendance 7
2.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Indépendance des événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

3 Variables aléatoires 13
3.1 Définition et loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.4 Variables aléatoires réelles à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

i
Dr ASSO [email protected] ii Probabilité 2
Chapitre no 1

Généralités

1.1 Introduction
Une expérience (ou phénomène) aléatoire consiste en une expérience pour laquelle toutes les issues
possibles sont connues, mais où interviennent de nombreux facteurs, dont nous ne connaissons ou
maîtrisons qu’une petite partie. Dans ce cas, l’issue n’est pas prévisible avec certitude.
La théorie des probabilités consiste en l’étude de ces expériences aléatoires.

Exemple 1.1. 1. le résultat d’un jeu de hasard (pile ou face, jet de dé, roulette etc.) ;
2. durée de vie d’un atome radioactif, d’un individu, d’une ampoule ;
3. les instants de passage d’un bus à un arrêt donné ;
4. la promenade d’un ivrogne dans la rue ;
5. la trajectoire d’une poussière à la surface de l’eau etc.

Les applications de la théorie des probabilités sont nombreuses : base de la statistique, outil
puissant en finance, dans les assurances, théorie des jeux. Elle permet également de modéliser de
nombreux phénomènes complexes en biologie, médecine, sciences humaines, climatologie. Elle s’est
aussi révélée utile dans de nombreux domaines des mathématiques pures. Mais surtout, elle a acquis
une place importante au sein des mathématiques en tant que discipline à part entière, de part son
intérêt intrinsèque.

1.2 L’espace probabilisé (Ω, A, P)


Le but de la théorie des probabilités est de fournir un modèle mathématique pour décrire les
expériences aléatoires. Sous sa forme moderne, la formulation de cette théorie contient trois ingré-
dients :
• l’espace des états,
• les événements,
• la loi de probabilité ou simplement la probabilité.
Dans toute la suite, nous considérons une expérience aléatoire que nous cherchons à modéliser.

1
1.2.1 Espace des états

Définition 1.1. L’espace des états appelé aussi univers, noté Ω, est l’ensemble des résultats
possibles de l’expérience.

Exercice 1.1. Déterminer un espace des états possible dans les expériences suivantes.
1. Lancer d’une pièce de monnaie.
2. Deux lancers successifs d’une même pièce de monnaie.
3. Lancer d’un dé.
4. Deux lancers successifs d’un même dé, et on s’intéresse à la somme des nombres obtenus.
5. Lancer d’un même dé indéfiniment.
6. Durée de vie d’un individu.
7. Promenade d’un ivrogne dans une rue (un pas en avant, un pas en arrière).
8. Trajectoire d’une poussière à la surface de l’eau pendant un intervalle de temps [0, T ].

1.2.2 Événements

Définition 1.2. • Un événement est une propriété dont on peut dire si elle est réalisée ou
non, une fois l’issue de l’expérience connue. À chaque événement correspond un sous-ensemble
de l’espace des états Ω.
• Un singleton, c’est-à-dire un événement réduit à un seul élément de Ω, est appelé un
événement élémentaire, sinon on parle d’événement composite.
• On note un événement par une lettre majuscule A, B, C... et l’ensemble de tous les événe-
ments de Ω par A.

Exercice 1.2. Cet exercice est la suite de l’Exercice 1.1. On reprend la numérotation déjà utilisée.
Décrire les événements suivants comme des sous-ensembles de l’espace des états Ω.
2. “Le premier jet donne pile”.
4. “La somme des résultats obtenus est égale à 4”.
5. “Le premier 1 est obtenu au N-ième lancer”.
6. “L’individu atteint au moins 50 ans”.
7. “L’ivrogne avance au N -ième pas”.

Dr ASSO [email protected] 2 Probabilité 2


Exemple 1.2. Deux lancers successifs d’une même pièce de monnaie. Soient A = {P P }, B = {P F },
C = {F P, F F }. Alors,
— A ∪ B = {P P, P F } = C c , est l’événement “le premier jet donne pile” ;
— A ∩ B = ∅, est l’événement impossible, A et B sont incompatibles.

Théorème 1.1. Les opérations sur les événements satisfont aux règles suivantes. Pour tous
événements A, B, C, on a
— commutativité : A ∪ B = B ∪ A ;
— associativité : (A ∪ B) ∪ C = A ∪ (B ∪ C) ;
— distributivité : (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) ;
— lois de De Morgan : (A ∪ B)c = Ac ∩ B c , et (A ∩ B)c = (Ac ∪ B c ).

1.2.3 Tribu
L’ensemble des événements A associés à une expérience aléatoire est donc un sous-ensemble des
parties de Ω, A ⊂ P(Ω). Il semblerait naturel de prendre A = P(Ω), mais il y a alors des exemples
où il est impossible d’associer à chaque événement une probabilité de façon cohérente.
Dans ces cas-là, il est donc nécessaire de se restreindre à un sous-ensemble strict de P(Ω) contenant
les événements “intéressants”.
L’ensemble des événements que l’on considère en probabilité doivent satisfaire à quelques pro-
priétés naturelles, ils doivent former une tribu, dont voici la définition.

Définition 1.3. Un ensemble A de parties de Ω est une tribu, ou σ-algèbre, s’il satisfait aux
conditions suivantes :
1. Ω ∈ A ;
2. ∀ A ∈ P(Ω), A ∈ A =⇒ Ac ∈ A ;
3. A est stable par réunion finie ou dénombrable.

Dr ASSO [email protected] 3 Probabilité 2


Exemple 1.3.
— {∅, Ω} est une tribu et c’est la plus petite (au sens de l’inclusion).
— P(Ω) est une tribu et c’est la plus grande.
— Soit C un ensemble arbitraire de parties de Ω, alors la plus petite tribu contenant C, notée σ(C)
est appelée la tribu engendrée par C. On admet l’existence de cette tribu.
— Soit A ∈ P(Ω), A 6= ∅, A 6= Ω, alors la tribu engendrée par A est σ(A) = {∅, A, Ac , Ω}.
— Sur R, on utilise la tribu engendrée par les ouverts de R, appelée tribu borélienne de R. On admet
le fait qu’elle soit différente de P(R).
— Dans le cas où l’espace des états est fini ou dénombrable, on prend toujours A = P(Ω).

Exercice 1.3. Soit Ω = {1, 2, 3}.


— Quelle est la tribu engendrée par A = {1, 2} ?
— Quelle est la tribu engendrée par C = {{1}, {2}} ?

Définition 1.4.
L’ensemble des événements associé à une expérience est la tribu A choisie sur Ω.

Remarque 1.1. Dans le cas où l’espace des états est fini ou dénombrable, puisque A = P(Ω), un
événement est donc simplement n’importe quel sous-ensemble de Ω. On retrouve bien la définition
donnée dans l’enseignement secondaire.

1.2.4 Probabilité
Nous souhaitons maintenant associer à chacun des événements une probabilité, qui mesure la
vraisemblance que l’on accorde a priori à l’événement avant la réalisation de l’expérience. C’est une
des données du modèle, que l’on peut comprendre intuitivement de différentes manières, en voici
deux.
Approche utilisant les symétries. On considère un dé non-pipé. Il est alors naturel de supposer
que chacune des issues possibles ait la même probabilité égale à 1/6. Il faut cependant être prudent
avec cette approche. En effet, supposons que nous souhaitions déterminer la probabilité

Définition 1.5. Étant donnés un espace d’états Ω et une tribu d’événements A, une probabilité
P sur (Ω, A), est une application de A dans [0, 1], possédant les propriétés suivantes.
1. L’événement certain est de probabilité 1 : P(Ω) = 1.
2. Axiome de σ-additivité : pour toute famille dénombrable (An )n ≥ 0 d’événements de A,
deux-à-deux disjoints, on a

Dr ASSO [email protected] 4 Probabilité 2


[ +∞
 X
P An = P(An ). (1.1)
n≥0 n=0

Le triplet (Ω, A, P) est alors appelé un espace probabilisé.


On a les conséquences immédiates suivantes.

Proposition 1.1. Soit (Ω, A, P) un espace probabilisé et soient deux événements A ∈ A, B ∈ A.


1. Additivité. Si A et B sont disjoints, alors P(A ∪ B) = P(A) + P(B).
En particulier, P(Ac ) = 1 − P(A), et P(∅) = 0.
2. Si A ⊂ B, alors : P(A) ≤ P(B).
3. P(A ∪ B) = P(A) + P(B) − P (A ∩ B).

1.3 Construction d’espaces probabilisés

1.3.1 Espace des états fini


On suppose dans la suite que l’espace des états Ω est de cardinal fini. Dans ce cas, la tribu
considérée est simplement A = P(Ω) et la définition d’une probabilité prend la forme suivante, qui
est celle utilisée au lycée.

Définition 1.6.
Une probabilité P sur (Ω, P(Ω)), est une application de P(Ω) dans [0, 1], possédant les pro-
priétés suivantes.
1. L’événement certain est de probabilité 1 : P(Ω) = 1.
2. Axiome d’additivité : pour tous A ∈ P(Ω), B ∈ P(Ω), tels que A et B sont disjoints, on a

P(A ∪ B) = P(A) + P( B). (1.2)

Proposition 1.2. • Une probabilité sur (Ω, P(Ω)) est caractérisée par sa valeur sur les singletons
{ω}, pour tout ω ∈ Ω.
• Réciproquement, à toute famille (pω )ω ∈ Ω telle que :
1. pour tout ω ∈ Ω, 0 ≤ pω ≤ 1,
X
2. pω = 1
ω∈Ω
on peut associer une unique probabilité P sur (Ω, P(Ω)) définie par :

P ({ω}) = pω . (1.3)

Dr ASSO [email protected] 5 Probabilité 2


On étend ensuite P à P(Ω) par additivité : pour tout A ∈ P(Ω),
X
P(A) = pω (1.4)
ω∈A

Définition 1.7.
Une probabilité P sur (A, Ω) est dite uniforme, si P({ω}) ne dépend pas de ω ∈ Ω.
On dit alors que l’on est en situation d’équiprobabilité.

Corollaire 1.1. Dans ce cas, pour tout ω ∈ Ω, P({ω}) = 1


Card(Ω)
, et, pour tout événement A ∈ P(Ω),
on a
Card(A)
P(A) = . (1.5)
Card(Ω)
Remarque 1.2. Pour signaler que l’on est en situation d’équiprobabilité, les manuels scolaires ont
coutume d’écrire que le phénomène se produit “au hasard” pour permettre à l’élève de comprendre
qu’il doit choisir la probabilité uniforme. Cela n’a pourtant aucun sens, puisque n’importe quel modèle
probabiliste modélise un phénomène aléatoire... Lorsque l’on veut préciser que l’on est en situation
d’équiprobabilité, on mettra donc l’expression “au hasard” entre guillemets, montrant ainsi que l’on
est conscient que cette expression ne veut rien dire. Cette remarque sera approfondie en “Didactique”,
notamment avec le “paradoxe de Bertrand”.

1.4 Dénombrement, modèle d’urne

Dr ASSO [email protected] 6 Probabilité 2


Chapitre no 2

Conditionnement et indépendance

2.1 Probabilité conditionnelle

2.1.1 Définitions et généralités


Motivons la définition de probabilité conditionnelle sur un exemple. Soit Ω une population par-
titionnée en Ω = S ∪ S c , où S représente l’ensemble des individus fumeurs. Soit F l’ensemble des
femmes, de sorte que F ∪ F c représente une autre partition de Ω. On suppose que l’on choisit un indi-
vidu “au hasard”, de sorte que l’on munit Ω de la probabilité uniforme, notée P. Ainsi, la probabilité
que l’individu choisi soit fumeur est :

Card(S)
P(S) = .
Card(Ω)

Si maintenant on choisit un individu avec l’information supplémentaire qu’il s’agit d’une femme,
tout se passe comme si l’univers considéré est F , et que l’on a partitionné F (et non plus Ω) en S ∩ F
et S c ∩ F . Ainsi la probabilité que l’individu choisi soit fumeur, étant donné l’information que c’est
une femme, est égale à :
Card(S ∩ F ) Card(S ∩ F )/Card(Ω)
=
Card(F ) Card(F )/Card(Ω)
quantité encore égale, avec les notations précédentes, à

P(S ∩ F )
P(F )

Définition 2.1. Soit (Ω, A, P) un espace probabilisé, et B un événement tel que P(B) > 0. Pour
tout A ∈ A, on définit la probabilité conditionnelle de A sachant B, notée PB (A), par :

P(A ∩ B)
PB (A) = . (2.1)
P(B)

7
Proposition 2.1. Sous les hypothèses de la définition ci-dessus, l’application PB est une proba-
bilité sur (Ω, A), ainsi (Ω, A, PB ) est un espace probabilisé.

Remarque 2.1. On utilise aussi la notation P(A|B). Mais attention, cette dernière n’est pas en
vigueur dans les lycées. Elle favorise par ailleurs de nombreuses erreurs. La notation PB (A) met en
valeur le fait que PB soit une probabilité sur (Ω, A).

Proposition 2.2. Si P(A) > 0 et P(B) > 0, on a

P(A ∩ B) = PA (B)P(A) = PB (A)P(B). (2.2)

Exemple 2.1. On considère deux lancers successifs d’un même dé. Sachant que le premier jet donne
3, on souhaite calculer la probabilité que la somme soit strictement supérieure à 6.
Supposons que l’on ait choisi l’univers Ω = {(i, j) : i ∈ {1, · · · , 6}, j ∈ {1, · · · , 6}}, que l’on munit
de la tribu A = P(Ω). On est alors en situation d’équiprobabilité, et on munit Ω de la probabilité
uniforme, notée P. Ainsi, pour tout événement A de A,

Card(A) Card(A)
P(A) = = .
Card(Ω) 36

Soit B l’événement “le premier jet donne 3” ; B est le sous-ensemble {(3, j) : j ∈ {1, · · · , 6}} de A,
son cardinal est égal à 6, d’où P(B) = 6
36
= 1
6
> 0. La probabilité P(B) étant strictement positive, on
peut conditionner par l’événement B. Soit A l’événement “la somme des dés est strictement supérieure
à 6” ; A est le sous-ensemble {(i, j) ∈ Ω : i + j > 6} de A, et A ∩ B = {(3, 4), (3, 5), (3, 6)}, d’où :
P(A∩B)
P(A ∩ B) = 3
36
= 1
12
. On conclut que : PB (A) = P(B)
= 12 .

2.1.2 Formule des probabilités totales et formule de Bayes

Définition 2.2. Soit I une partie finie ou dénombrable de N. Une famille (Bi )i∈I d’événements
de Ω forme un système complet d’événements de Ω, si
[
∀ i 6= j, Bi ∩ Bj = ∅, et Bi = Ω. (2.3)
i∈I

Autrement dit, la famille (Bi )i ∈ I est une partition de Ω.

Théorème 2.1 (Méthode de résolution).


Soit (Ω, A, P) un espace probabilisé.

• Formule des probabilités totales.


Soit (Bi )i ∈I un système complet d’événements de Ω, telle que pour tout i ∈ I, P(Bi ) > 0, et

Dr ASSO [email protected] 8 Probabilité 2


soit A ∈ A. Alors :
X X
P(A) = P(A ∩ Bi ) = PBi (A)P(Bi ). (2.4)
i∈I i∈I

Dans le cas particulier où I = {1, · · · , n}, on a :

X n
X
P(A) = P(A ∩ Bi ) = PBi (A)P(Bi ).
i∈I i=1

• Formule de Bayes.
Soient A ∈ A et B ∈ A, tels que 0 < P(A) < 1 et P(B) > 0, alors :

PA (B)P(A)
PB (A) = . (2.5)
PA (B)P(A) + PA (B)P(A)

Exercice 2.1.
Un sondage est effectué dans une société comprenant 40% de cadres et 60% d’ouvriers. On
sait que 20% des cadres et 10% des ouvriers de cette société savent parler anglais. On interroge
une personne “au hasard”. Quelle est la probabilité que ce soit :
• un cadre sachant parler anglais ?
• un ouvrier sachant parler anglais ?
• une personne sachant parler anglais ?
• L’individu interrogé sait parler anglais. Quelle est la probabilité que ce soit un ouvrier ?

Exercice 2.2. Un exemple d’urne de Polya.


Une urne contient au départ 5 boules blanches et 7 noires. Chaque fois que l’on tire une boule,
on la réintroduit en rajoutant deux nouvelles boules de la même couleur que celle tirée.

1. Quelle est la probabilité que les deux premières boules tirées soient noires ?
2. Que la deuxième boule tirée soit noire ?

Exercice 2.3. Le test de dépistage d’un certain virus n’est pas infaillible :

• 1 fois sur 100, il est positif, alors que l’individu n’est pas contaminé,
• 2 fois sur 100, il est négatif alors que l’individu est contaminé.

D’autre part, on sait que sur la population totale, la fraction de porteurs est approximativement
de 1/1000.
1. Étant donné que le test est positif, quelle est la probabilité que l’individu ne soit pas porteur
du virus ?

Dr ASSO [email protected] 9 Probabilité 2


2. Étant donné que son test est négatif, quelle est la probabilité qu’un individu soit porteur du
virus ?

Remarque 2.2.

2.1.3 Arbre de probabilité

Définition 2.3 (Interprétation de l’arbre de probabilité).


L’arbre de probabilité est un arbre orienté et pondéré, satisfaisant aux conditions suivantes.
• Les sommets de l’arbre sont formés d’événements de Ω, et la racine est Ω.
• Si A est un sommet de l’arbre, alors les feuilles de A forment une partition de A.
• Soit n ≥ 1, et A0 , A1 , · · · , An un chemin de l’arbre (où A0 = Ω). Alors le nombre situé sur
la branche de An−1 vers An est la probabilité conditionnelle de An sachant que A1 ∩ · · · ∩ An−1
est réalisé.
Ainsi, la somme des probabilités des branches issues d’un même sommet est 1.
Soit n ≥ 1, et A0 , A1 , · · · , An un chemin de l’arbre, A0 = Ω. Alors, par définition des probabilités
conditionnelles, la probabilité P(A1 ∩· · ·∩An ) est obtenue en effectuant le produit des nombres situés
sur les branches formant le chemin, en effet :

P(A1 ∩ · · · ∩ An ) = P(A1 )PA1 (A2 ) · · · PA1 ∩···∩An−1 (An). (2.6)

En sommant le produit le long de différentes branches, on retrouve différentes formes de la formule


des probabilités totales.

Exercice 2.4.
Une urne contient trois boules blanches et deux boules noires. On tire successivement et “au
hasard” trois boules dans cette urne, en respectant le protocole suivant : on remet la boule dans
l’urne si elle est noire, on ne la remet pas si elle est blanche.
1. Quelle est la probabilité de n’obtenir aucune boule blanche ?
2. Quelle est la probabilité d’obtenir trois boules blanches ?
3. Quelle est la probabilité d’obtenir exactement une boule blanche ?

2.2 Indépendance des événements


Soit (Ω, A, P) un espace probabilisé.

Définition 2.4. Deux événements A et B de A sont dits indépendants, si

P(A ∩ B) = P(A)P(B). (2.7)

Dr ASSO [email protected] 10 Probabilité 2


Exemple 2.2. 1. Les événements ∅ et Ω sont indépendants. En effet, P(∅ ∩ Ω) = P(∅) = 0, et
P(∅)P(Ω) = 0 × 1 = 0, d’où, P(∅ ∩ Ω) = P(∅)P(Ω).
2. On jette un dé parfaitement équilibré. Soit A l’événement “obtenir 1, 2 ou 3”, et B l’événement
“obtenir 1,2,4 ou 5”. On choisit comme espace des états, Ω = {1, · · · , 6}, que l’on munit de la
probabilité uniforme. On a alors,

1 2 1
P(A) = , P(B) = , P(A ∩ B) = P({1, 2}) = .
2 3 3
Ainsi, comme P(A ∩ B) = P(A)P(B), on déduit que les événements A et B sont indépendants.

Remarque 2.3. 1. L’indépendance n’a rien à voir avec le fait que les événements soient disjoints
ou non. Dans l’exemple ci-dessus, les événements sont indépendants, mais non disjoints (A ∩
B 6= ∅).
2. Si A et B sont deux événements de probabilité non nulle, alors :

A et B sont indépendants ⇐⇒ P(A) = PB (A) ⇐⇒ P(B) = PA (B).

Le fait d’avoir une information supplémentaire, à savoir que B est réalisé, ne modifie pas la
probabilité de A (de même pour B lorsqu’on sait que A est réalisé) ce qui justifie la terminologie
d’indépendance. Ces critères ne sont cependant pas utilisés comme définition car ils nécessitent
l’hypothèse supplémentaire, P(A) > 0 et P(B) > 0.

Théorème 2.2. Si les événements A et B sont indépendants, il en est de même des événements
Ac et B, A et B c , Ac et B c .

Définition 2.5. • Des événements A1 , · · · , An de A sont dits mutuellement indépendants,


si pour tout entier 1 ≤ k ≤ n et tout k-uplet d’entiers (i1 , · · · , ik ), tels que, 1 ≤ i1 < · · · <
ik ≤ n,
P(Ai1 ∩ · · · ∩ Aik ) = P(Ai1 ) · · · P(Aik ). (2.8)

• Les événements A1 , · · · , An sont dits deux-à-deux indépendants, si pour tout i ∈ {1, · · · , n},
j ∈ {1, · · · , n} , tels que i 6= j, on a :

P(Ai ∩ Aj ) = P(Ai )P(Aj ). (2.9)

Exemple 2.3. Soit Ω = {1, 2, 3, 4} muni de la tribu A = P(Ω) et de la probabilité uniforme, notée
P. On considère les événements A = {1, 2}, B = {2, 3}, C = {1, 3}.

1. Montrer que les événements A, B, C, sont deux-à-deux indépendants.


2. Montrer que les événements A, B, C, ne sont pas mutuellement indépendants.

Dr ASSO [email protected] 11 Probabilité 2


Exercice 2.5.
Une urne contient 9 boules indiscernables, numérotée de 1 à 9. On tire une boule “au hasard”.
Les événements suivants sont-ils indépendants ?
1. A : “la boule tirée porte un numéro pair”,
2. B : “le numéro tiré est multiple de 3”.
Répondre à la même question lorsque l’urne contient 12 boules.

Dr ASSO [email protected] 12 Probabilité 2


Chapitre no 3

Variables aléatoires

3.1 Définition et loi d’une variable aléatoire


Soit (Ω, A, P) un espace probabilisé. Plutôt que de travailler avec des événements de A, il est
souvent plus commode d’associer une valeur numérique aux résultats d’une expérience aléatoire. Par
exemple, lors de n jets de pile ou face, il sera intéressant d’étudier le nombre de piles obtenus. Cela
motive l’introduction de la notion de variable aléatoire, qui est une application X de Ω dans un
ensemble E qui sera typiquement, Nd , Zd ou Rd (d ≥ 1).
Lorsque X ne prend qu’un nombre dénombrable de valeurs X(Ω) = {xj : j ∈ J}, où J est une
partie non-vide finie ou dénombrable de N, alors X est appelée une variable aléatoire discrète.

— La terminologie de variable aléatoire peut être trompeuse, car il s’agit en fait d’une fonction
de Ω dans E.

— Afin de pouvoir définir une probabilité de manière cohérente, il faut supposer de plus que pour
une classe importante de parties B de E, l’ensemble {ω ∈ Ω : X(ω) ∈ B} appartient à A.
Formellement, on munit E d’une tribu E. Une variable aléatoire X est alors une application de
(Ω, A) dans (E, E) telle que :

∀ B ∈ E, {ω ∈ Ω : X(ω) ∈ B} ∈ A. (3.1)

— Soit B un sous-ensemble de E. Rappelez-vous les notations :

X −1 (B) = {ω ∈ Ω : X(ω) ∈ B} = {X ∈ B}. (3.2)

{X ∈ B} est l’événement “X prend une valeur appartenant à B”. Attention, X −1 (B) désigne
l’image réciproque de la partie B par l’application X. Cela ne sous-entend nullement que X
est bijective !

Exemple 3.1.

1. On considère deux lancers successifs d’un même dé, et on note S la variable aléatoire corres-
pondant à la somme des valeurs obtenues, ainsi S prend ses valeurs dans {2, 3, · · · , 12}.

13
2. Soit (Ω, A, P) un espace probabilisé, et A ∈ A un événement. Alors l’indicatrice de A, notée IA ,
est la variable aléatoire définie sur Ω par :

1 si ω ∈ A,
∀ ω ∈ Ω, IA (ω) = (3.3)
0 sinon.

Ainsi l’indicatrice de A prend ses valeurs dans {0, 1}. En probabilité, il est important de bien
savoir manipuler cette notation. En particulier l’indicatrice satisfait aux conditions suivantes.
Si A et B sont deux événements de A, alors :

IAc = 1 − IA , IA∩B = IA IB , IA∪B = IA + IB − IA∩B . (3.4)

Définition 3.1. Soient (Ω, A, P) un espace probabilisé et X une variable aléatoire définie sur
Ω, à valeurs dans E.
On définit la loi de probabilité de X, notée PX de la manière suivante. Pour tout sous-
ensemble B de E tel que {X ∈ B} ∈ A :

PX (B) = P({X ∈ B}). (3.5)

Proposition 3.1.

— Dans le cas où X est une variable aléatoire discrète, X(Ω) = {xj : j ∈ J}, où J est une
partie non-vide, finie ou dénombrable de N, alors la loi de probabilité de X est caractérisée
par la donnée :
∀ j ∈ J, PX ({xj }).

— Dans le cas où X(Ω) = R, la loi de probabilité de X est caractérisée par la donnée de :

∀ (a, b) ∈ R2 , a < b, PX ([a, b[).

Exemple 3.2. 1. Choisissons comme univers Ω = {1, · · · , 6}2 , que l’on munit de la tribu A =
P(Ω), et de la probabilité uniforme, notée P. Ainsi pour tout sous-ensemble A de P(Ω),

Card(A)
P(A) = .
Card(Ω)

Étant donné que S prend ses valeurs dans {2, · · · , 12}, pour déterminer la loi de probabilité PS

Dr ASSO [email protected] 14 Probabilité 2


de S, il suffit de calculer, pour tout i ∈ {2, · · · , 12}, PS ({i}) :

PS ({2}) = P({S ∈ {2}}) = P({ω ∈ Ω : S(ω) ∈ {2}})


1
= P({ω ∈ Ω : S(ω) = 2}) = P({(1, 1)}) = ,
36
1
PS (3) = P({ω ∈ Ω : S(ω) = 3}) = P({(1, 2), (2, 1)}) = ,
18
etc.

2. Étant donné que l’indicatrice de A prend ses valeurs dans {0, 1}, il suffit de déterminer, pour
i ∈ {0, 1}, PIA ({i}) :

PIA ({1}) = P(IA ∈ {1}) = P({ω ∈ Ω : IA (ω) = 1})


= P({ω ∈ Ω : ω ∈ A}) = P(A),
PIA ({0}) = P(IA ∈ {0}) = P({ω ∈ Ω : IA (ω) = 0})
= P({ω ∈ Ω : ω 6∈ A}) = P(Ac ) = 1 − P(A).

3.2 Fonction de répartition

Définition 3.2. Soit X une variable aléatoire de loi PX à valeurs dans R (ou une partie de R).
On appelle fonction de répartition de la loi PX ou encore, par abus, fonction de répartition
de X, l’application FX définie sur R par :

∀ t ∈ R, FX (t) = PX (] − ∞, t]) = P(X ≤ t).

Proposition 3.2. La fonction de répartition de la loi PX satisfait aux propriétés suivantes :


1. FX prend ses valeurs dans [0, 1],
2. FX est une application croissante,
3. FX est continue à droite et admet une limite à gauche,
4. lim FX (t) = 0, lim FX (t) = 1.
t→−∞ t→+∞

Proposition 3.3. Toute application définie de R dans [0, 1] qui possède les propriétés 2, 3, 4,
est la fonction de répartition d’une unique loi de probabilité sur R.

La fonction de répartition permet de calculer les probabilités suivantes :

Proposition 3.4. Soit (Ω, A, P) un espace probabilisé, et X une variable aléatoire sur Ω de
fonction de répartition FX , alors :
• P(X > x) = 1 − FX (x),

Dr ASSO [email protected] 15 Probabilité 2


• P(x < X ≤ y) = FX (y) − FX (x),
• P(X < x) = FX (x− ).

Pour la suite de la théorie, nous allons traiter trois cas séparément, selon que la variable aléatoire
soit discrète (finie ou infinie) ou continue et à densité. Ceci pourrait être unifié en utilisant la théorie
de la mesure, mais nous amènerait en dehors du programme.

3.3 Variables aléatoires discrètes

3.3.1 Définition
Soit (Ω, A, P) un espace probabilisé.

Définition 3.3. Une variable aléatoire X définie sur Ω est dite discrète si elle prend ses valeurs
dans un ensemble discret : X(Ω) = {xj : j ∈ J} ⊂ R, où J est une partie non-vide finie ou
dénombrable de N.

Remarque 3.1. Lorsque Ω est fini, toute application définie sur Ω est une variable aléatoire discrète.

Proposition 3.5. Si X est une variable aléatoire discrète définie sur Ω, alors la loi de probabilité
de X est caractérisée par la donnée de la famille {(xj , PX ({xj })), j ∈ J}, où :

PX ({xj }) = P({X = xj }). (3.6)

3.3.2 Loi uniforme


Soit n ∈ N∗ et une variable aléatoire, X : Ω → {x1 , · · · , xn }, où pour tout i 6= j, xi 6= xj .
Supposons que la loi de probabilité de X est donnée par :

1
∀ j ∈ {1, · · · , n}, PX ({xj }) = .
n

Alors la loi de X est appelée la loi uniforme discrète sur {x1 , · · · , xn }.

Exemple 3.3. On lance une pièce équilibrée. Soit Ω = {P, F } que l’on munit de la probabilité
uniforme p. On définit la variable aléatoire X : Ω → {−1, 1}, par X({P }) = 1, X({F }) = −1. Ainsi,
la loi de probabilité de X est :

1 1
pX ({1}) = p({X = 1}) = p({P }) = , pX ({−1}) = p({X = −1}) = p({F }) =
2 2

et la variable aléatoire X suite une loi uniforme sur {−1, 1}.

Dr ASSO [email protected] 16 Probabilité 2


3.3.3 Loi de Bernoulli
• Soit 0 < p < 1 et une variable aléatoire X : Ω → {0, 1} de loi de probabilité :

PX ({1}) = p, PX ({0}) = 1 − p. (3.7)

Alors la loi de X est appelée loi de Bernoulli de paramètre p.


• Une épreuve de Bernoulli de paramètre p est une expérience aléatoire admettant deux
issues succès/échec, telle que p est la probabilité d’obtenir un succès. Soit Ω représentant les issues de
l’expérience, P une probabilité sur Ω et A l’événement représentant le succès. D’après la description
de l’expérience, on a P(A) = p. Dans ce cas, l’indicatrice de A, IA , suit une loi de Bernoulli de
paramètre p.

Exemple 3.4.
On jette un dé équilibré une fois. On appelle “succès” l’événement A “obtenir un nombre plus
grand ou égal à 2”. On choisit comme univers Ω = {1, · · · , 6}, alors p(A) = p({2, 3, 4, 5, 6}) = 5
6
et
IA suit une loi de Bernoulli de paramètre 5/6.

3.3.4 Loi binomiale


• Soit n ∈ N∗ , 0 < p < 1 et une variable aléatoire X : Ω → {0, · · · , n} de loi de probabilité :

∀ k ∈ {0, · · · , n}, PX ({k}) = Cnk pk (1 − p)n−k . (3.8)

Alors la loi de X est appelée loi binomiale de paramètres n et p.


• On appelle schéma de Bernoulli de paramètres n et p l’expérience qui consiste à répéter n
fois de manière indépendante une épreuve de Bernoulli de paramètre p. On choisit comme univers
Ωn , que l’on munit d’une probabilité Pn . Pour i ∈ {1, · · · , n}, on note Ai l’événement “obtenir un
succès lors de la i-ième expérience”. Soit k ∈ {0, · · · , n}, comme les expériences sont indépendantes,
la probabilité d’obtenir un succès lors des k premières expériences et un échec lors des n − k dernières
est :

Pn (A1 ∩ · · · ∩ Ak ∩ Ack+1 · · · ∩ Acn ) = P(A1 ) · · · P(Ak )P(Ack+1 ) · · · P(Acn )


= pk (1 − p)n−k . (3.9)

Soit X la variable aléatoire qui compte le nombre de succès dans un schéma de Bernoulli, alors X
suit une loi binomiale de paramètres n et p.

3.3.5 Loi géométrique


• Soit 0 < p < 1 et une variable aléatoire X : Ω → N∗ de loi de probabilité :

∀ k ∈ N∗ , PX ({k}) = (1 − p)k−1 p. (3.10)

Dr ASSO [email protected] 17 Probabilité 2


Alors la loi de X est appelée loi géométrique de paramètre p. En translatant de 1 les valeurs de la
variable aléatoire, on obtient la loi géométrique sur N.
• Considérons un schéma de Bernoulli où l’expérience est répétée indéfiniment. Si X est la variable
aléatoire égale au temps passé jusqu’au premier succès, alors X suit une loi géométrique de paramètre
p.

En effet, choisissons comme univers ΩN et calculons la loi de probabilité de X. Pour tout k ∈ N∗ ,

PX ({k}) = Pk (Ac1 ∩ · · · ∩ Ack−1 ∩ Ak )


= P(Ac1 ) · · · P(Ack−1 )P(Ak ), par indépendance
= (1 − p)k−1 p.

3.3.6 Loi de Poisson


• Soit θ > 0 et une variable aléatoire X : Ω → N de loi :

θk
∀ k ∈ N, PX ({k}) = e−θ . (3.11)
k!

Alors la loi de X est appelée loi de Poisson de paramètre θ.


• La loi de Poisson modélise le nombre d’autobus passés à un arrêt avant un instant T donné, et
θ représente le nombre moyen d’arrivées dans cet intervalle.

Remarque 3.2. Lorsque p, n et pn tendent vers 0,+∞ et θ respectivement, la loi binomiale de


paramètres n et p tend vers une loi de Poisson de paramètre θ.

Exercice 3.1. Soit Ω = {ω1 , ω2 , ω3 , ω4 , ω5 } un espace fini à 5 éléments, de probabilités respectives


1/4, 1/4, 1/6, 1/6, 1/6. On note X la variable aléatoire définie par :

X(ω1 ) = X(ω2 ) = 0, X(ω3 ) = X(ω4 ) = 1, X(ω5 ) = 2.

Déterminer la loi de la variable aléatoire X.

Exercice 3.2. Une urne contient n boules numérotées de 1 à n, n ≥ 3. On tire 3 boules d’un
seul coup. Soit X la variable aléatoire égale à 1 si on a tiré la boule numéro 1, égale à 0 dans le
cas contraire. Donner la loi de la variable aléatoire X.

Exercice 3.3. On lance deux dés équilibrés. On note le plus grand des numéros obtenus.
Déterminer la loi de la variable aléatoire X.

Dr ASSO [email protected] 18 Probabilité 2


Exercice 3.4. Une urne contient Nb boules blanches et Nn boules noires. Posons N = Nb + Nn .
On tire r boules avec remise dans l’urne. Soit X la variable aléatoire égale au nombre de boules
blanches tirées.
1. Déterminer la loi de la variable aléatoire X.
2. Reconnaître la loi de X.

Exercice 3.5. On lance un dé à 6 faces non truqué, indéfiniment. Soit X la variable aléatoire
égale au temps passé jusqu’à ce que le premier 1 soit obtenu.
1. Déterminer la loi de la variable aléatoire X.
2. Reconnaître la loi de X.

3.3.7 Fonction de répartition

Théorème 3.1. Soit (Ω, A, P) un espace probabilisé et soit X une variable aléatoire discrète
réelle définie sur Ω. Alors la fonction de répartition FX de la loi PX , vérifie :
X
1. FX (x) = PX ({y}) ;
{y∈X(Ω): y≤x}

2. si x et y sont deux points consécutifs de X(Ω), alors FX est constante sur [x, y[ ;
3. la hauteur du saut en x ∈ X(Ω) est donnée par PX ({x}).

Exercice 3.6.
Calculer la fonction de répartition de :
1. la loi uniforme sur {1, · · · , n},
2. la loi de Bernoulli de paramètre p,
3. la loi binomiale de paramètres 4 et 12 ,
4. la loi géométrique de paramètre p.

3.3.8 Espérance
L’espérance d’une variable aléatoire représente sa moyenne pondérée par la probabilité de chacune
des issues. Lors d’un jeu de hasard par exemple, elle permet de déterminer si le jeu est équitable ou
non.
• Cas où l’univers est fini.
Soit (Ω, A, P) un espace probabilisé. Supposons l’univers Ω fini : Ω = {ω1 , · · · , ωn }.

Dr ASSO [email protected] 19 Probabilité 2


Définition 3.4. Soit X une variable aléatoire réelle définie sur Ω. On appelle espérance de X,
que l’on note E(X), la quantité :

n
X
E(X) = X(ωi )P({ωi }) (3.12)
i=1

L’espérance satisfait aux propriétés suivantes.

Théorème 3.2.

1. (Linéarité). Si X et Y sont deux variables aléatoires définies sur Ω, et si a, b sont deux


constantes réelles, alors :

E(aX + bY ) = aE(X) + bE(Y ). (3.13)

2. (Monotonie). Si X et Y sont deux variables aléatoires définies sur Ω telle que X ≤ Y , alors
E(X) ≤ E(Y ). En particulier, |E(X)| ≤ E(|X|).
3. Si X est une variable aléatoire constante, X ≡ a, alors E(X) = a.
4. (Théorème de transfert). Notons {x1 , · · · , xm } l’ensemble des valeurs prises par la variable
aléatoire réelle X, et soit f une application définie sur X(Ω), alors :

m
X
E(f (X)) = f (xk )PX ({xk }). (3.14)
k=1

En particulier, si f ≡ Id, on obtient :


m
X
E(f (X)) = xk PX ({xk }). (3.15)
k=1

3.3.9 Variance, moments d’ordres supérieurs


Soient (Ω, A, P) un espace probabilisé et X une variable aléatoire discrète définie sur Ω, à valeurs
dans {xj : j ∈ J}, où J est une partie non-vide, finie ou dénombrable de N.

Définition 3.5. • La variable aléatoire X et dite de carré intégrable, si X 2 admet une espérance.
• La quantité E(X 2 ) est alors bien définie et est appelée moment d’ordre 2 de X.

Théorème 3.3. Si X est une variable aléatoire discrète de carré intégrable, alors :

E(|X|)2 ≤ E(X 2 ). (3.16)

Dr ASSO [email protected] 20 Probabilité 2


Définition 3.6. • Si X est une variable aléatoire discrète de carré intégrable, on définit sa
variance, notée V ar(X), par :

V ar(X) = E[(X − E(X))2 ]. (3.17)

• L’écart-type, noté σ(X), est défini par

σ(X) = V ar(X). (3.18)

Remarque 3.3.

1. La variance de X mesure la façon dont X s’écarte de sa moyenne E(X).


2. L’écart-type s’utilise surtout en statistique. Remarquer que si la variable aléatoire X a une unité,
alors l’écart-type a la même unité, tandis que la variance a l’unité au carré, d’où l’intérêt dans
la pratique de travailler avec l’écart-type.

Proposition 3.6. Soit X une variable aléatoire discrète de carré intégrable, alors :
1. V ar(X) ≥ 0,
2. ∀ a ∈ R, V ar(X + a) = V ar(X),
3. ∀ a ∈ R, V ar(aX) = a2 V ar(X),
4. V ar(X) = E(X 2 ) − E(X)2 ,
5. V ar(X) = 0 ⇐⇒ ∀ j ∈ J tel que PX ({xj }) > 0, xj = E[X].

Définition 3.7. Soit X une variable aléatoire discrète de carré intégrable.


Si X est de variance égale à 1, on dit que X est réduite.

Définition 3.8. Soit X une variable aléatoire discrète, et soit n ∈ N∗ .


Si X n est intégrable, la quantité E(X n ) est bien définie et on l’appelle moment d’ordre n de
la variable aléatoire X.

Remarque 3.4.
D’après le théorème de transfert, la variable aléatoire X n est intégrable si et seulement si la série
de terme général |xj |n PX ({xj }) converge.

Exercice 3.7. Calculer, si elle existe, la variance de chacune des lois discrètes classiques.

Dr ASSO [email protected] 21 Probabilité 2


3.3.10 Inégalité de Markov et de Bienaymé Tchebychev

Proposition 3.7 (Inégalité de Markov).


Soit X une variable aléatoire admettant un moment d’ordre n ≤ 1. Alors,

E[|X|n ]
∀ a > 0, P(|X| ≥ a) ≤ (3.19)
an

Proposition 3.8 (Inégalité de Bienaymé-Tchebychev).


Soit X une variable aléatoire discrète de carré intégrable. Alors,

V ar(X)
∀ a > 0, P[|X − E(X)| ≥ a] ≤ . (3.20)
a2

3.4 Variables aléatoires réelles à densité

3.4.1 Définitions
Soit (Ω, A, P) un espace probabilisé et soit X une variable aléatoire définie sur Ω à valeurs dans
R.

Définition 3.9.
• La variable aléatoire X est dite à densité, s’il existe une fonction réelle positive p n’ayant
qu’un nombre fini de points de discontinuité, telle que la fonction de répartition de la loi de
probabilité de X s’écrit : Z t
∀ t ∈ R, FX (t) = p(x)dx. (3.21)
−∞

• La fonction p est alors appelée densité de la loi de probabilité de X.

Proposition 3.9. On a les propriétés suivantes :


Z +∞
1. l’application p est intégrable sur R et p(x)dx = 1 ;
−∞
2. la fonction de répartition FX est continue sur R ;
3. pour tout intervalle K de R, non réduit à un point :
Z +∞ Z
P[X ∈ K] = IK (x)p(x)dx = p(x)dx; (3.22)
−∞ K

4. pour tout réel t, P[X = t] = 0 ;


5. la fonction de répartition est dérivable partout où p est continue et, en ces points, FX0 = p.

Remarque 3.5.

Dr ASSO [email protected] 22 Probabilité 2


Z +∞
1. Toute application positive p, continue sauf en un nombre fini de points, telle que p(x)dx
−∞
existe et vaut 1 est une densité de probabilité sur R ; c’est-à-dire qu’il existe une variable aléa-
toire X telle que, pour tout t ∈ R,
Z t
FX (t) = P (X ≤ t) = p(x)dx.
−∞

2. Soit X une variable aléatoire de fonction de répartition FX . Si l’application FX est continue


sur R et C 1 -par morceaux, alors X est une variable aléatoire à densité, de densité égale à FX0
partout où elle est dérivable.
3. On parle de la densité de la loi d’une variable aléatoire, alors qu’on devrait parler d’une densité.
En effet, si l’on modifie p en un nombre fini de points en lui donnant d’autres valeurs positives,
on obtient une autre densité.

3.4.2 Espérance et moments d’ordres supérieurs

Définition 3.10. Soit X une variable aléatoire réelle à densité, de densité p.


On dit R que la variable aléatoire X est intégrable ou encore qu’elle admet une espérance si
R +∞
l’intégrale −∞ |x|p(x)dx existe. Dans ce cas, on définit son espérance, notée E(X), par :
Z +∞
E(X) = |x|p(x)dx. (3.23)
−∞

Définition 3.11. Soit n un entier naturel non nul.


On dit que la variable aléatoire X admet un moment d’ordre n si la variable aléatoire X n est
intégrable. Dans ce cas, son n-ième moment est E(X n ) par définition.

Théorème 3.4 (Théorème de transfert).


Soit X une variable aléatoire réelle. Alors X est une variable aléatoire à densité, si et seule-
ment si il existe une fonction positive p n’ayant qu’un nombre fini de points de discontinuité,
telle que pour toute fonction ϕ continue bornée de R dans R, on a :
Z
E[ϕ(X)] = ϕ(x)p(x)dx. (3.24)
R

Dans ce cas, la fonction p est la densité de la variable aléatoire X.

Remarque 3.6. Les propriétés énoncées pour l’espérance (linéarité, monotonie, etc.), la définition
de la variance, l’inégalité de Markov, Bienaymé-Tchébychev, restent valables dans le cas des variables
aléatoires à densité.

Dr ASSO [email protected] 23 Probabilité 2


Exercice 3.8. Soit X une variable aléatoire réelle de densité pX . Déterminer la densité de la
variable aléatoire Y dans les cas suivants :
1. Y = aX + b, où a et b sont des nombres réels, a 6= 0 ;
2. Y = X 2 ;
3. Y = exp(X).
Résoudre cet exercice de deux manières : en utilisant soit la fonction de répartition, soit le théo-
rème de transfert.

3.4.3 Exemples de variables aléatoires à densité

Loi de Gauss ou loi normale

Définition 3.12.
• Une variable aléatoire réelle X suit une loi de Gauss ou loi normale centrée réduite si elle
admet pour densité l’application pX définie sur R par :

1 x2
∀ x ∈ R, pX (x) = √ e− 2 . (3.25)

• Plus généralement, on définit la loi de Gauss ou loi normale, de moyenne m et de variance,


σ > 0, notée N (m, σ 2 ), comme la loi d’une variable aléatoire X de densité définie sur R par :
2

1 (x−m)2
∀ x ∈ R, pX (x) = √ e− 2σ 2 . (3.26)
2πσ 2

Remarque 3.7.

1. La loi normale centrée réduite a une grande importance en théorie des probabilités, car elle
apparaît comme limite dans certains théorèmes, comme le théorème central limite.
2. Nous avons montré que si X suit une loi normale N (0, 1), alors Y = σX + m suit une suit une
loi N (m, σ 2 ). De manière analogue, si Y suit une loi N (m, σ 2 ), alors X = Y −m
σ
suit une loi
N (0, 1).
3. La fonction de répartition de X ne se calcule pas à l’aide des fonctions usuelles. Si on note Π
la fonction de répartition de la loi gaussienne centrée réduite, des tables donnent des valeurs
approchées de Π(t) pour t > 0 (voir à la fin de cette première partie).
En remarquant que : Π(t) + Π(−t) = 1 on peut en déduire des valeurs approchées de Π(t) pour
les valeurs négatives de t.

Dr ASSO [email protected] 24 Probabilité 2


Loi uniforme

Définition 3.13.
• Soit I = [a, b] un intervalle de R, où a < b. La variable aléatoire X suit la loi uniforme
sur I si elle est à valeurs dans I et pour tout intervalle J inclus dans I, la probabilité que X
appartienne à J est proportionnelle à la longueur de J.
• La variable aléatoire X suit la loi uniforme sur l’intervalle I = [a, b] si et seulement si elle
admet pour densité l’application pX définie par :

1
∀ x ∈ R, pX (x) = I[a,b] (x). (3.27)
b−a

Dr ASSO [email protected] 25 Probabilité 2

Vous aimerez peut-être aussi