0% ont trouvé ce document utile (0 vote)
15 vues24 pages

Cours Chp15

Ce chapitre traite des variables aléatoires discrètes, définies comme des applications d'un espace probabilisé vers un ensemble dénombrable. Il présente les lois associées à ces variables, notamment la loi d'une variable aléatoire discrète et la loi conjointe de couples de variables aléatoires. Des propositions et définitions clés sont fournies pour illustrer les propriétés et les relations entre ces variables.

Transféré par

ilyasazhat
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
15 vues24 pages

Cours Chp15

Ce chapitre traite des variables aléatoires discrètes, définies comme des applications d'un espace probabilisé vers un ensemble dénombrable. Il présente les lois associées à ces variables, notamment la loi d'une variable aléatoire discrète et la loi conjointe de couples de variables aléatoires. Des propositions et définitions clés sont fournies pour illustrer les propriétés et les relations entre ces variables.

Transféré par

ilyasazhat
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

15

Variables aléatoires discrètes

Dans ce chapitre, sauf mention contraire, p⌦, T , Pq désigne un espace probabilisé quelconque.

La situation à laquelle vous serez le plus fréquemment confrontés est celle d’une variable aléatoire discrète
à valeurs réelles (variable aléatoire réelle), ou à valeurs dans Rn (on parle de vecteur aléatoire, c’est
équivalent à la donnée de n variables aléatoires réelles) mais on peut définir une variable aléatoire discrète
à valeurs dans n’importe quel ensemble E.
La définition d’une variable aléatoire X générale (non discrète) dépasse en revanche le cadre du pro-
gramme, et nécessite un cadre un peu plus précis : l’ensemble E dans lequel X prend ses valeurs doit
lui-même être muni d’une tribu, et X doit vérifier une propriété de « mesurabilité », qui est en quelque
sorte un respect des tribus, comme la continuité est le respect des topologies.

I Loi d’une variable aléatoire discrète


I.1 Généralités sur les variables aléatoires discrètes
Définition 15.1.1 – Variable aléatoire discrète
Soit p⌦, T q un espace probabilisable. Une variable aléatoire discrète X à valeurs dans E est une
application X : ⌦ Ñ E telle que :
(i) Xp⌦q (l’ensemble des valeurs possibles de X) est au plus dénombrable ;
(ii) pour tout xinXp⌦q, X ´1 ptxuq P T .

Définition 15.1.2 – Variables et vecteurs aléatoires réels discrets


‚ si E “ R et X vérifie les conditions de la définition 15.1.1, on dit que X est une variable
aléatoire réelle discrète (abrégé en v.a.r.d.)
‚ si E “ Rn et X vérifie les conditions de la définition 15.1.1, on dit que X est un vecteur
aléatoir réel discret.

Proposition 15.1.3 – Image réciproque des parties de E


Soit p⌦, T q un espace probabilisable, et X : ⌦ Ñ E une variable aléatoire discrète. Alors,

@A P PpEq, X ´1 pAq P T .

Ÿ Éléments de preuve.
C’est la stabilité par union finie ou dénombrable, du fait que Xp⌦q X A est fini ou dénombrable. ô
228 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

Notation 15.1.4 – Événements liés à une variable aléatoire


Soit p⌦, T q un espace probabilisable, et X une variable aléatoire à valeurs dans E.
‚ Soit A P PpEq. L’événement X ´1 pAq P T est noté pX P Aq ou tX P Au ou encore rX P As.
‚ Soit x P A. L’événement X ´1 ptxuq “ pX P txuq sera simplement noté pX “ xq, ou tX “ xu,
ou rX “ xs.

Remarque 15.1.5
Les notations pX P Aq et tX P Au figurent toutes deux dans le programme, contrairement à rX P As,
qui est néanmoins largement présente dans beaucoup d’ouvrages (en particulier pour les événements
rX “ xs).
Nous laisserons désormais de côté cette notation.

Notation 15.1.6 – Événements liés à une v.a.r.d.


Dans le cas d’une variable aléatoire réelle discrète,
‚ l’événement t! | Xp!q † au est noté pX † aq ou tX † au.
‚ l’événement t! | Xp!q § au est noté pX § aq ou tX § au ;
‚ l’événement t! | a † Xp!q † bu est noté pa † X † bq ou ta † X † bu ;
‚ l’événement t! | a † Xp!q § bu est noté pa † X § bq ou ta † X § bu
‚ etc.

Proposition 15.1.7 – Stabilité par produit cartésien


Soit X : ⌦ Ñ E et Y : ⌦ Ñ F deux variables aléatoires discrètes. Alors le couple pX, Y q est une
variable aléatoire discrète.

Proposition 15.1.8 – Composition d’une variable aléatoire discrète


Soit X une variable aléatoire discrète sur p⌦, T q, à valeurs dans E, et f une application de Xp⌦q
dans un ensemble F . Alors f ˝ X est une variable aléatoire discrète, notée f pXq.

Ÿ Éléments de preuve.
‚ f pXq´1 ptyuq est une union au plus dénombrable de X ´1 ptxuq.
‚ f : Xp⌦q Ñ f pXqp⌦q est une surjection, et Xp⌦q est au plus dénombrable.
ô
On en déduit :
Proposition 15.1.9 – Algèbre des v.a.r.d.
Le sous-ensemble de R⌦ constitué des variables aléatoires réelles discrètes est une sous-algèbre de
R⌦ . Ainsi, si X et Y deux v.a.r.d. sur ⌦, un réel quelconque :
1. 1 est une v.a.r.d.
2. X ` Y est une v.a.r.d.
3. X est une v.a.r.d.
4. XY est une v.a.r.d.
De plus, si X est une v.a.r.d., il en est de même de |X|.

Ÿ Éléments de preuve.
2 et 4 s’obtiennent en composant pX, Y q par la somme ou le produit. ô
I Loi d’une variable aléatoire discrète 229

I.2 Loi d’une variable aléatoire discrète


Soit X une variable aléatoire discrète sur p⌦, T , Pq, à valeurs dans E. par définition, tX “ xu est un
événement, donc PpX “ xq est donc bien défini.

Proposition 15.1.10
Soit X une variable aléatoire discrète sur p⌦, T , Pq à valeurs dans E. Alors
‚ la famille ptX “ xuqxPXp⌦q est un SCE d’événements ;
‚ la famille pPpX “ xqqxPXp⌦q est une distribution de probabilités.

Ÿ Éléments de preuve.
Le premier point est de la vérification facile (c’est en fait la partition associée à une surjection
Le deuxième point et la -additivité utilisée sur le SCE précédent. ô

Définition 15.1.11 – Loi d’une variable aléatoire discrète


Soit p⌦, T , Pq un espace probabilisé, et X : ⌦ Ñ E une variable aléatoire.
La loi de X est la mesure de probabilité définie sur pXp⌦q, PpXp⌦qqq par la distribution de proba-
bilités discrète pP pX “ xqqxPXp⌦q .

Remarque 15.1.12
Au besoin, il est possible de définit P sur l’espace probabilisable pF, PpF qq, pour tout ensemble F
tel que Xp⌦q Ä F , en prolongeant la mesure de probabilité pP pX “ xqqxPXp⌦q , en posant
#
PpX “ xq si x P Xp⌦q
px “
0 sinon.

Cela permet par exemple de définir PX sur pE, PpEqq tout entier.

Proposition 15.1.13 – Expression de la loi d’une v.a. discrète


Soit A P PpXp⌦qq, ÿ
PX pAq “ PpX P Aq “ PpX “ xq,
xPA

cette somme étant bien définie.

Ÿ Éléments de preuve.
Écrire A comme union de singletons. ô

Remarque 15.1.14
En définissant PX sur pE, PpEqq, on peut plus généralement écrire
ÿ ÿ
@A P PpEq, PX pAq “ PpX P Aq “ PpX “ xq “ PpX “ xq,
xPA xPAXXp⌦q

Notation 15.1.15 – Variables de même loi


On note X „ Y pour désigner le fait que X et Y suivent la même loi.
Plu précisément, étant données deux variables aléatoires X : ⌦1 Ñ E et Y : ⌦2 Ñ E, définies sur
les espaces probabilisés p⌦1 , T1 , P1 q et p⌦2 , T2 , P2 q, X „ Y si et seulement si les mesures PX et PY
définies sur E vérifient
PX “ PY
230 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

Ainsi, X „ Y si et seulement si les supports S1 et S2 des distributions de probabilités pP1 pX “ xqqxPXp⌦1 q


et pP2 pY “ yqqyPY p⌦2 q sont les mêmes, et si

@x P S1 “ S2 , P1 pX “ xq “ P2 pY “ xq.

Exemple 15.1.16
Si X “ Y presque sûrement (i.e. il existe ⌦1 Ä ⌦ tel que Pp⌦1 q “ 1 et pour tout ! P ⌦1 , Xp!q “
Y p!q), alors X „ Y .

Remarque 15.1.17
1. Contrairement à l’exemple précédent, la relation X „ Y ne nécessite pas que X et Y soient
définis sur le même espace probabilisé.
2. La relation „ est clairement réflexive, symétrique et transitive. Mais dans le cadre du pro-
gramme, il est un peu abusif d’en déduire que c’est une relation d’équivalence, car son « do-
maine » de définition n’est pas très bien défini. Il n’est pas clair que l’ « ensemble » des
variables aléatoires discrètes soit bien un ensemble, car, même en fixant E, la relation néces-
site de faire varier ⌦. Or, la collection des ensembles n’est pas un ensemble.

On peut bien évidemment aussi définir des lois conditionnelles. En effet, la définition d’une variable
aléatoire X : ⌦ Ñ E n’implique que l’espace probabilisable p⌦, T q, et non l’espace probabilisé p⌦, T , Pq.
Ainsi, étant donné un événement B P T , on peut munir p⌦, T q de la mesure de probabilité conditionnelle
PB et définir la loi de la variable X en référence à l’espace probabilisé p⌦, T , PB q. Concrètement, la loi
conditionnelle de X est donc définie par la distribution de probabilités

@x P Xp⌦q, PB,X pxq “ PB pX “ xq.

I.3 Loi de f pXq


Proposition 15.1.18 – Loi de f pXq
1. Soit X une variable aléatoire discrète sur p⌦, T , Pq, à valeurs dans E, et f : E Ñ F La loi
de f pXq, définie sur pF, PpF qq (ou seulement sur pf pXp⌦qq, Ppf pXp⌦qqqq, est donnée par

Pf pXq “ PX ˝ fy
´1 .

Autrement dit, pour tout A P PpF q,

Pf pXq pAq “ PX pf ´1 pAqq “ PpX P f ´1 pAqq.

2. En particulier, ÿ
@x P f pXp⌦qq, Ppf pXq “ xq “ PpX “ yq.
y|f pyq“x
yPXp⌦q

Ÿ Éléments de preuve.

1. tX P f ´1 pAqu “ tf pXq P Au.


2. tf pXq “ xu “ tX P f ´1 pxqu.

ô
I Loi d’une variable aléatoire discrète 231

Exemples 15.1.19 – Loi d’une somme, loi du minimum


Voici deux exemples particulièrement important, à bien connaître, dans le cas où X et Y sont des
variables aléatoires réelles discrètes.
ÿ
1. @z P R, PpX ` Y “ zq “ PpX “ x, Y “ yq.
px,yqPXp⌦qˆY p⌦q
x`y“z
ÿ ÿ
2. @z P Xp⌦q Y Y p⌦q, PpminpX, Y q “ zq “ PpX “ z, Y “ yq ` PpX “ x, Y “ zq.
yPY p⌦q xPXp⌦q
y•z x°z
Exemple : tirage de deux dés.

Corollaire 15.1.20 – Stabilité de „ par image directe


Soit X : ⌦1 Ñ E et Y : ⌦2 Ñ E telles que X „ Y , et f : E Ñ F . Alors f pXq „ f pY q.

I.4 Loi d’un vecteur aléatoire réel discret


Proposition 15.1.21 – Caractérisation d’un vecteur aléatoire par ses coordonnées
Soit p⌦, T , Pq un espace probabilisé, et X : ⌦ Ñ Rn une application. On note X “ pX1 , . . . , Xn q les
coordonnées de X. Les propositions suivantes sont équivalentes:
(i) X est une variable aléatoire discrète (donc un vecteur aléatoire discret)
(ii) pour tout i P J1, nK, Xi est une variable aléatoire réelle discrète.

Notation 15.1.22 – PpX1 P A1 , . . . , Xn P An q


Soit X “ pX1 , . . . , Xn q un vecteur aléatoire discret, à valeurs dans Rn . Pour alléger les notations,
on note PpX1 P A1 , . . . , Xn P An q au lieu de PprtX1 P A1 u X ¨ ¨ ¨ X tXn P Auq. En particulier, on
utilisera la notation PpX1 “ x1 , . . . , Xn “ xn q.

Pour éviter l’abus de notations techniques stériles, nous donnons les définitions dans le cas de couples de
vriables aléatoires, elles s’étendent facilement au cas de vecteurs aléatoires à davantage de coordonnées.
Pour commencer, on peut remarquer que si pX, Y q est une couple de variables aléatoires réelles discrètes,
et V “ pX, Y q, alors
V p⌦q Ä Xp⌦q ˆ Y p⌦q.

Définition 15.1.23 – Loi conjointe, lois marginales


Soit pX, Y q un couple de variables aléatoires réelles discrètes.
‚ La loi conjointe du couple pX, Y q est la loi du vecteur aléatoire V “ pX, Y q. Il s’agit donc
d’une mesure de probabilité PpX,Y q définie par la distribution de probabilités

pPpX “ x, Y “ yqqpx,yqPXp⌦qˆY p⌦q .

‚ La première loi marginale du couple pX, Y q est la loi de X


‚ La seconde loi marginale du couple pX, Y q est la loi de Y

De la même façon, on parle de la loi conjointe, et de la k-ième loi marginale d’un n-uplet pX1 , . . . , Xn q.
De façon évidente :

Proposition 15.1.24 – Expression d’une loi marginale


Soit pX, Y q un couple de variables aléatoires réelles discrètes. La loi conjointe détermine les lois
232 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

marginales par les formules :


$ ÿ

’@x P Xp⌦q, PpX “ xq “ PpX “ x, Y “ yq.
&
yPY p⌦q
ÿ

%@y P Xp⌦q, PpY “ yq “
’ PpX “ x, Y “ yq.
xPXp⌦q

De façon similaire, la k-ième loi marginale d’un n-uplet pX1 , . . . , Xn q s’obtient en sommant sur toutes les
valeurs possibles prises par les n ´ 1 autres variables aléatoires.
Avertissement 15.1.25
Les lois marginales sont déterminées par la loi conjointe, mais la réciproque est fausse : les lois
marginales ne déterminent pas la loi conjointe !

Exemple 15.1.26
Soit une urne contenant 1 boule blanche, 1 boule noire. On effectue un tirage, avec équiprobabilité.
On note X1 , Y1 et X2 les trois variables (égales l’une à l’autre) égales à 1 si on tire la boule noire,
et 0 sinon. On note Y2 la variable égale à 1 si on tire la boule blanche, et 0 sinon. Alors, les lois
marginales de pX1 , Y1 q et de pX2 , Y2 q sont les mêmes, pourtant les lois conjointes sont distinctes.

I.5 Variables indépendantes


Proposition/Définition 15.1.27 – Variables aléatoires discrètes indépendantes
Soit X et Y deux variables aléatoires discrètes définies sur p⌦, T , Pq, à valeurs dans E1 et E2
respectivement. Les propositions suivantes sont équivalentes:
(i) Pour tout pA, Bq P PpE1 q ˆ PpE2 q, PpX,Y q pA ˆ Bq “ PX pAqPY pBq ;
(ii) Pour tout pA, Bq P PpE1 q ˆ PpE2 q, les événements tX P Au et tY P Bu sont indépendants,
i.e.
PpX P A, Y P Bq “ PpX P AqPpY P Bq;

(iii) Pour tout px, yq P Xp⌦q ˆ Y p⌦q, les événements tX “ xu et tY “ yu sont indépendants, i.e.

PpX “ x, Y “ yq “ PpX “ xqPpY “ yq;

Dans ce cas, on dit que X et Y sont indépendances, et on note X KK Y .

Remarque 15.1.28
Conformément à la remarque faite lors de la définition de la loi d’une variable aléatoire, on peut se
contenter de considérer pA, Bq P PpXp⌦qq ˆ PpY p⌦qq.s

Proposition/Définition 15.1.29 – Famille de variables mutuellement indépendantes


Soit pXk qkPK une famille quelconque de variables aléatoires discrètes sur p⌦, T , Pq, Xk étant à
valeurs dans Ek . Les propositions suivantes sont équivalentes:
(i) pour toute famille pAk qkPK telle que pour tout k P K, Ak Ä Ek , les événements rXk P Ak s,
k P K, sont indépendants ;
(ii) pour tout J P Pf pKq et toute famille pAj qjPJ telle que pour tout j P J, Aj Ä Ej ,
˜ ¸
£ π
P tXj P Aj u “ PpXj P Aj q;
jPJ jPJ
I Loi d’une variable aléatoire discrète 233

(iii) pour toute famille pxk qkPK telle que pour tout k P K, xk P Xk p⌦q, les événements tXk “ xk u,
k P K, sont indépendants ;
(iv) pour tout J P Pf pKq et toute famille pxj qjPJ telle que pour tout j P J, xj P Xj p⌦q,
˜ ¸
£ π
P tXj “ xj u “ PptXj “ xj uq.
jPJ jPJ

Dans ce cas, on dit que les variables aléatoires Xk , k P K, sont indépendantes (ou mutuellement
indépendantes).

Proposition 15.1.30 – Sous-famille d’une famille de variables indépendantes


Si la famille pXk qkPK est une famille de variables aléatoires discrètes indépendantes, alors, pour tout
J Ä K, pXj qjPK est une famille de variables aléatoires discrètes indépendantes.

Corollaire 15.1.31 – Indépendance 2 à 2


Si pXk qkPK est une famille de variables alétoires discrètes indépendantes, alors les Xk sont 2 à 2
indépendants. La réciproque est fausse.

En revanche, on peut caractériser l’indépendance par l’indépendance des sous-familles finies.

Proposition 15.1.32 – Caractérisation de l’indépendance par les familles finies


Soit pXk qkPK une famille de variables aléatoires discrètes indépendantes. Les propositions suivantes
sont équivalentes:
(i) pXk qkPK est une famille de variables indépendantes ;
(ii) pour tout J P Pf pKq, pXj qjPJ est une famille de variables indépendantes ;

Proposition 15.1.33 – Fonctions de variables indépendantes


Soit X KK Y deux v.a.r.d. independantes, et f et g deux fonctions définies respectivement sur Xp⌦q
et Y p⌦q. Alors f pXq K
K gpY q.

Ceci est un cas particulier du résultat plus général ci-dessous :

Théorème 15.1.34 – Lemme des coalitions, pour 2 coalitions


Soit 1 § m † n, et pX1 , . . . , Xm , . . . Xn q une famille de variables aléatoires discrètes indépendantes.
Soit f et g deux fonctions définies sur X1 p⌦qˆ . . . Xm p⌦q et Xm`1 p⌦qˆ ¨ ¨ ¨ ˆXn p⌦q respectivement.
Alors f pX1 , . . . , Xm q et gpXm`1 , . . . , Xn q sont indépendantes.

Ÿ Éléments de preuve.
Démonstration un peu technique, en exprimant tout en fonction des répartitions de probabilités des
Xi . ô
Par récurrence, on en déduit la version générale, qu’on exprime volontairement sous une forme un peu
lâche.
Théorème 15.1.35 – Lemme des coalitions
Soit pXk qkPK une famille de variables aléatoires discrètes indépendantes, et pKi qiPI une famille de
sous-ensembles finis deux à deux disjoints de K. Soit pYi qiPI une famille de variables aléatoires, telle
que pour tout i P I, Yi s’écrive comme fonction des Yk , k P Ki (et pas des autres). Alors pYi qiPI est
une famille de variables aléatoires discrètes indépendantes.
234 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

Ÿ Éléments de preuve.
Le cas K infini et I fini s’obtient par récurrence à partir du lemme des 2 coalitions (seul un nombre
fini de Xk intervenant, puisque les parts Ki sont finies)
Le cas I infini provient alors du fait que l’indépendance d’une famille équivaut à l’aindépendance de
toutes ses sous-familles finies. ô
On admet le résultat suivant, qui permet d’assurer l’existence d’espaces probabilisés modélisant des
situations un peu complexes, notamment infinies. Par exemple, la modélisation précise d’une succession
infinie de tirages à Pile ou Face indépendants n’est pas chose facile. L’univers ⌦ est naturellement t0, 1uN ,
mais cet ensemble est en bijection avec R, et le munir de la tribu Pp⌦q ne permet pas ici de modéliser
correctement le tirage à pile ou face.
En effet, on peut montrer que toute mesure de probabilité sur pR, PpRq, Pq est déterminée par une
répartition de probabilités discrète. Or, pour tout ! P ⌦, on obtient alors dans cet espace probabilisé
Pp!q “ 0 (par le même calcul que la probabilité de n’obtenir que des Piles). Ceci contredit le fait que P
soit déterminée par une répartition de probabilités discrète.
La construction d’un modèle convenable est difficile, et n’est pas un objectif du programme. Nous utili-
serons donc le théorème suivant, admis, pour justifier l’existence d’un modèle convenable.

Théorème 15.1.36 – Espace probabilisé modélisant une suite de lois, admis


Soit E un ensemble et pPn qnPN une suite de lois de probabilités discrètes sur E (ce qui équivaut à
la donnée d’une suite de distributions de probabilités discrètes).
Alors il existe un espace probabilisé p⌦, T , Pq et une suite pXn qnPN de variables indépendantes,
définies sur p⌦, T , Pq, à valeurs dans E, et telle que

@n P N, PXn “ Pn .

Ÿ Éléments de preuve.
Démonstration hors-programme. ô
Il est fréquent, pour étudier les caractéristiques d’une expérience, de la répéter une infinité de fois dans
les mêmes conditions, de façon indépendante, et d’observer le résultat sous forme de valeur prise par une
variable aléatoire.
Définition 15.1.37 – variables i.i.d.
Soit pXn qnPN une suite de variables aléatoires. On dit que la suite pXn q est indépendante identique-
ment distribuée (en abrégé officiel i.i.d.), si les Xn sont indépendants, et suivent la même loi (i.e.
pour tout pi, jq P N2 , Xi „ Xj ).

Si les Xi suivent une loi classique, on dira, par exemple, que pXn qnPN est une suite i.i.d. de variables
suivant une loi binomiale Bpn, pq.

Corollaire 15.1.38 – Modélisation d’une répétition infinie d’expériences indépendantes


Soit P une loi de probabilités discrète sur E. Alors il existe un espace probabilisé p⌦, T , Pq et
pXn qnPN une suite i.i.d. de variables de loi P .

En appliquant cela à une loi de Bernoulli Bppq, on obtient l’existence d’un espace probabilisé modélisant
une succession infinie de tirages (éventuellement déséquilibrés) à Pile ou Face

Corollaire 15.1.39 – Espace probabilisé modélisant des tirages à P/F


Il existe un espace probabilisé modélisant une succession infinie de tirages à Pile ou Face indépen-
dants, avec une probabilité p d’obtenir Pile à chaque tirage.
II Espérance et variance 235

II Espérance et variance
On étend les définitions vues en première année au cas des variables discrètes.
Dans toute cette section,
‚ p⌦, T , Pq désigne un espace probabilisé qu’on ne réintroduira pas à chaque énoncé ;
‚ sauf mention explicite du contraire, les variables sont définies sur p⌦, T , Pq, et à valeurs dans R ou
C.

II.1 Espérance d’une variable positive


Définition 15.2.1 – Espérance d’une variable positive
Soit X une variable aléatoire à valeurs dans R` . L’espérance de X est définie par
ÿ
EpXq “ xPpX “ xq,
xPXp⌦q

où, par convention, `8 ˆ 0 “ 0. L’espérance est toujours bien définie dans R`

Remarque 15.2.2
Si `8 P Xp⌦q :
‚ si PpX “ `8q ° 0, alors EpXq “ 0 ;
‚ si PpX “ `8q “ 0, alors X a même espérance que sa restriction à ⌦1 “ ⌦ztX “ `8u

Plus généralement,

Proposition 15.2.3 – Espérance de variables de même loi


Si X et Y sont des variables à valeurs dans R` , et X „ Y , alors EpXq “ EpY q.

Remarque 15.2.4
Une variable aléatoire X positive peut admettre une espérance infinie même si X ne prend que des
valeurs finies.

Exemple 15.2.5
6
Xp⌦q “ N˚ et @n P N˚ , PpX “ nq “
⇡ 2 n2

Proposition 15.2.6 – Positivité et stricte positivité


Soit X une variable aléatoire à valeurs dans R` .
1. EpXq • 0 ;
2. EpXq “ 0 ñ X „ 0 (i.e. X est presque sûrement nulle).

Dans le cas de variables à valeurs dans N, on dispose d’une autre description possible de EpXq.

Proposition 15.2.7 – Réxpression de l’espérance lorsque Xp⌦q Ä N Y t`8u


236 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

Soit X une variable aléatoire discrète à valeurs dans N Y t`8u. Alors


`8
ÿ
EpXq “ PpX • nq.
n“1

II.2 Espérance d’une variable complexe


Définition 15.2.8 – Espérance
Soit X une variable aléatoire discrète à valeurs dans C. On dit que X admet une espérance finie si
la famille pxPpX “ xqqxPXp⌦q est sommable, et dans ce cas :
ÿ
EpXq “ xPpX “ xq.
xPXp⌦q

La notation X P L1 signifie que X admet une espérance finie.

Remarque 15.2.9
Il arrive souvent que l’ensemble dénombrable Xp⌦q soit énuméré, c’est-à-dire décrit sous forme d’une
suite pxn qnPN . La condition d’existence d’une espérance finie équivaut dans ce cas à la convergence

absolue de la série xn PpX “ xn q.
On prendra garde au fait que la semi-convergence n’est pas suffisante pour assurer la sommabilité.
En effet, comme on l’a vu, la valeur de la somme est dans ce cas fortement dépendante de l’ordre
de sommation. Or l’ordre de sommation défini par l’énumération pxn qnPN est purement arbitraire,
et n’a pas de raison d’être privilégié par rapport à un autre.

Exemple 15.2.10
6
Xp⌦q “ tp´1qn n, n P N˚ u, et : @n P N˚ , PpX “ p´1qn nq “ .
⇡ 2 n2

Remarque 15.2.11
Lorsque X • 0, X P L1 ñ EpXq † `8.

En revanche, lorsque X n’est pas positive, cela n’a pas de sens de donner une valeur infinie à EpXq.
Comme dans le cas positif, on peut comparer l’espérance de deux variables de même loi.

Proposition 15.2.12 – Espérance de variables de même loi


Soit X „ Y deux variables discrètes à valeurs complexes de même loi. Alors :
‚ X admet une espérance finie ssi Y admet une espérance finie ;
‚ dans ce cas, EpXq “ EpY q.

II.3 Formule de transfert et conséquences


Théorème 15.2.13 – Formule de transfert, version positive
Soit X une variable aléatoire à valeurs dans E et f : Xp⌦q Ñ R` . Alors, dans R` , l’égalité suivante
est toujours valide : ÿ
Epf pXqq “ f pxqPpX “ xq
xPXp⌦q
II Espérance et variance 237

Ÿ Éléments de preuve.
Partir de l’espérance de f pXq, et, par propriété d’associativité positive, regrouper les valeurs de x
selon les parts tf pXq “ yu. ô

Théorème 15.2.14 – Formule de transfert, version complexe


Soit X une variable aléatoire à valeurs dans E et f : Xp⌦q Ñ R` . Les propositions suivantes sont
équivalentes:
(i) f pXq P L1 ;
(ii) pf pxqPpX “ xqqxPXp⌦q .
Dans ce cas, ÿ
Epf pXqq “ f pxqPpX “ xq.
xPXp⌦q

Exemple 15.2.15
Si X est une variable discrète réelle. En cas de sommabilité,
ÿ
EpX k q “ xk PpX “ kq.
xPXp⌦q

On dit dans ce cas que X P Lk , et EpX k q est appelé moment d’ordre k de X.

Remarque 15.2.16
Si pX, Y q est un couple de variables aléatoires définies sur E et F respectivement, et f : E ˆ F Ñ C,
on peut considérer pX, Y q comme une variable aléatoire à valeurs dans E ˆ F , ce qui permet
d’utiliser la formule de transfert : f pX, Y q admet une espérance finie ssi pf px, yqPpX “ x, Y ´
yqqpx,yqPXp⌦qˆY p⌦q est sommable. Dans ce cas,
ÿ
Epf pX, Y qq “ f px, yqPpX “ x, Y “ yq.
px,yqPXp⌦qˆY p⌦q

La formule de transfert permet d’obtenir des propriétés importantes de l’espérance.

Proposition 15.2.17 – Inégalité triangulaire


Soit X une variable aléatoire à valeurs complexes. Alors

X P L1 ñ Ep|X|q † `8,

et dans ce cas,
|EpXq| § Ep|X|q.

Proposition 15.2.18 – Linéarité de E, cas positif


Soit X et Y deux variables aléatoires discrètes à valeurs dans R` , et P R˚` . Alors, dans R` ,

Ep X ` Y q “ EpXq ` EpY q

Proposition 15.2.19 – Linéarité de E, cas complexe


Soit X et Y deux variables aléatoires discrètes à valeurs dans C, et P C. Si X P L1 et Y P L1 ,
238 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

alors X ` Y P L1 et dans ce cas,

Ep X ` Y q “ EpXq ` EpY q.

Ÿ Éléments de preuve.
Théorème de transfert, appliqué à f : px, yq fiÑ x ` y, puis manipulations simples de somme et
expression des lois marginales en fonction de la loi conjointe. ô
La propriété de positivité de la proposition suivante a déjà été démontré.

Proposition 15.2.20 – Positivité et croissance de l’espérance


1. Soit pX, Y q deux variables à valeurs dans R` . Alors, dans R` ,

X§Y ùñ EpXq § EpY q.

2. Soit X, Y P L1 deux variables aléatoires réelles discrètes admettant une espérance


‚ Si X • 0 ps, alors EpXq • 0, avec égalité ssi X “ 0 ps.
‚ Si X • Y ps, alors EpXq • EpY q.

Ÿ Éléments de preuve.
Dire que X • Y ps signifie qu’il existe ⌦1 Ä ⌦ tel que Pp⌦1 q “ 1 et @! P ⌦1 , Xp!q • Y p!q. ô

Corollaire 15.2.21 – L1 par majoration


Soit X et Y deux variables à valeurs dans C. Si |X| § |Y | et Y P L1 , alors X P L1 .

Proposition 15.2.22 – Espérance d’un produit de variables indépendantes


Soit X et Y deux variables à valeurs dans C. Si X et Y sont L1 , alors XY P L1 et

EpXY q “ EpXqEpY q.

Par récurrence immédiate, si X1 , . . . , Xn sont des variables indépendantes et L1 , alors X1 ¨ ¨ ¨ Xn est aussi
L1 , et
π
n
EpX1 . . . Xn q “ EpXk q.
k“1

II.4 Moment d’ordre 2 et variance d’une variable réelle


Dans ce paragraphe et le suivant, les variables aléatoires sont discrètes et réelles.
Comme dans le cas des variables finies, la valeur moyenne n’est pas une donnée suffisante pour avoir
une bonne compréhension d’une variable aléatoire. En effet, l’espérance ne mesure pas la dispersion de
la variable aléatoire : les valeurs prises peuvent tout aussi bien rester toujours très proches de EpXq, ou
alors s’en éloigner beaucoup, de part et d’autre, de façon à ce qu’en moyenne cela se compense.
Pour des raisons techniques, il est plus facile de travailler avec la moyenne quadratique EppX ´EpXqq2 q de
la distance à EpXq, plutôt que la moyenne arithmétiques Ep|X ´ EpXq|q. En effet, ce choix nous ramène
à des méthodes bilinéaires.
On a déjà défini les moments d’ordre k. Les seuls au programme sont les moments d’ordre 1 (l’espérance)
et 2.
Définition 15.2.23 – Moment d’ordre 2
Soit X une varable aléatoire réelle discrète.
‚ Le moment d’ordre 2 de X est l’espérance de X 2 . Ce moment d’ordre 2 est toujours bine
défini dans R` .
II Espérance et variance 239

‚ Ainsi, d’après la formule de transfert,


ÿ
EpX 2 q “ x2 PpX “ xq.
xPXp⌦q

‚ On dit que X admet un moment d’ordre 2 fini (et on note X P L2 ) si EpX 2 q † `8.

Proposition 15.2.24 – Espace des variables L2 sur ⌦


1. Soit X et Y deux variables aléatoires réelles discrètes sur ⌦. Si X et Y sont dans L2 , alors
XY P L1 .
2. L’ensemble L2 p⌦, Rq des variables aléatoires définies sur ⌦ et admettant un moment d’ordre
2 fini est un espace vectoriel sur R.

Définition 15.2.25
XY P L1 s’obtient en majorant |XY |. Ensuite, développer Epp X ` Y q2 q.

Corollaire 15.2.26 – Espérance d’une variable L2


Soit X une variable aléatoire réelle discrète. Si X P L2 , alors X P L1 .

Ÿ Éléments de preuve.
Prendre Y “ 1. ô

Théorème 15.2.27 – Inégalité de Cauchy-Schwarz pour l’espérance


‚ Pour toutes variables aléatoires réelles discrètes X et Y dans L2 ,

EpXY q2 § EpX 2 qEpY 2 q.

‚ Dans l’inégalité précédente, le cas d’égalité est obtenu si et seulement si X et Y sont coli-
néaires presque sûrement, donc s’il existe des constantes et µ réelles telles que X `µY „ 0.

Ÿ Éléments de preuve.
C’est l’inégalité de Cauchy Schwarz pour la forme bilinéaire symétrique positive pX, Y q fiÑ EpXY q
définie sur L2 p⌦, Rq.
On rappelle que l’inégalité de Cauchy-Schwarz pour une forme bilinéaire symétrique positive ' peut
être obtenue sans l’hypothèse de séparation, et que le cas d’égalité est alors obtenu pour le couple
px, yq si et seulement s’il existe et µ tels que 'p x ` µy, x ` µyq “ 0. ô
Afin d’alléger les énoncés, nous ne rappelons plus par la suite à chaque fois que les vaiables consédérées
sont réelles discrètes (ce que nous sous-entendrons par l’écriture X P L2 que nous n’avons définie que
dans ce cas).

Définition 15.2.28 – Variance et écart-type d’une variable aléatoire


Soit X P L2 . Alors, en vertu de ce qui précède, X ´ EpXq est bien défini et L2 . On définit alors :
‚ la variance de X :
ÿ
VpXq “ EppX ´ EpXqq2 q “ px ´ EpXqq2 PpX “ xq.
xPXp⌦q

‚ l’écart type de X : a a
pXq “ VpXq “ EppX ´ EpXqq2 q.
240 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

Proposition 15.2.29 – Positivité et stricte positivité de V


Soit X P L2 . Alors VpXq • 0, l’égalité étant obtenue si et seulement si X est constante presque
sûrement.

Dans la pratique, on calcule souvent la variance avec le résultat suivant.

Théorème 15.2.30 – Formule de König-Huygens


Soit X P L2 . Alors
VpXq “ EpX 2 q ´ EpXq2 .

Proposition 15.2.31 – Quadraticité et invariance par translation de la variance


Soit a et b deux réels et X P L2 . Alors aX ` b P L2 , et

VpaX ` bq “ a2 VpXq.

Il arrive souvent, de normaliser les variables aléatoires, afin de pouvoir les comparer. Il faut dans ce cas
à la fois normaliser la valeur moyenne et la dispersion.

Définition 15.2.32 – variable centrée, réduite


Une variable X est dite :
‚ centrée si X P L1 , et EpXq “ 0
‚ réduite si X P L2 , et VpXq “ 1
‚ centrée réduite si elle est à la fois centrée et réduite.

Proposition 15.2.33 – Variable centrée réduite associée à X


Soit X P L2 telle que pXq ° 0. Il existe d’uniques réels a ° 0 et b tels que la variable X ˚ définie
par X ˚ “ aX ` b soit centrée réduite. Plus précisément,

X ´ EpXq
X˚ “ .
pXq

On dit que X ˚ est la variable aléatoire centrée réduite associée à X.

Ÿ Éléments de preuve.
Analyse synthèse par linéarité de E et quadraticité de V. ô

II.5 Covariance
Pour l’instant, contrairement au cas de l’espérance, nous n’avons pas donné de moyen de calculer la
variance d’une somme. Nous avons en effet besoin pour cela d’un outil supplémentaire, qui nous permet
de mesurer la dépendance entre deux variables.
En effet on comprend bien que la variance de X ` Y va fortement dépendre de la corrélation entre X et
Y . Pour prendre deux cas extrêmes, supposons que X et Y suivent une même loi symétrique par rapport
à0:
‚ si X “ Y , on aura alors VpX ` Y q “ Vp2Xq “ 4VpXq ;
‚ si X “ ´Y , on aura alors VpX ` Y q “ 0.
Ainsi, la seule donnée des lois de X et Y ne peut pas suffire à déterminer VpX ` Y q. La covariance
covpX, Y q va nous permettre de mesurer la propension de deux variables à évoluer de façon parallèle ou
opposée.
II Espérance et variance 241

Définition 15.2.34 – Covariance


Soit X et Y deux variables L2 . Alors pX ´ EpXqqpY ´ EpY qq P L1 et on définit la covariance de X
et Y par :
` ˘
covpX, Y q “ E pX ´ EpXqqpY ´ EpY qq .

Remarque 15.2.35 – Interprétation de la covariance


Si covpX, Y q ° 0, X ´ EpXq et Y ´ EpY q ont tendance à être de même signe, donc X et Y ont
tendance à se situer du même côté de leur espérance. Ainsi :
‚ covpX, Y q ° 0 signifie que X et Y ont tendance à évoluer parallèlement
‚ covpX, Y q † 0 signifie que X et Y ont tendance à avoir une évolution opposée.

Définition 15.2.36 – Variables décorrélées


Les variables X et Y sont dites décorrélées lorsque covpX, Y q “ 0.

Proposition 15.2.37 – Propriétés de la covariance


Soit X, Y P L2 .
1. covpX, Y q “ EpXY q ´ EpXqEpY q ;
2. covpX, Y q “ covpY, Xq (symétrie)
3. cov est bilinéaire sur l’espace des v.a.r.d. sur p⌦, T , Pq admettant un moment d’ordre 2.
4. covpX, Xq “ VpXq.
5. covp1, Xq “ 0.
6. Si X et Y sont indépendantes, covpX, Y q “ 0.

Ÿ Éléments de preuve.
Assez immédiat par linéarité de l’espérance. ô

Avertissement 15.2.38
La réciproque de la dernière propriété est fausse : il existe des variables décorrélées, mais non
indépendantes. Voir les exercices pour des exemples.

Les propriétés 2, 3 et 4 permettent d’affirmer que cov est une forme bilinéaire symétrique positive, de
forme quadratique associée égale à la variance. En particulier, on dispose d’une deuxième inégalité de
Cauchy-Schwarz :

Théorème 15.2.39 – Inégalité de Cauchy-Schwarz pour la covariance, HP


Soit X, Y P L2 . Alors
|covpX, Y q| § pXq pY q,
avec égalité si et seulement s’il existe une relation affine presque sûrement entre X et Y (c’est-à-dire
une relation non triviale aX ` bY ` c “ 0)

Remarque 15.2.40
Sans être explicitement au programme, cette inégalité peut être considérée comme étant au pro-
gramme, puisqu’il ne s’agit de rien d’autre que l’inégaliét de Cauchy-Schwarz pour l’espérance
appliquée aux variables centrées X ´ EpXq et Y ´ EpY q.
242 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

II.6 Variance d’une somme


Une autre formule issue directement de l’algèbre bilinéaire (et du lien entre une forme bilinéaire symétrique
et la forme quadratique associée) est la formule de polarisation :

Proposition 15.2.41 – Formule de polarisation


Soit X, Y P L2 . Alors :
1
covpX, Y q “ pVpX ` Y q ´ VpXq ´ VpY qq.
2

Cette formule est dans notre contexte surtout utilisée pour calculer la variance d’une somme à l’aide des
covariances. Nous la reexprimons donc de la façon suivante :

Proposition 15.2.42 – Variance d’une somme


1. Si X, Y P L2 , alors X ` Y P L2 , et :

VpX ` Y q “ VpXq ` VpY q ` 2 ¨ covpX, Y q.

2. Si de plus X KK Y , alors VpX ` Y q “ VpXq ` VpY q.

En utilisant la propriété de bilinéarité généralisée, on obtient de même l’expression de la variance d’une


somme de n terme :

Proposition 15.2.43 – Variance de X1 ` ¨ ¨ ¨ ` Xn


1. Soit X1 , . . . , Xn P L2 ; alors X1 ` ¨ ¨ ¨ ` Xn P L2 et :
ÿ
VpX1 ` ¨ ¨ ¨ ` Xn q “ VpX1 q ` ¨ ¨ ¨ ` VpXn q ` 2 ¨ covpXi , Xj q.
1§i†j§n

2. Si de plus les Xi sont 2 à 2 indépendantes, ou plus généralement 2 à 2 décorrélées,

VpX1 ` ¨ ¨ ¨ ` Xn q “ VpX1 q ` ¨ ¨ ¨ ` VpXn q.

On peut réexprimer cette formule matriciellement.

Proposition
¨ ˛ 15.2.44 – Reexpression matricielle de la variance d’une somme
1
˚.‹
Soit C “ ˝ .. ‹
˚
‚ P Mn,1 pRq. Alors :
1 VpX1 ` ¨ ¨ ¨ ` Xn q “ C J ¨ VpX1 , . . . , Xn q ¨ C,
où VpX1 ` ¨ ¨ ¨ ` Xn q est la matrice ci-dessous, appelée matrice des variances-covariances :

V pX1 , . . . , Xn q “ pcovpXi , Xj qqpi,jqPJ1,nK2 .

Ainsi, la variance est la somme des coefficients de la matrice des variances-covariances. Ce point de
vue simplifie souvent les manipulation sommatoires, notamment lorsque l’expression des covariances suit
un motif en diagonales (constante sur chaque diagonale par exemple). Les considérations combinatoires
déviennent plus évidentes sur la représentation matricielle.

III Variables aléatoires à valeurs dans N, lois usuelles


Nous voyons maintenant les lois classiques au programme. Avant de faire leur étude, on remarque que
toutes les lois classiques sont à valeurs dans N. Dans ce contexte on dispose d’un outil calculatoire efficace,
apprécié également dans un contexte combinatoire.
III Variables aléatoires à valeurs dans N, lois usuelles 243

III.1 Fonction génératrice d’une variable à valeurs dans N


Définition 15.3.1 – Série et fonction génératrice d’une variable à valeurs dans N
‚ Soit X une variable aléatoire à valeurs dans N. La série génératrice de X est la série entière
`8
ÿ
PpX “ nqtn .
n“0
‚ La fonction génératrice de X est la somme de la série génératrice et est notée GX :
`8
ÿ
X ptq “ PpX “ nqtn ,
n“0

pour tout t dans le domaine de convergence de la série génératrice.

Proposition 15.3.2 – Rayon de convergence de la série génératrice



‚ La série génératrice PpX “ nqtn converge normalement sur Bp0, 1q Ä C.
‚ En particulier, son rayon R vérifie R • 1.

En utilisant la formule de transfert, on obtient alors :

Corollaire 15.3.3 – Réexpression de GX comme une espérance


Pour tout t P B̊p0, Rq Y Bp0, 1q,
X ptq “ EptX q.

Corollaire 15.3.4 – Régularité de GX


1. La fonction génératrice GX est de classe C 8 sur B̊p0, Rq (donc en particulier sur B̊p0, 1q).
2. La fonction génératrice est continue sur Bp0, 1q.

Remarque 15.3.5
Si R ° 1, le point 2 est redondant. En revanche, il apporte une information nouvelle si R “ 1.

Les fonctions génératrices donnent un outil calculatoire efficace d’étude des variables aléatoires. En par-
ticulier, elle permet de reconnaître et comparer des variables aléatoires. En effet :

Théorème 15.3.6 – Détermination de la loi de X par sa fonction génératrice


1. Soit X et Y deux variables aléatoires à valeurs dans N. Si GX “ GY , alors X „ Y .
2. Plus précisément,
pnq
GX p0q
@n P N, PpX “ nq “ .
n!

La fonction génératrice donne également un accès direct à l’espérance, et presque directe à la variance.

Théorème 15.3.7 – Expression de l’espérance à l’aide de la fonction génératrice


Soit X une variable aléatoire à valeurs dans N, et GX sa fonction génératrice, considérée comme
fonction d’une variable réelle. Les propositions suivantes sont équivalentes:
(i) X P L1
(ii) GX est dérivable en 1.
Dans ce cas, on a EpXq “ G1X p1q.
244 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

Ÿ Éléments de preuve.
‚ Si le rayon R de la série génératrice vérifie R ° 1, R est aussi le rayon de la série dérivée, et cela
résulte des propriétés de dérivation des séries entières.
‚ Sinon, le résultat est un corollaire du théorème 13.2.15 (la dérivabilité correspond dans ce cas à
la dérivabilité à gauche)
Comme le théorème 13.2.15 n’est pas explicitement au programme, on rappelle que le sens direct
piq ùñ piiq est une application simple du théorème d’Abel radial. La démonstration du sens
réciproque piiq ùñ piq n’est pas exigible.
ô

Théorème 15.3.8 – Expression de l’espérance à l’aide de la fonction génératrice


Soit X une variable aléatoire à valeurs dans N. Les propositions suivantes sont équivalentes:
(i) X P L2
(ii) GX est deux fois dérivable en 1.
Dans ce cas, on a VpXq “ G2X p1q ` G1X p1q ´ G1X p1q.

Ÿ Éléments de preuve.
X P L2 ssi XpX ´ 1q P L1 . Cela correspond, par formule de transfert, à la dérivée seconde de la série
génératrice.
Ensuite utiliser la formule de König-Huygens. ô
Une dernière propriété importante est l’accès facile à la loi d’une somme de variables indépendantes.

Théorème 15.3.9 – Fonction génératrice d’une somme de variables indépendantes


1. Soit X et Y deux variables aléatoires indépendantes, à valeurs dans N, et RX et RY les
rayons de convergence de leurs séries génératrices. Alors

@t P B̊p0, minpRX , RY q Y Bp0, 1q, GX`Y ptq “ GX ptqGY ptq.

2. Soit X1 , . . . , Xn des variables indépendantes à valeurs dans N, et Ri le rayon de la série


génératrice de Xi . Alors

@t P B̊p0, min pRi q Y Bp0, 1q, GX`Y ptq “ GX ptqGY ptq.


iPJ1,nK

Ÿ Éléments de preuve.
Le point 1 par produit de Cauchy. Le point 2 par récurrence. ô

III.2 Rappels sur les lois usuelles finies


On rappelle rapidement les lois usuelles finies classiques, en complétant leur étude par la description
de leur fonction génératrice. On présente une alternative au calcul direct de leur espérance et de leur
variance, en se servant des séries génératrices, et on se sert des fonctions génératrices également pour
justifier une propriété de stabilité.

Définition 15.3.10 – Loi uniforme


Soit n P N˚ . Une v.a.r. X suit la loi uniforme de paramètre n si Xp⌦q “ J1, nK et si :
1
@k P J1, nK, PpX “ kq “ .
n
On note X „ U pnq.
III Variables aléatoires à valeurs dans N, lois usuelles 245

Proposition 15.3.11 – Fonction génératrice, espérance et variance d’une loi uniforme


Soit X „ U pnq. Alors
#
1´tn
t
n ¨ 1´t si t ‰ 1
@t P R, X ptq “
1 si t “ 1
et :
n`1 n2 ´ 1
EpXq “ et VpXq “ .
2 12

Ÿ Éléments de preuve.
C’est juste pour refaire le calcul avec la fonction génératrice, qui donne une version plutôt plus
compliquée ici que la méthode directe. ô
Pour tout ensemble fini E, on note plus généralement X „ U pEq pour une v.a.r. suivant la loi uniforme
sur X, c’est-à-dire une v.a.r. telle que :
1
@x P E, PpX “ xq “ .
|E|

Proposition 15.3.12 – Expérience-type associée à une loi uniforme


Soit U une urne contenant n boules numérotées de 1 à n. On effectue un tirage avec équiprobabilité,
et on note X le numéro de la boule obtenu. Alors X „ U pnq.

Plus généralement, si X est une variable suivant une loi uniforme sur l’ensemble Ja, bK, elle vérifie :

a`b pb ´ a ` 1q2 ´ 1
EpXq “ et VpXq “ .
2 12

Définition 15.3.13 – Loi de Bernoulli


Soit X une v.a.r. et p Ps0, 1r. On dit que X suit une loi de Bernoulli de paramètre p (et on note
X „ Bp1, pq ou X „ Bppq) si :
#
PpX “ 0q “ 1 ´ p
Xp⌦q “ t0, 1u et
PpX “ 1q “ p

Désormais, on se donne un réel p Ps0, 1r, et on note q “ 1 ´ p.

Proposition 15.3.14 – Espérance et variance d’une loi de Bernoulli


Soit X „ Bppq. Alors

@t P R, GX ptq “ p1 ´ pq ` tp, EpXq “ p et VpXq “ pq.

Ÿ Éléments de preuve.
Un peu trivial... Mais le vérifier aussi avec la série génératrice. ô

Exemple 15.3.15 – Fonction indicatrice d’un événement


Étude de Xp!q “ 1A p!q, A P Pp⌦q.

La motivation même de la définition de la loi de Bernoulli amène :


246 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

Proposition 15.3.16 – Expérience-type associée à une loi de Bernoulli


Soit une expérience à 2 issue (par exemple P/F, ou tirage dans une urne contenant 2 types de
boules), l’une représentant le succès et l’autre l’échec, la probabilité d’obtenir un succès étant p.
Soit X prenant la valeur 1 en cas de succès et la valeur 0 en cas d’échec. Alors X „ Bppq.

Une expérience telle que décrite dans la proposition précédente est usuellement appelée « expérience de
Bernoulli ».
Remarque 15.3.17
Toute variable aléatoire prenant ses valeurs dans t0, 1u est une variable de Bernoulli, à condition
d’élargir la définition en acceptant de considérer les cas dégénérés p “ 0 et p “ 1.
De façon équivalente, si une variable aléatoire à valeurs dans N a une fonction génératrice affine,
alors il s’agit d’une variable de Bernoulli (avec cette dafinition étendue).

Définition 15.3.18 – Loi binomiale


Soit X une v.a.r.. On dit que X suit la loi binomiale de paramètres pn, pq (et on note X „ Bpn, pq)
si : ˆ ˙
n k n´k
Xp⌦q “ J0, nK, et @k P J0, nK, PpX “ kq “ p q , où q “ 1 ´ p.
k

ÿn ˆ ˙
n k
Ceci définit bien une loi de probabilités. En effet : p p1 ´ pqn´k “ pp ` p1 ´ pqqn “ 1.
k“0
k
Un calcul élémentaire (fait en MPSI) amène :

Proposition 15.3.19 – Expérience-type associée à la loi binomiale


Soit X le nombre de succès obtenus lors d’une répétition de n épreuves de Bernoulli indépendantes
de même paramètre p. Alors X „ Bpn, pq.

Proposition 15.3.20 – Espérance et variance d’une loi binomiale


Soit X „ Bpn, pq. Alors

@t P r´1, 1s, GX ptq “ pp1 ´ pq ` tpqn , "EpXq “ np, et VpXq “ npq.

Ÿ Éléments de preuve.
La série génératrice se calcule par la formule du binôme. Dériver pour obtenir l’espérance et la
variance. ô

III.3 Loi géométrique


Nous ajoutons à ce catalogue deux nouvelles lois, discrètes, mais non finies.
La première correspond à la loi du temps d’attente dans une succession infinie de tirages à Pile ou Face.
On sait, d’après le théorème 15.1.36, définir un espace probabilisé p⌦, T , Pq modélisant cette expérience.
On se place dans cet espace probabilisé.

Proposition 15.3.21 – Temps d’attente du premier succès


Soit T la variable égale au rang du premier succès lors d’une succession infinie d’expériences de
Bernoulli indépendantes de paramètre p, évenutellement égal à `8 si le succès n’est jamais obtenu.
Alors Xp⌦q “ N˚ Y t`8u, et

@n P N, PpX “ nq “ pq n´1 , et P pX “ `8q “ 0.


III Variables aléatoires à valeurs dans N, lois usuelles 247

Ainsi, la valeur `8 n’est pas pertinente dans la description de la loi, et on peut définir la loi générique
de X sans la valeur infinie.
Définition 15.3.22 – Loi géométrique
On dit que X suit une loi géométrique de paramètre p Ps0, 1r, si pX P N˚ q est presque sûr, et

@n P N˚ , PpX “ nq “ pq n´1 , avec q “ 1 ´ p.

On note X „ Gppq.

Et par notre motivation-même :


Proposition 15.3.23 – Expérience-type associée à une loi géométrique
Soit X le temps d’attente du premier succès lors d’une répétition infinie d’expériences de Bernoulli
indépendantes de même paramètre p. Alors X „ Gppq.

Proposition 15.3.24 – Fonction génératrice, espérance et variance d’une loi géométrique


Soit X „ Gppq. Alors
1 1 pt 1 q
@t Ps ´ , r, X ptq “ , EpXq “ et VpXq “ .
q q 1 ´ qt p p2

Ÿ Éléments de preuve.
On présente le calcul de l’espérance de X par fonction génératrice et par calcul direct. ô

III.4 Loi de Poisson


Définition 15.3.25 – Loi de Poisson
Soit P R` et X une v.a.r.. On dit que X suit la loi de Poisson de paramètre , et on note
X „ Pp q, si :
n
Xp⌦q “ N et @n P N, PpX “ nq “ e´ ¨ .
n!

D’après les résultats sur les séries exponentielles, cela définit bien une loi de probabilité. De plus :
Proposition 15.3.26 – Espérance et variance d’une loi de Poisson
Soit X „ Pp q. Alors
pt´1q
@t P R, GX ptq “ e , EpXq “ et VpXq “ .

Proposition 15.3.27 – Limite en loi de variables binomiales


Soit pXn q une suite de variables binomiales de paramtères pn, pn q, telles que pn „`8 n . Alors
k
@k P N, PpXn “ kq ›Ñ e´ .
k!
On dit que la suite pXn q converge en loi vers une loi de Poisson de paramètre .

Remarque 15.3.28
Pour cette raison, la loi de Poisson modélise le nombre de succès lorsque le succès est un événement
rare (i.e. de petite probabilité) et que la population est très grande.
Une situation typique est l’affluence (à un magasin, à un parc d’attraction etc), lors d’un laps de
248 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

temps donné (par exemple une journée, dans une population très grande. Chaque individu de la
population a une probabilité p très faible d’aller à ce lieu lors d’une journée donnée, et la population
N est très grande. Ainsi, la loi BpN, pq représentant l’affluence au lieu donné pendant la période
donnée est assez voisine de la loi PpN pq. Ainsi, en posant “ N p, la loi de Poisson Pp q est une
bonne modélisation de l’affluence.

III.5 Stabilités (HP classique)


Par stabilité d’une loi classique, on entend la chose suivante : si X et Y suit un certain type de loi et sont
indépendante, alors X ` Y suit une loi de même type (avec des paramètres éventuellement différents).
Nous énonçons ici deux propriétés de stabilité.

Proposition 15.3.29 – Stabilité des lois binomiales


Soit pm, nq P pN˚ q2 et p Ps0, 1r. Si X „ Bpn, pq et Y „ Bpm, pq sont indépendantes, alors X ` Y „
Bpn ` m, pq.

Ÿ Éléments de preuve.
Se comprend bien par l’expérience. Assez immédiat par fonctions génératrices. ô

Corollaire 15.3.30 – Somme de variables de Bernoulli indépendantes


Soit X1 , . . . , Xn des variables aléatoires mutuellement indépendantes suivant la loi Bppq. Alors X1 `
¨ ¨ ¨ ` Xn „ Bpn, pq.

Proposition 15.3.31 – Stabilité des lois de Poisson


Soit p , µq P pR` q2 . Si X „ Pp q et Y „ Ppµq sont indépendantes, alors X ` Y „ Pp ` µq.

Ÿ Éléments de preuve.
Même principe de calcul. ô

IV Inégalités probabilistes
Pour terminer, nous généralisons au cas de variables discrètes les inégalités de Markov et de Bienaymé-
Tchebychev vues en MPSI pour les varables finies.

IV.1 Inégalités de Markov et de Bienaymé-Tchebychev


Théorème 15.4.1 – Inégalité de Markov
Soit X une variable aléatoire réelle discrète dans L1 . Alors, pour tout a ° 0,

EpXq
PpX • aq § .
"

Ÿ Éléments de preuve.
Par croissance de E, en remarquant que X • a1tX•au . ô

Corollaire 15.4.2 – Réexpression quadratique de l’inégalité de Markov dans le cas L2


IV Inégalités probabilistes 249

Soit X une variable aléatoire réelle discrète dans L2 , et a P R˚` . Alors

EpX 2 q
Pp|X| • "q § .
"2

Ÿ Éléments de preuve.
Si EpX 2 q ‰ 0, appliquer ce qui précède à X 2 . Et sinon ? ô

Théorème 15.4.3 – Inégalité de Bienaymé-Tchebychev


Soit Y une variable aléatoire réelle discrète dans L2 , d’espérance m et de variance 2
. Alors :
` ˘ 2
@" ° 0, P |Y ´ m| • " § .
"2

Ÿ Éléments de preuve.
Inégalité de Markov quadratique appliquée à... ô

IV.2 Loi faible des grands nombres


On a déjà vu la notion de convergence en loi de Xn vers X. Cette notion de convergence ne dit rien en
terme de réalisation des variables, mais juste sur les probabilités.
Une notion plus probabiliste de convergence mesure à quel point deux variables ont tendance à prendre
des valeurs proches l’une de l’autre.
Définition 15.4.4 – Convergence en probabilités
Soit pXn q une suite de variables aléatoires L1 et X une variable L1 . On dit que pXn q converge en
probabilités vers X si
@" ° 0, lim Pp|Xn ´ X| • "q “ 0.
nÑ`8

Un des exemples les plus importants de convergence en probabilité est celle qui résulte du calcul de la
moyenne obtenue lors d’une répétition de variables aléatoires.
Théorème 15.4.5 – Loi faible des grands nombres, HP
Soit pXn qnPN˚ une suite de variables aléatoires réelles discrètes L2 , i.i.d, d’espérance m et de variance
2
. Soit pZn qnPN˚ définie par :

X1 ` ¨ ¨ ¨ ` Xn
@n P N, Zn “ .
n
Alors pZn qnPN˚ converge en probabilité vers la variable certaine égale à m. Plus précisément :

` ˘ 2
@" ° 0, @n P N˚ , P |Zn ´ m| • " § .
n"2

Ÿ Éléments de preuve.
Inégalité de B-T appliquée à Zn dont on sait facilement déterminer l’espérance et la variance. ô

Exemple 15.4.6 – Théorème d’or de Bernoulli


1. La loi faible des grands nombres utilisée avec une suite de variables de Bernoulli i.i.d. de loi
Bppq, avec p non connu, on obtient
` ˘ 1
@" ° 0, @n P N˚ , P |Zn ´ p| • " § .
4n"2
Le fait qu’on puisse faire cette majoration indépendamment de p permet d’estimer la valeur
250 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES

de p en répétant un grand nombre de fois une expérience, et en donnant un intervalle de


confiance.
2. On tire 1000 fois à pile ou face avec une pièce déséquilibrée dont la probabilité d’obtention
de Pile est p. On obtient 570 fois Pile. Donner un intervalle I tel que la probabilité que p P I
soit supérieure à 0.9.

Vous aimerez peut-être aussi