Cours Chp15
Cours Chp15
Dans ce chapitre, sauf mention contraire, p⌦, T , Pq désigne un espace probabilisé quelconque.
La situation à laquelle vous serez le plus fréquemment confrontés est celle d’une variable aléatoire discrète
à valeurs réelles (variable aléatoire réelle), ou à valeurs dans Rn (on parle de vecteur aléatoire, c’est
équivalent à la donnée de n variables aléatoires réelles) mais on peut définir une variable aléatoire discrète
à valeurs dans n’importe quel ensemble E.
La définition d’une variable aléatoire X générale (non discrète) dépasse en revanche le cadre du pro-
gramme, et nécessite un cadre un peu plus précis : l’ensemble E dans lequel X prend ses valeurs doit
lui-même être muni d’une tribu, et X doit vérifier une propriété de « mesurabilité », qui est en quelque
sorte un respect des tribus, comme la continuité est le respect des topologies.
@A P PpEq, X ´1 pAq P T .
Ÿ Éléments de preuve.
C’est la stabilité par union finie ou dénombrable, du fait que Xp⌦q X A est fini ou dénombrable. ô
228 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES
Remarque 15.1.5
Les notations pX P Aq et tX P Au figurent toutes deux dans le programme, contrairement à rX P As,
qui est néanmoins largement présente dans beaucoup d’ouvrages (en particulier pour les événements
rX “ xs).
Nous laisserons désormais de côté cette notation.
Ÿ Éléments de preuve.
‚ f pXq´1 ptyuq est une union au plus dénombrable de X ´1 ptxuq.
‚ f : Xp⌦q Ñ f pXqp⌦q est une surjection, et Xp⌦q est au plus dénombrable.
ô
On en déduit :
Proposition 15.1.9 – Algèbre des v.a.r.d.
Le sous-ensemble de R⌦ constitué des variables aléatoires réelles discrètes est une sous-algèbre de
R⌦ . Ainsi, si X et Y deux v.a.r.d. sur ⌦, un réel quelconque :
1. 1 est une v.a.r.d.
2. X ` Y est une v.a.r.d.
3. X est une v.a.r.d.
4. XY est une v.a.r.d.
De plus, si X est une v.a.r.d., il en est de même de |X|.
Ÿ Éléments de preuve.
2 et 4 s’obtiennent en composant pX, Y q par la somme ou le produit. ô
I Loi d’une variable aléatoire discrète 229
Proposition 15.1.10
Soit X une variable aléatoire discrète sur p⌦, T , Pq à valeurs dans E. Alors
‚ la famille ptX “ xuqxPXp⌦q est un SCE d’événements ;
‚ la famille pPpX “ xqqxPXp⌦q est une distribution de probabilités.
Ÿ Éléments de preuve.
Le premier point est de la vérification facile (c’est en fait la partition associée à une surjection
Le deuxième point et la -additivité utilisée sur le SCE précédent. ô
Remarque 15.1.12
Au besoin, il est possible de définit P sur l’espace probabilisable pF, PpF qq, pour tout ensemble F
tel que Xp⌦q Ä F , en prolongeant la mesure de probabilité pP pX “ xqqxPXp⌦q , en posant
#
PpX “ xq si x P Xp⌦q
px “
0 sinon.
Cela permet par exemple de définir PX sur pE, PpEqq tout entier.
Ÿ Éléments de preuve.
Écrire A comme union de singletons. ô
Remarque 15.1.14
En définissant PX sur pE, PpEqq, on peut plus généralement écrire
ÿ ÿ
@A P PpEq, PX pAq “ PpX P Aq “ PpX “ xq “ PpX “ xq,
xPA xPAXXp⌦q
@x P S1 “ S2 , P1 pX “ xq “ P2 pY “ xq.
Exemple 15.1.16
Si X “ Y presque sûrement (i.e. il existe ⌦1 Ä ⌦ tel que Pp⌦1 q “ 1 et pour tout ! P ⌦1 , Xp!q “
Y p!q), alors X „ Y .
Remarque 15.1.17
1. Contrairement à l’exemple précédent, la relation X „ Y ne nécessite pas que X et Y soient
définis sur le même espace probabilisé.
2. La relation „ est clairement réflexive, symétrique et transitive. Mais dans le cadre du pro-
gramme, il est un peu abusif d’en déduire que c’est une relation d’équivalence, car son « do-
maine » de définition n’est pas très bien défini. Il n’est pas clair que l’ « ensemble » des
variables aléatoires discrètes soit bien un ensemble, car, même en fixant E, la relation néces-
site de faire varier ⌦. Or, la collection des ensembles n’est pas un ensemble.
On peut bien évidemment aussi définir des lois conditionnelles. En effet, la définition d’une variable
aléatoire X : ⌦ Ñ E n’implique que l’espace probabilisable p⌦, T q, et non l’espace probabilisé p⌦, T , Pq.
Ainsi, étant donné un événement B P T , on peut munir p⌦, T q de la mesure de probabilité conditionnelle
PB et définir la loi de la variable X en référence à l’espace probabilisé p⌦, T , PB q. Concrètement, la loi
conditionnelle de X est donc définie par la distribution de probabilités
Pf pXq “ PX ˝ fy
´1 .
2. En particulier, ÿ
@x P f pXp⌦qq, Ppf pXq “ xq “ PpX “ yq.
y|f pyq“x
yPXp⌦q
Ÿ Éléments de preuve.
ô
I Loi d’une variable aléatoire discrète 231
Pour éviter l’abus de notations techniques stériles, nous donnons les définitions dans le cas de couples de
vriables aléatoires, elles s’étendent facilement au cas de vecteurs aléatoires à davantage de coordonnées.
Pour commencer, on peut remarquer que si pX, Y q est une couple de variables aléatoires réelles discrètes,
et V “ pX, Y q, alors
V p⌦q Ä Xp⌦q ˆ Y p⌦q.
De la même façon, on parle de la loi conjointe, et de la k-ième loi marginale d’un n-uplet pX1 , . . . , Xn q.
De façon évidente :
De façon similaire, la k-ième loi marginale d’un n-uplet pX1 , . . . , Xn q s’obtient en sommant sur toutes les
valeurs possibles prises par les n ´ 1 autres variables aléatoires.
Avertissement 15.1.25
Les lois marginales sont déterminées par la loi conjointe, mais la réciproque est fausse : les lois
marginales ne déterminent pas la loi conjointe !
Exemple 15.1.26
Soit une urne contenant 1 boule blanche, 1 boule noire. On effectue un tirage, avec équiprobabilité.
On note X1 , Y1 et X2 les trois variables (égales l’une à l’autre) égales à 1 si on tire la boule noire,
et 0 sinon. On note Y2 la variable égale à 1 si on tire la boule blanche, et 0 sinon. Alors, les lois
marginales de pX1 , Y1 q et de pX2 , Y2 q sont les mêmes, pourtant les lois conjointes sont distinctes.
(iii) Pour tout px, yq P Xp⌦q ˆ Y p⌦q, les événements tX “ xu et tY “ yu sont indépendants, i.e.
Remarque 15.1.28
Conformément à la remarque faite lors de la définition de la loi d’une variable aléatoire, on peut se
contenter de considérer pA, Bq P PpXp⌦qq ˆ PpY p⌦qq.s
(iii) pour toute famille pxk qkPK telle que pour tout k P K, xk P Xk p⌦q, les événements tXk “ xk u,
k P K, sont indépendants ;
(iv) pour tout J P Pf pKq et toute famille pxj qjPJ telle que pour tout j P J, xj P Xj p⌦q,
˜ ¸
£ π
P tXj “ xj u “ PptXj “ xj uq.
jPJ jPJ
Dans ce cas, on dit que les variables aléatoires Xk , k P K, sont indépendantes (ou mutuellement
indépendantes).
Ÿ Éléments de preuve.
Démonstration un peu technique, en exprimant tout en fonction des répartitions de probabilités des
Xi . ô
Par récurrence, on en déduit la version générale, qu’on exprime volontairement sous une forme un peu
lâche.
Théorème 15.1.35 – Lemme des coalitions
Soit pXk qkPK une famille de variables aléatoires discrètes indépendantes, et pKi qiPI une famille de
sous-ensembles finis deux à deux disjoints de K. Soit pYi qiPI une famille de variables aléatoires, telle
que pour tout i P I, Yi s’écrive comme fonction des Yk , k P Ki (et pas des autres). Alors pYi qiPI est
une famille de variables aléatoires discrètes indépendantes.
234 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES
Ÿ Éléments de preuve.
Le cas K infini et I fini s’obtient par récurrence à partir du lemme des 2 coalitions (seul un nombre
fini de Xk intervenant, puisque les parts Ki sont finies)
Le cas I infini provient alors du fait que l’indépendance d’une famille équivaut à l’aindépendance de
toutes ses sous-familles finies. ô
On admet le résultat suivant, qui permet d’assurer l’existence d’espaces probabilisés modélisant des
situations un peu complexes, notamment infinies. Par exemple, la modélisation précise d’une succession
infinie de tirages à Pile ou Face indépendants n’est pas chose facile. L’univers ⌦ est naturellement t0, 1uN ,
mais cet ensemble est en bijection avec R, et le munir de la tribu Pp⌦q ne permet pas ici de modéliser
correctement le tirage à pile ou face.
En effet, on peut montrer que toute mesure de probabilité sur pR, PpRq, Pq est déterminée par une
répartition de probabilités discrète. Or, pour tout ! P ⌦, on obtient alors dans cet espace probabilisé
Pp!q “ 0 (par le même calcul que la probabilité de n’obtenir que des Piles). Ceci contredit le fait que P
soit déterminée par une répartition de probabilités discrète.
La construction d’un modèle convenable est difficile, et n’est pas un objectif du programme. Nous utili-
serons donc le théorème suivant, admis, pour justifier l’existence d’un modèle convenable.
@n P N, PXn “ Pn .
Ÿ Éléments de preuve.
Démonstration hors-programme. ô
Il est fréquent, pour étudier les caractéristiques d’une expérience, de la répéter une infinité de fois dans
les mêmes conditions, de façon indépendante, et d’observer le résultat sous forme de valeur prise par une
variable aléatoire.
Définition 15.1.37 – variables i.i.d.
Soit pXn qnPN une suite de variables aléatoires. On dit que la suite pXn q est indépendante identique-
ment distribuée (en abrégé officiel i.i.d.), si les Xn sont indépendants, et suivent la même loi (i.e.
pour tout pi, jq P N2 , Xi „ Xj ).
Si les Xi suivent une loi classique, on dira, par exemple, que pXn qnPN est une suite i.i.d. de variables
suivant une loi binomiale Bpn, pq.
En appliquant cela à une loi de Bernoulli Bppq, on obtient l’existence d’un espace probabilisé modélisant
une succession infinie de tirages (éventuellement déséquilibrés) à Pile ou Face
II Espérance et variance
On étend les définitions vues en première année au cas des variables discrètes.
Dans toute cette section,
‚ p⌦, T , Pq désigne un espace probabilisé qu’on ne réintroduira pas à chaque énoncé ;
‚ sauf mention explicite du contraire, les variables sont définies sur p⌦, T , Pq, et à valeurs dans R ou
C.
Remarque 15.2.2
Si `8 P Xp⌦q :
‚ si PpX “ `8q ° 0, alors EpXq “ 0 ;
‚ si PpX “ `8q “ 0, alors X a même espérance que sa restriction à ⌦1 “ ⌦ztX “ `8u
Plus généralement,
Remarque 15.2.4
Une variable aléatoire X positive peut admettre une espérance infinie même si X ne prend que des
valeurs finies.
Exemple 15.2.5
6
Xp⌦q “ N˚ et @n P N˚ , PpX “ nq “
⇡ 2 n2
Dans le cas de variables à valeurs dans N, on dispose d’une autre description possible de EpXq.
Remarque 15.2.9
Il arrive souvent que l’ensemble dénombrable Xp⌦q soit énuméré, c’est-à-dire décrit sous forme d’une
suite pxn qnPN . La condition d’existence d’une espérance finie équivaut dans ce cas à la convergence
∞
absolue de la série xn PpX “ xn q.
On prendra garde au fait que la semi-convergence n’est pas suffisante pour assurer la sommabilité.
En effet, comme on l’a vu, la valeur de la somme est dans ce cas fortement dépendante de l’ordre
de sommation. Or l’ordre de sommation défini par l’énumération pxn qnPN est purement arbitraire,
et n’a pas de raison d’être privilégié par rapport à un autre.
Exemple 15.2.10
6
Xp⌦q “ tp´1qn n, n P N˚ u, et : @n P N˚ , PpX “ p´1qn nq “ .
⇡ 2 n2
Remarque 15.2.11
Lorsque X • 0, X P L1 ñ EpXq † `8.
En revanche, lorsque X n’est pas positive, cela n’a pas de sens de donner une valeur infinie à EpXq.
Comme dans le cas positif, on peut comparer l’espérance de deux variables de même loi.
Ÿ Éléments de preuve.
Partir de l’espérance de f pXq, et, par propriété d’associativité positive, regrouper les valeurs de x
selon les parts tf pXq “ yu. ô
Exemple 15.2.15
Si X est une variable discrète réelle. En cas de sommabilité,
ÿ
EpX k q “ xk PpX “ kq.
xPXp⌦q
Remarque 15.2.16
Si pX, Y q est un couple de variables aléatoires définies sur E et F respectivement, et f : E ˆ F Ñ C,
on peut considérer pX, Y q comme une variable aléatoire à valeurs dans E ˆ F , ce qui permet
d’utiliser la formule de transfert : f pX, Y q admet une espérance finie ssi pf px, yqPpX “ x, Y ´
yqqpx,yqPXp⌦qˆY p⌦q est sommable. Dans ce cas,
ÿ
Epf pX, Y qq “ f px, yqPpX “ x, Y “ yq.
px,yqPXp⌦qˆY p⌦q
X P L1 ñ Ep|X|q † `8,
et dans ce cas,
|EpXq| § Ep|X|q.
Ep X ` Y q “ EpXq ` EpY q
Ep X ` Y q “ EpXq ` EpY q.
Ÿ Éléments de preuve.
Théorème de transfert, appliqué à f : px, yq fiÑ x ` y, puis manipulations simples de somme et
expression des lois marginales en fonction de la loi conjointe. ô
La propriété de positivité de la proposition suivante a déjà été démontré.
Ÿ Éléments de preuve.
Dire que X • Y ps signifie qu’il existe ⌦1 Ä ⌦ tel que Pp⌦1 q “ 1 et @! P ⌦1 , Xp!q • Y p!q. ô
EpXY q “ EpXqEpY q.
Par récurrence immédiate, si X1 , . . . , Xn sont des variables indépendantes et L1 , alors X1 ¨ ¨ ¨ Xn est aussi
L1 , et
π
n
EpX1 . . . Xn q “ EpXk q.
k“1
‚ On dit que X admet un moment d’ordre 2 fini (et on note X P L2 ) si EpX 2 q † `8.
Définition 15.2.25
XY P L1 s’obtient en majorant |XY |. Ensuite, développer Epp X ` Y q2 q.
Ÿ Éléments de preuve.
Prendre Y “ 1. ô
‚ Dans l’inégalité précédente, le cas d’égalité est obtenu si et seulement si X et Y sont coli-
néaires presque sûrement, donc s’il existe des constantes et µ réelles telles que X `µY „ 0.
Ÿ Éléments de preuve.
C’est l’inégalité de Cauchy Schwarz pour la forme bilinéaire symétrique positive pX, Y q fiÑ EpXY q
définie sur L2 p⌦, Rq.
On rappelle que l’inégalité de Cauchy-Schwarz pour une forme bilinéaire symétrique positive ' peut
être obtenue sans l’hypothèse de séparation, et que le cas d’égalité est alors obtenu pour le couple
px, yq si et seulement s’il existe et µ tels que 'p x ` µy, x ` µyq “ 0. ô
Afin d’alléger les énoncés, nous ne rappelons plus par la suite à chaque fois que les vaiables consédérées
sont réelles discrètes (ce que nous sous-entendrons par l’écriture X P L2 que nous n’avons définie que
dans ce cas).
‚ l’écart type de X : a a
pXq “ VpXq “ EppX ´ EpXqq2 q.
240 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES
VpaX ` bq “ a2 VpXq.
Il arrive souvent, de normaliser les variables aléatoires, afin de pouvoir les comparer. Il faut dans ce cas
à la fois normaliser la valeur moyenne et la dispersion.
X ´ EpXq
X˚ “ .
pXq
Ÿ Éléments de preuve.
Analyse synthèse par linéarité de E et quadraticité de V. ô
II.5 Covariance
Pour l’instant, contrairement au cas de l’espérance, nous n’avons pas donné de moyen de calculer la
variance d’une somme. Nous avons en effet besoin pour cela d’un outil supplémentaire, qui nous permet
de mesurer la dépendance entre deux variables.
En effet on comprend bien que la variance de X ` Y va fortement dépendre de la corrélation entre X et
Y . Pour prendre deux cas extrêmes, supposons que X et Y suivent une même loi symétrique par rapport
à0:
‚ si X “ Y , on aura alors VpX ` Y q “ Vp2Xq “ 4VpXq ;
‚ si X “ ´Y , on aura alors VpX ` Y q “ 0.
Ainsi, la seule donnée des lois de X et Y ne peut pas suffire à déterminer VpX ` Y q. La covariance
covpX, Y q va nous permettre de mesurer la propension de deux variables à évoluer de façon parallèle ou
opposée.
II Espérance et variance 241
Ÿ Éléments de preuve.
Assez immédiat par linéarité de l’espérance. ô
Avertissement 15.2.38
La réciproque de la dernière propriété est fausse : il existe des variables décorrélées, mais non
indépendantes. Voir les exercices pour des exemples.
Les propriétés 2, 3 et 4 permettent d’affirmer que cov est une forme bilinéaire symétrique positive, de
forme quadratique associée égale à la variance. En particulier, on dispose d’une deuxième inégalité de
Cauchy-Schwarz :
Remarque 15.2.40
Sans être explicitement au programme, cette inégalité peut être considérée comme étant au pro-
gramme, puisqu’il ne s’agit de rien d’autre que l’inégaliét de Cauchy-Schwarz pour l’espérance
appliquée aux variables centrées X ´ EpXq et Y ´ EpY q.
242 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES
Cette formule est dans notre contexte surtout utilisée pour calculer la variance d’une somme à l’aide des
covariances. Nous la reexprimons donc de la façon suivante :
Proposition
¨ ˛ 15.2.44 – Reexpression matricielle de la variance d’une somme
1
˚.‹
Soit C “ ˝ .. ‹
˚
‚ P Mn,1 pRq. Alors :
1 VpX1 ` ¨ ¨ ¨ ` Xn q “ C J ¨ VpX1 , . . . , Xn q ¨ C,
où VpX1 ` ¨ ¨ ¨ ` Xn q est la matrice ci-dessous, appelée matrice des variances-covariances :
Ainsi, la variance est la somme des coefficients de la matrice des variances-covariances. Ce point de
vue simplifie souvent les manipulation sommatoires, notamment lorsque l’expression des covariances suit
un motif en diagonales (constante sur chaque diagonale par exemple). Les considérations combinatoires
déviennent plus évidentes sur la représentation matricielle.
Remarque 15.3.5
Si R ° 1, le point 2 est redondant. En revanche, il apporte une information nouvelle si R “ 1.
Les fonctions génératrices donnent un outil calculatoire efficace d’étude des variables aléatoires. En par-
ticulier, elle permet de reconnaître et comparer des variables aléatoires. En effet :
La fonction génératrice donne également un accès direct à l’espérance, et presque directe à la variance.
Ÿ Éléments de preuve.
‚ Si le rayon R de la série génératrice vérifie R ° 1, R est aussi le rayon de la série dérivée, et cela
résulte des propriétés de dérivation des séries entières.
‚ Sinon, le résultat est un corollaire du théorème 13.2.15 (la dérivabilité correspond dans ce cas à
la dérivabilité à gauche)
Comme le théorème 13.2.15 n’est pas explicitement au programme, on rappelle que le sens direct
piq ùñ piiq est une application simple du théorème d’Abel radial. La démonstration du sens
réciproque piiq ùñ piq n’est pas exigible.
ô
Ÿ Éléments de preuve.
X P L2 ssi XpX ´ 1q P L1 . Cela correspond, par formule de transfert, à la dérivée seconde de la série
génératrice.
Ensuite utiliser la formule de König-Huygens. ô
Une dernière propriété importante est l’accès facile à la loi d’une somme de variables indépendantes.
Ÿ Éléments de preuve.
Le point 1 par produit de Cauchy. Le point 2 par récurrence. ô
Ÿ Éléments de preuve.
C’est juste pour refaire le calcul avec la fonction génératrice, qui donne une version plutôt plus
compliquée ici que la méthode directe. ô
Pour tout ensemble fini E, on note plus généralement X „ U pEq pour une v.a.r. suivant la loi uniforme
sur X, c’est-à-dire une v.a.r. telle que :
1
@x P E, PpX “ xq “ .
|E|
Plus généralement, si X est une variable suivant une loi uniforme sur l’ensemble Ja, bK, elle vérifie :
a`b pb ´ a ` 1q2 ´ 1
EpXq “ et VpXq “ .
2 12
Ÿ Éléments de preuve.
Un peu trivial... Mais le vérifier aussi avec la série génératrice. ô
Une expérience telle que décrite dans la proposition précédente est usuellement appelée « expérience de
Bernoulli ».
Remarque 15.3.17
Toute variable aléatoire prenant ses valeurs dans t0, 1u est une variable de Bernoulli, à condition
d’élargir la définition en acceptant de considérer les cas dégénérés p “ 0 et p “ 1.
De façon équivalente, si une variable aléatoire à valeurs dans N a une fonction génératrice affine,
alors il s’agit d’une variable de Bernoulli (avec cette dafinition étendue).
ÿn ˆ ˙
n k
Ceci définit bien une loi de probabilités. En effet : p p1 ´ pqn´k “ pp ` p1 ´ pqqn “ 1.
k“0
k
Un calcul élémentaire (fait en MPSI) amène :
Ÿ Éléments de preuve.
La série génératrice se calcule par la formule du binôme. Dériver pour obtenir l’espérance et la
variance. ô
Ainsi, la valeur `8 n’est pas pertinente dans la description de la loi, et on peut définir la loi générique
de X sans la valeur infinie.
Définition 15.3.22 – Loi géométrique
On dit que X suit une loi géométrique de paramètre p Ps0, 1r, si pX P N˚ q est presque sûr, et
On note X „ Gppq.
Ÿ Éléments de preuve.
On présente le calcul de l’espérance de X par fonction génératrice et par calcul direct. ô
D’après les résultats sur les séries exponentielles, cela définit bien une loi de probabilité. De plus :
Proposition 15.3.26 – Espérance et variance d’une loi de Poisson
Soit X „ Pp q. Alors
pt´1q
@t P R, GX ptq “ e , EpXq “ et VpXq “ .
Remarque 15.3.28
Pour cette raison, la loi de Poisson modélise le nombre de succès lorsque le succès est un événement
rare (i.e. de petite probabilité) et que la population est très grande.
Une situation typique est l’affluence (à un magasin, à un parc d’attraction etc), lors d’un laps de
248 CHAPITRE 15. VARIABLES ALÉATOIRES DISCRÈTES
temps donné (par exemple une journée, dans une population très grande. Chaque individu de la
population a une probabilité p très faible d’aller à ce lieu lors d’une journée donnée, et la population
N est très grande. Ainsi, la loi BpN, pq représentant l’affluence au lieu donné pendant la période
donnée est assez voisine de la loi PpN pq. Ainsi, en posant “ N p, la loi de Poisson Pp q est une
bonne modélisation de l’affluence.
Ÿ Éléments de preuve.
Se comprend bien par l’expérience. Assez immédiat par fonctions génératrices. ô
Ÿ Éléments de preuve.
Même principe de calcul. ô
IV Inégalités probabilistes
Pour terminer, nous généralisons au cas de variables discrètes les inégalités de Markov et de Bienaymé-
Tchebychev vues en MPSI pour les varables finies.
EpXq
PpX • aq § .
"
Ÿ Éléments de preuve.
Par croissance de E, en remarquant que X • a1tX•au . ô
EpX 2 q
Pp|X| • "q § .
"2
Ÿ Éléments de preuve.
Si EpX 2 q ‰ 0, appliquer ce qui précède à X 2 . Et sinon ? ô
Ÿ Éléments de preuve.
Inégalité de Markov quadratique appliquée à... ô
Un des exemples les plus importants de convergence en probabilité est celle qui résulte du calcul de la
moyenne obtenue lors d’une répétition de variables aléatoires.
Théorème 15.4.5 – Loi faible des grands nombres, HP
Soit pXn qnPN˚ une suite de variables aléatoires réelles discrètes L2 , i.i.d, d’espérance m et de variance
2
. Soit pZn qnPN˚ définie par :
X1 ` ¨ ¨ ¨ ` Xn
@n P N, Zn “ .
n
Alors pZn qnPN˚ converge en probabilité vers la variable certaine égale à m. Plus précisément :
` ˘ 2
@" ° 0, @n P N˚ , P |Zn ´ m| • " § .
n"2
Ÿ Éléments de preuve.
Inégalité de B-T appliquée à Zn dont on sait facilement déterminer l’espérance et la variance. ô