0% ont trouvé ce document utile (0 vote)
36 vues7 pages

Résumé Proba MP

Le document traite des concepts fondamentaux de la théorie des probabilités, y compris les espaces probabilisés, les tribus, et les propriétés des probabilités. Il introduit des définitions clés telles que la probabilité conditionnelle et les variables aléatoires discrètes, ainsi que des théorèmes importants comme la formule de Bayes et les lois usuelles. Enfin, il aborde l'espérance des variables aléatoires et les propriétés associées.

Transféré par

loumi.malika
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
36 vues7 pages

Résumé Proba MP

Le document traite des concepts fondamentaux de la théorie des probabilités, y compris les espaces probabilisés, les tribus, et les propriétés des probabilités. Il introduit des définitions clés telles que la probabilité conditionnelle et les variables aléatoires discrètes, ainsi que des théorèmes importants comme la formule de Bayes et les lois usuelles. Enfin, il aborde l'espérance des variables aléatoires et les propriétés associées.

Transféré par

loumi.malika
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

X

Résumé: Probabilités I (P ({ω}))ω∈Ω sommable de réels positifs tels que pω = 1.


ω∈Ω
Ω sera un ensemble abstrait, c’est-à-dire sans structure particulière. P(Ω) dé-
signe l’ensemble de tous les sous-ensembles de Ω, y compris le sous-ensemble
vide ∅. Nous noterons Ac , ou Ā, le complémentaire de la partie A de Ω. § 3. Propriétés élémentaires des probabilités.— On se fixe ici un espace pro-
......................................................................................................................................................................................................................... babilisé (Ω, A , P ).
1 E SPACES P ROBABILISÉS Propriétés 1.4
§ 1. Tribus.— C’est la partie qualitative : nous définissons la classe des parties I A ∈ A =⇒ P (Ac ) = 1 − P (A).
de Ω que nous considérerons I A, B ∈ A et A ⊂ B =⇒ P (A) 6 P (B).
I Si A ∩ B = ∅, alors P (A ∪ B) = P (A) + P (B).
Définition 1.1 (σ−algèbre, ou tribu)
I P (A ∪ B) = P (A) + P (B) − P (A ∩ B).
On appelle tribu tout ensemble A ⊂ P(Ω) vérifiant les 3 hypothèses sui- I P (A ∩ B c ) = P (A) − P (A ∩ B).
vantes :
1. A contient ∅ et Ω. Voici un analogue probabiliste du théorème de limite monotone :

2. A est stable par complémentation, i.e que si A ∈ A , alors Ac ∈ A . Proposition 1.5


3. A est stable par les réunions dénombrables et les intersections dénom- I Si (An )n∈N est une suite croissante pour l’inclusion d’événements, alors

[ ∞
\
brables, i.e que si pour tout i ∈ N, Ai ∈ A , alors Ai et Ai sont [∞
!
i=1 i=1 P (An ) −−−−→ P An .
aussi dans A . n→∞
n=0
On dit alors du couple (Ω, A ) qu’il est un espace probabilisable.
I Si (An )n∈N est une suite décroissante pour l’inclusion d’événements, alors
Les éléments de A sont appelés événements.

!
\
P (An ) −−−−→ P An .
n→∞
§ 2. Probabilité.— C’est la partie quantitative : on donne un poids à chaque n=0
événement.
Définition 1.2 (Probabilité) .........................................................................................................................................................................................................................
Soit (Ω, A ) un espace probabilisable. Une mesure de probabilités, ou sim- 2 P ROBABILITÉS C ONDITIONNELLES ET E SPÉRANCES
plement une probabilité est une application P : A → [0, 1] qui vérifie :
1. P (Ω) = 1. Définition 2.1 (Indépendance)
2. Pour toute suite (An )n∈N d’éléments de A qui!sont deux à deux disjoints 1. Deux événements A et B sont dits indépendants s’ils vérifient P (A ∩ B) =
∞ ∞
[ X P (A)P (B).
(i.e An ∩ Am = ∅ si n 6= m), on a : P An = P (An ).
n=1 n=1
2. Soit une famille finie ou infinie d’événements (Ai )i∈I . Ces événements
Le nombre P (A) s’appelle la probabilité de l’événement A. L’axiome 2. s’ap- sont dits indépendants, ou mutuellement indépendants, si pour toute par-
pelle la σ−additivité. tie finie J de I, on a
Le triplet (Ω, A , P ) est appelé espace probabilisé. \
!
Y
P Ai = P (Ai ).
Proposition 1.3 i∈J i∈J

Enfin, dans le cas où ω est fini ou dénombrable et A = P(Ω), se donner


une probabilité sur (Ω, A ) est équivalent à se donner une suite (pω )ω∈Ω =

Page 1/7
.........................................................................................................................................................................................................................
: si les (Ai )i∈I sont indépendants, ils sont aussi deux à deux indépen- 3 VARIABLES A LÉATOIRES D ISCRÈTES
dants, mais la réciproque est fausse.
Définition 3.1 (Variable aléatoire discrète)
C’est la probabilité conditionnelle qui code la manière dont A dépend de B :
Une variable aléatoire discrète définie sur Ω est une application X : Ω −→ E,
Définition 2.2 (Probabilité conditionnelle) où E est un ensemble, dont l’image X(Ω) est finie ou dénombrable, et telle
Soient A et B deux événements avec P (B) > 0. La probabilité conditionnelle que pour tout x ∈ X(Ω), l’ensemble X −1 ({x}) appartienne à A .
P (A ∩ B) Lorsque E = R, on dit de X qu’elle est une variable aléatoire réelle.
de A sachant B est P (A|B) = . Si X est une variable aléatoire réelle, alors pour toute fonction f : R → R,
P (B)
l’application f ◦ X : Ω → R est aussi une variable aléatoire réelle.
Théorème 2.3
Supposons que P (B) > 0. E XEMPLES :

1. A et B sont indépendants si et seulement si P (A|B) = P (A). Les variables aléatoires discrètes 1A , où A ∈ A .

2. L’application A 7−→ P (A|B) de A dans [0, 1] définit une nouvelle mesure


de probabilité sur A , appelée la probabilité conditionnelle sachant B.
Définition 3.2 (loi d’une v.a.d)
Les trois résultats suivants, quoique élémentaires, sont très utiles, et en parti- Soit X : Ω −→ E une variable aléatoire discrète. On appelle loi de X la loi
culier le second d’entre eux. notée PX définie sur la tribu P(E) de toutes les parties de E vérifiant :
Théorème 2.4 (Probabilités composées)  
Pour tout B ⊂ E, PX (B) = P X −1 (B) .
Si A1 , . . . , An ∈ A et si P (A1 ∩ · · · ∩ An ) > 0, alors
 
P (A1 ∩ · · · ∩ An ) = P (A1 )P (A2 |A1 )P (A3 |A1 ∩ A2 ) . . . P (An |A1 ∩ · · · ∩ An−1 ). On note aussi PX (B) = P (X ∈ B) = P {ω ∈ Ω/X(ω) ∈ B} .

.........................................................................................................................................................................................................................
Théorème 2.5 (Probabilités Totales)
4 L OIS USUELLES
Soit (En ) un système complet d’éléments non négligeables de la tribu A . Pour
tout A ∈ A , on a X Nous donnons ici quelques lois usuelles, que vous rencontrerez dans maintes situations. Elles
P (A) = P (A|En )P (En ). permettent de classer les variables aléatoires . Par exemple, une variable aléatoire est dite de Poisson
n
si la loi est une loi de Poisson.
Dans le cas des variables de bernoulli, Binômiale, et géométrique, on notera systématiquement q =
En particulier, P (A) = P (A|B)P (B) + P (A|B c )P (B c ). 1 − p.

Théorème 2.6 (Formule de Bayes)


§ 1. Lois finies.— Ici, Ω est un ensemble fini.
Si A et B sont des événements non négligeables, alors

P (B|A)P (A)
P (A|B) = . 1.1 Loi uniforme
P (B|A)P (A) + P (B|Ac )P (Ac )
C’est la loi la plus simple, définie comme étant celle où P ({ω}) ne dépend pas du choix de ω ∈ Ω.
Ainsi, pour toute partie A ⊂ Ω,
Card(A)
P (A) = .
Card(Ω)

Page 2/7
1.2 Loi de Bernoulli B(p) E XEMPLES :
Ici, Ω = {α, β} est de cardinal 2, et si p est un réel compris entre 0 et 1, la loi de bernoulli P de FONDAMENTAL : C’est la loi du premier succès dans une suite d’expériences aléatoires
paramètre p est définie par indépendantes deux à deux.
P ({α}) = p et P ({β}) = q.
On pense à cette loi dès lors que l’on s’intéresse au succès ou à l’échec d’une expérience. Si p = 1/2,
cela corrrespond au lancer d’une pièce non truquée.
Proposition 4.1 (Caractérisation d’une loi sans mémoire)
Une variable aléatoire de Bernoulli de paramètre p ∈ [0, 1] est une variable aléatoire X : Ω →
X : Ω → N∗ est une variable géométrique ⇐⇒ pour tous n, k ∈ N∗ , P (X > k + n|X > n) =
{0, 1} vérifiant P (X = 1) = p et P (X = 0) = q = 1 − p.
P (X > k).
E XEMPLES :
Les 1A sont des variables de Bernoulli, avec p = P (A).
2.2 Loi de Poisson P(λ)
Soit λ > 0. La loi de poisson de paramètre λ, notée P(λ), est donnée par
λn
1.3 Loi Binômiale B(n, p) Pour tout n ∈ N, pn = e−λ .
n!
Soit p ∈ [0, 1] et Ω = [[0, n]] un ensemble de cardinal n. Un de ses intérêt est qu’elle peut fournir une bonne approximation de la loi de Benoulli :
La loi binomiale de paramètre p et de taille n, que l’on condensera en “loi B(p, n)”, est définie par
Proposition 4.2 (B(p, n) ←→ P(λ))
 
n x
Pour tout x ∈ [[0, n]], P ({x}) = p (1 − p)n−x . Soit λ > 0. Soit (Xn )n une suite de variables Binômiales de loi B(n, pn ) telles que n × pn → λ.
x
λk
Alors, pour tout k ∈ N, P (Xn = k) −−−−→ e−λ .
On voit que tous ces réels sont positifs, et que leur somme est égale à 1. n→∞ k!

E XEMPLES : .........................................................................................................................................................................................................................
1. FONDAMENTAL : Toute variable aléatoire représentant le nombre de succès dans 5 E SPÉRANCE
une suite de n expériences aléatoires indépendantes mutuellement est une variable
binomiale de loi B(n, p) pour un ceratin p.
Définition 5.1 (Espérance d’une variable aléatoire réelle)
2. On lance n fois une pièce truquée. Ω = {P, F }n . Soit X le nombre total de
PILE. X prend ses
 valeurs dans [[0, n]], donc est discrète. Sa loi est donnée par Soit X : Ω → R une variable aléatoire discrète réelle.
n k
P (X = k) = p (1 − p)n−k , ce qui en fait une variable aléatoire binomiale de
k
paramètre p. C’est par ailleurs la somme de n variables de Bernoulli mutuellement 1. Si X est à valeurs dans R+ , on appelle espérance de X le nombre appar-
indépendantes. tenant à [0, +∞] : X
E(X) = xP (X = x).
x∈X(Ω)

§ 2. Lois dénombrables.— On considèrera ici que Ω = N. Bien sûr, il n’existe pas de loi uniforme 2. Si X est quelconque (i.e pas forcément positive), la variable aléatoire est
sur N. dite d’espérance finie si la famille (xP (X = x))x∈X(Ω) est sommable.
Rappelons que se donner une loi P sur cet espace discret est équivalent à se donner une

X Dans ce cas, la somme
X de cette famille est appelée espérance de X, i.e à
suite(pn )n∈N de réels positifs telle que pn = 1, et de poser pour tout n ∈ N, pn = P ({n}). nouveau E(X) = xP (X = x).
n=0 x∈X(Ω)

Nous noterons L (Ω) (ou plus souvent L 1 ) l’ensemble des variables aléa-
1
2.1 Loi géométrique G(p) toires réelles X : Ω → R d’espérance finie.
La loi géométrique de paramètre p ∈]0, 1[ est donnée par
Propriétés 5.2 (De l’espérance)
Pour tout n ∈ N∗ , pn = pq n−1 .

Page 3/7
1. Soient X, Y : Ω → R d’espérances finies. Alors, pour tout réel a, aX + Y (Y = y) sont indépendants, i.e lorsque
est aussi d’espérance finie et  
∀x, y ∈ E, P (X = x) ∩ (Y = y) = P (X = x) × P (Y = y).
E(aX + Y ) = aE(X) + E(Y ).
2. Les variables aléatoires discrètes d’une famille (Xn )n∈N sont dites mutuel-
2. Si X > 0, alors E(X) > 0.
lement indépendantes lorsqu’elles le sont deux à deux.
3. Si X > Y , et si ces deux v.a.d sont d’espérance finie, alors E(X) > E(Y ).
4. Si X est positive et d’espérance finie, et si Y : Ω → R est une v.a.d telle Théorème 6.2
que |Y | 6 X, alors Y est d’espérance finie.
5. Si Y est d’espérance finie, alors |E(Y )| 6 E(|Y |). 1. Si X : Ω → E et Y : Ω → R sont indépendantes, et si f, g : R → R, alors
f (X) et g(Y ) sont aussi indépendantes.
6. L 1 contient toutes les variables aléatoires bornées.
2. Si X1 , . . . , Xn : Ω → R sont des variables aléatoires indépendantes, alors
Proposition 5.3 (Formule de transfert) pour tout m compris entre 1 et n − 1, et toutes fonctions f et g, les deux
variables f (X1 , . . . , Xm ) et g(Xm+1 , . . . , Xn ) sont indépendantes.
Soit X : Ω → E est une variable aléatoire discrète, et f une fonction de X(Ω)
dans R. Alors
I f (X) est d’espérance finie si et seulement si la famille P (X = x)f (x)
 La loi d’une somme de deux variables aléatoires indépendantes se calcule
est sommable. grâce à :
 X
I Dans ce cas, E f (X) = P (X = x)f (x). Proposition 6.3 (Loi d’une somme de variables aléatoires indépendantes)
x∈X(Ω)
Si X et Y sont desvariables aléatoires réelles indépendantes, alors pour tout
réel k,
Proposition 5.4 (Inégalité de Markov) P (X + Y = k) =
X
P (Y = y)P (X = k − y).
Soit X : Ω → R unevariable aléatoire discrète, et a > 0. On a l’inégalité y∈Y (Ω)

 E(|X|)
P |X| > a 6 . Propriétés 6.4 (Espérance d’un produit de variables aléatoires indépendantes)
a
Si X, Y sont deux variables aléatoires réelles indépendantes d’espérance finie,
alors XY est d’espérance finie et de plus
Démonstration : Notons A = (|X| > a) = {ω ∈ Ω/|X(ω)| > a}. Nous avons vu que
c’est bien un événement. De plus, lavariable aléatoire |X| est supérieure ou égale à
E(XY ) = E(X)E(Y ).
lavariable aléatoire a1A (on le vérifie sur A, puis sur son complémentaire). D’après
la croissance de l’espérance, E(|X|) > E(a1A ) = aP (A).

.........................................................................................................................................................................................................................
6 C OUPLE DE VARIABLES ALÉATOIRES § 2. Variables Aléatoires Dépendantes.— On est un peu plus démunis
lorsque l’on ne dispose plus de cette hypothèse.
§ 1. Variables Aléatoires Indépendantes.— Les couples, ou les familles, de Définition 6.5
variables aléatoires indépendantes sont les plus simples à étudier.
Soient X, Y : Ω → R deux variables aléatoires discrètes réelles. Alors l’ap-
Définition 6.1 (variables aléatoires indépendantes) plication Z = (X, Y ) : Ω → R2 est aussi unevariable aléatoire discrète. On
appelle
I loi conjointe de X et Y , et on note P(X,Y ) , la loi de la variable aléatoire
1. Un couple de variables aléatoires discrètes X, Y : Ω → E sont dites in-
dépendantes lorsque pour tous x, y ∈ E, les événements (X = x) et

Page 4/7
(X, Y ) : Ω → R2 , qui est donc une loi sur R2 : moment d’ordre 2 fini.
  
pour tous x, y ∈ R, P(X,Y ) (x, y) = P (X = x) ∩ (Y = y) .
Propriétés 7.2 (L 2 ←→ L 1 )
I lois marginales de (X, Y ) les lois de X et de Y .
I pour tout x ∈ R tel que P (X = x) > 0, la loi conditionnelle de Y 1. Si X admet un moment d’ordre 2, elle est d’espérance finie, i.e L 2 (Ω) ⊂
sachant (X = x) la loi µ de probabilité sur R définie par : L 1 (Ω)
Pour tout y ∈ R, µ({y}) = P (Y = y|X = x). 2. Cauchy-Schwarz : Si X et Y admettent toutes deux un moment d’ordre
2, alors XY est d’espérance finie, et

E(XY )2 6 E(X 2 )E(Y 2 ).

: On ne confondra pas E(X 2 ) et E(X)2 .

Propriétés 7.3 (de L 2 )


L 2 est un sous-espace vectoriel de L 1 .

Proposition 6.6 (De la conjointe aux marginales)


X
Pour tout réel x, fX (x) = f(X,Y ) (x, y). Autrement dit,
y∈Y (Ω)
§ 2. La variance.— C’est une mesure de la dispersion.
X 
P (X = x) = P X = x, Y = y .
y∈Y (Ω) Définition 7.4 (Variance, Ecart-type)
Soit X ∈ L 2 . On appelle  2 
......................................................................................................................................................................................................................... I variance son deuxième moment centré var(X) = E X − E(X) .
7 VARIANCE , C OVARIANCE p
I écart-type le réel σX = var(X).
§ 1. L’espace L 2 .— On s’intéresse ici à une classe plus restreinte de variables I Si X ∈ L 2 , elle est dite centrée si son espérance est nulle, et réduite si
aléatoires . sa variance vaut 1.
X − E(X)
Définition 7.1 (Moments) Si σX > 0, alors la variable aléatoire est centrée réduite.
σX
Soit X unevariable aléatoire réelle, et k est un entier positif. On appelle
I k−ième moment de X le réel mk = E(X k ) (lorsqu’il existe évidem-
ment).  Les deux moments les plus utilisés sont l’espérance m1 et le deuxième moment
k  centré que l’on appelle variance. Ces deux quantités sont de grossières mesures
I k−ième moment centré le réel E X − E(X) = µk . 2
de la dispersion de X : E(X) est la valeur moyenne de X et σX mesure la
Nous noterons L 2 l’ensemble des variables aléatoires réelles qui admettent un dispersion de X autour de sa valeur moyenne.

Page 5/7
3. Une variable Aléatoire suivant une loi géométrique G(p) est définie par
R EMARQUES : X(Ω) = N∗ et pour tout n ∈ N∗ , P (X = n) = pq n−1 . Alors,
Si X ∈ L 2 , d’après le théorème de transfert,
1 q
n E(X) = et Var(X) = 2
p p
X
2 2
I Si X(Ω) = {x1 , . . . , xn }, σX = (xi − EX) P (X = xi ).
i=1
4. Une variable Aléatoire suivant une loi de Poisson P(λ) est définie par
+∞
λn
X(Ω) = N et pour tout n ∈ N, P (X = n) = e−λ . Alors,
X
2 2
I Si X(Ω) = {xi , i ∈ N}, σX = (xi − EX) P (X = xi ).
n!
i=0

E(X) = λ et Var(X) = λ .

Lemme 1 5. Une variable Aléatoire suivant une loi Binomiale  B(n,


 p) est définie par
n k n−k
Si X ∈ L 2 , alors X(Ω) = [[0, n]] et pour tout k ∈ [[0, n]], P (X = k) = p q . Alors
k
1. var(X) = E(X 2 ) − E(X)2 .
2. Pour tous réels a et b, var(aX + b) = a2 var(X). E(X) = np et Var(X) = npq .

6. Lorsque la variable aléatoire est à valeurs positives, on peut obtenir une


La première est parfois appelée formule de Leibniz, et la seconde traduit l’in- espérance infinie. C’est le cas d’une variable dite de Pareto, i.e telle que
variance de σX par translation, et l’homogénéité de σX . 1
X(ω) = N∗ , et pour tout j ∈ N∗ , P (X = j) = , lorsque 0 <
ζ(α + 1)j α+1
Théorème 7.5 (Inégalité de Bienaymé-Chebychev) α 6 1.
Si X ∈ L 2 , alors pour tout réel a > 0,
 § 4. Covariance.— Dans le cas où les variables ne sont pas indépendantes, la
 E X2 variance d’une somme fait apparaitre un terme correctif.
P |X| > a 6 .
a2 Définition 7.6
Soient X, Y ∈ L 2 . Il résulte de l’inégalité de Schwarz que la variable X −
On peut en particulier montrer qu’une variable aléatoire admettant un mo- E(X) Y − E(Y ) est d’espérance finie. On appelle
ment d’ordre 2 est presque-sûrement contante ⇐⇒ elle est de variance nulle.
1. covariance de X et Y le réel
  
cov(X, Y ) = E X − E(X) Y − E(Y ) .
§ 3. Espérance et Variance des lois usuelles.—

1. Une variable Aléatoire suivant une loi de Bernoulli B(p) est définie par cov(X, Y )
2. Coefficient de corrélation entre X et Y le réel ρ(X, Y ) = , si
X = 1 a pour probabilité p et X = 0 a pour probabilité q. Alors σ(X)σ(Y )
leurs variances ne sont pas nulles évidemment.
E(X) = p et Var(X) = pq . 3. On dira que X et Y sont décorrélées lorsque leur covariance est nulle, i.e
lorsque E(XY ) = E(X)E(Y ). Nous avons déjà vu que c’est le cas lorsque
X et Y sont indépendantes.
2. Une variable Aléatoire suivant une loi uniforme est définie par X(Ω) =
1 n+1 n2 − 1 La proposition suivante permet de calculer la variance d’une somme de va-
[[1, n]] et P (X = k) = . Alors E(X) = et Var(X) = .
n 2 12 riables aléatoires, et de calculer plus simplement la covariance.

Page 6/7
Théorème : Loi faible des grands nombres
Proposition 7.7 Soit (X n )n æ1 une suite de variables indépendantes et
Soient X1 , . . . , Xn des variables aléatoires admettant un moment d’ordre 2. de même loi, admettant un moment d’ordre 2.
Xn
Alors En notant m l’espérance commune et Sn = Xi ,
1. cov(X1 , X2 ) = E(X1 X2 ) − E(X1 )E(X2 ). ✓ ◆ i =1

2. var (X + Y ) = var(X) + var(Y ) + 2cov(X, Y ). Sn


8" æ 0, P m æ" !0
n
! n n n !+1
X X X
3. var Xk = var(Xk ) + 2 cov(Xi , Xj ).
k=1 k=1 16i<j6n
Lois usuelles
Le coefficient de corrélation est une mesure de la dépendance de X par rapport
àY :
Proposition 7.8 Nom Notation X (⌦) P(X = k ) E(X ) V(X )

Soient X et Y ∈ L 2 (Ω). Alors p si k = 1
Bernoulli B (p ) {0; 1} p pq
1. |ρ(X, Y )| 6 1 . q si k = 0
✓ ◆
2. L’égalité |ρ(X, Y )| = 1est satisfaite si et seulement si il existe deux réels a n k n k
Binomiale B (n , p ) π0; n∫ p q np np q
et b tels que P (Y = aX + b) = 1. k
1 n + 1 n2 1
Propriétés 7.9 Uniforme U (π1; n ∫) π1; n∫
n 2 12
Soient X et Y deux variables aléatoires admettant un moment d’ordre 2.
1 q
Alors, Géométr. G (p ) N⇤ qk 1
p
p p2
1. Si X et Y sont indépendantes, alors var(X + Y ) = var(X) + var(Y ).
k
2. Si (Xi )16i6n!sont mutuellement indépendantes, alors Poisson P( ) N e
X n Xn k!
var Xi = var(Xi ).
i=1 i=1
3. Si (Xi )16i6n!sont mutuellement indépendantes et de même loi, alors • Si X 1 , . . . , X n ,! B (mi , p ) sont mutuellement indépen-
n
X dantes, alors X 1 + · · · + X n ,! B (m1 + · · · + mn , p ).
var Xi = nvar(X1 ).
i=1 • Si X 1 , . . . , X n ,! P ( i ) sont mutuellement indépen-
dantes, alors X 1 + · · · + X n ,! P ( 1 + · · · + n ).
• Si pour tout n 2 N⇤ , X n ,! B (n, pn ) et lim npn = ,
n !+1
k
8k 2 N, P(X n = k ) !e
n !+1 k!

• Si X (⌦) = N , alors X ,! G (p ) si et seulement si :

8(k , n ) 2 N2 , P(X > n + k |X > n) = P(X > k )

Page 7/7

Vous aimerez peut-être aussi