Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation
C HAPITRE 2
VARIABLES A LÉATOIRES D ISCRÈTES
Abdallah Ben Abdallah
Université de Sfax
Institut supérieur d’informatique et multimédia de Sfax
Février 2023
Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation
1 Introduction
2 Espérance et variance
3 Inégalité de Chebyshev
4 Les lois usuelles
5 Couple de variable aléatoires
6 Covariance et corrélation
Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation
1 Introduction
2 Espérance et variance
3 Inégalité de Chebyshev
4 Les lois usuelles
5 Couple de variable aléatoires
6 Covariance et corrélation
Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Exemple de motivation
Considérons un univers Ω = {♣, ♠, , r}.
On se propose de construire un espace probabilisé (Ω, F , P).
Ω est bien définie.
F l’ensemble des événements de Ω a 24 éléments.
Pour la mesure de probabilité, supposons que
1 1 1 1
P({♣}) = , P({♠}) = , P({}) = , P({r}) = . (1)
6 3 3 6
En pratique on n’aimerais pas utiliser les symboles ♣, ♠, , r.
On adopte le codage ♣ ← 1, ♠ ← 2, ← 3, r ← 4.
Exemple de motivation
On peut adopter ce codage d’une manière plus rigoureuse.
Nous définissons l’application X : Ω → R définie par
X(♣) = 1, X(♠) = 2, X() = 3, X(r) = 4.
Ainsi nous réécrivant (1) comme
1 1 1 1
P(X = 1) = , P(X = 2) = , P(X = 3) = , P(X = 4) = . (2)
6 3 3 6
X est appelé variable aléatoire sur Ω.
L’expression (2) est appelé loi de probabilité (ou densité de probabilité) de X.
Variable aléatoire
Étant donné un univers Ω de mesure de probabilité P.
Définition
Un variable aléatoire X sur un univers Ω est une application X : Ω → R qui envoi
tout élément ω ∈ Ω à un réel X(ω) ∈ R.
Figure: Une variable aléatoire X sur Ω.
Variable Discrète
Un ensemble discret S de Rn soit il est fini soit il est dénombrable, c’est à
dire il existe une bijection ψ : S → N.
Un ensemble dénombrable S peut être représenté comme
S = {1 , 2 , 3 , · · · }.
Figure: Une ensemble discret de R2 .
Définition
Une variable aléatoire X : Ω → R est dite discrète l’ensemble des valeurs prise
S = {X(ω), ω ∈ Ω}
est un ensemble discret.
Densité de probabilité
Soit X : Ω → S ⊂ R une variable aléatoire discrète.
L’ensemble S peut être représenté comme
S = {1 , 2 , 3 , · · · }.
Définition
Une fonction p : S → R est dite densité de probabilité (ou loi de probabilité) de la
variable aléatoire discrète X : Ω → S si elle vérifie les conditions
1 p() ≥ 0, pour tout ∈ S.
∈S p() = 1.
P
2
3 P(X ∈ A) =
P
∈A p().
Exemple : On lance deux pièces de monnaies équilibrées. Soit la variable X
affichant le nombre des piles obtenus. Déterminer et représenter graphiquement la loi
de probabilité de la variable X.
Fonction de répartition
Définition
La fonction de répartition d’une variable aléatoire discrète X : Ω → S est définie
par
F() = P(X ≤ ), ∀ ∈ R.
Soit X : Ω → S ⊂ R une variable aléatoire discrète de densité de probabilité
p() et de fonction de répartition F().
Pour tout ∈ R, 0 ≤ F() ≤ 1.
Pour tous , b ∈ R, tel que ≤ b, on a
P( < X ≤ b) = F(b) − F().
F est croissante : si ≤ y alors F() ≤ F(y).
On a lim→+∞ F() = 1, lim→−∞ F() = 0.
F est discontinue en et F(+ −
) − F( ) = p( ).
Exemples
Exemple : On lance deux pièces de monnaies équilibrées. Soit la variable X
affichant le nombre des piles obtenus. Déterminer et représenter graphiquement la
fonction de répartition F de la variable X.
Exemple : On lance deux dés équilibrés à 4 faces numérotées de 1 à 4. Soit la
variable X le maximum des deux numéros obtenues. Déterminer la loi et la fonction
de répartition de X.
Exemple : On lance 3 fois successives une pièce de monnaie. Soit X la variable
aléatoire qui compte le nombre des faces obtenues. Déterminer la loi de probabilité et
la fonction de répartition de X.
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation
1 Introduction
2 Espérance et variance
3 Inégalité de Chebyshev
4 Les lois usuelles
5 Couple de variable aléatoires
6 Covariance et corrélation
Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Motivation
Un concept extrêmement important pour résumer les caractéristiques des
variables aléatoire est celui de l’espérance ou moyenne.
Nous l’introduisons à travers un exemple.
Exemple : On considère un jeu où le participant lance un dé parfait et:
Si l’événement A = {1, 2, 3} se produit, le participant gagne dinars.
Si B = {4, 5} se produit, il ne reçoit b dinars.
Si C = {6} se produit, il doit payer c dinars.
Soit la variable aléatoire X le gain en dinars du participant.
1 Déterminer la loi probabilité de X.
2 On suppose que = 1 et b = 0. Déterminer la moyenne de gain pour le
participant.
3 Que devrait il vérifier c pour que la participant gagne s’il fait beaucoup des
jeux?
Espérance
Définition
L’espérance d’une variable discrète X est le réel (s’il existe)
X
E[X] = P[X = ].
∈S
Pour l’exemple précédant
b c
E[X] = + − .
2 3 6
Pour le participant, E[X] représente la moyenne de gain prévue.
L’espérance est la moyenne arithmétique traditionnellement utilisé en
statistique.
Supposons que nous avons N observations 1 , 2 , · · · , N .
1 PN
La moyenne arithmétique est ̄ = N =1
.
Espérance et Moyenne arithmétique
Supposons que tous les sont regroupés dans des classes suivant ses valeurs
c1 , · · · , cn sans répétitions (n ≤ N).
Supposons que c a été observé e fois dans les N observations.
e est appelé effectif de la classe c .
Ainsi e1 + · · · + en = N.
La fréquence de la classe c est donnée par
e
ƒ = .
N
La moyenne arithmétique se réécrit comme suit
n
1X n
X
̄ = n c = ƒ c = E[X],
N =1 =1
où les c sont les valeurs prise par X et ƒ est la probabilité correspondante.
Espérance en physique
Soit X une variable aléatoire discrète prenant les valeurs 1 , · · · , n et de loi
de probabilité p1 = p(1 ), · · · , pn = p(n ).
L’espérance est bien
évidement
n
X
E[X] = p .
=1
Si nous voyons que les probabilités p1 , · · · , pn sont des masses aux point
1 , · · · , n .
Alors le point
n
X
G= p
=1
est le centre de gravité des points pondérés (1 , p1 ), · · · , (n , pn ).
Espérance et propriétés
Soit h : R → R une fonction.
Soit X : Ω → R une variable aléatoire discrète de loi p(), ∈ S.
Si la somme X
h()p()
∈S
existe alors il est appelé l’espérance de la variable Y = h(X) et noté E[h(X)].
Soit n ∈ N. Le moment d’ordre n de X est
X
E[X n ] = n p().
∈S
Pour tout , b ∈ R, on a E[X + b] = E[X] + b.
Pour tout , b ∈ R, et h1 , h2 des fonctions, on a
E[h1 (X) + bh2 (X)] = E[h1 (X)] + bE[h2 (X)].
Exemple
Exemple : Soit X une variable aléatoire de loi
1
p() = , ∀ ∈ {−1, 0, 1}.
3
1 Déterminer l’espérance de X et toutes les moments E[X n ] de X.
2 Soit la variable Y = X 2 . Déterminer la loi de Y et son espérance E[Y].
Exemple : Soit X une variable aléatoire discrète de loi
p() = , = 1, 2, 3, 4.
10
Déterminer E[X], E[X 2 ] et E[X(5 − X)].
Exemple : Soit X une variable aléatoire discrète et h() = ( − b)2 , avec b un réel
qui ne dépend pas de . On suppose que E[(X − b)2 ] existe. Notons
g(b) = E[(X − b)2 ], b ∈ R.
Déterminer la valeur optimal b∗ pour la quelle g(b) est minimale
b∗ = rgmin g(b).
b∈R
Variance
Définition
La variance d’une variable aléatoire X est
V[X] = E[(X − μ)2 ],
où μ = E[X] est l’espérance de X.
Il est claire que V[X] est positive.
De plus V[X] = 0 si et seulement si P[X = μ] = 1. C’est à dire X est
déterministe.
On note σ = V[X] l’écart-type de X.
p
Théorème
La variance d’une variable aléatoire vérifie les propriétés
V[X] = E[X 2 ] − (E[X])2 .
V[X + b] = 2 V[X].
Espérance et variance sous Python
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation
1 Introduction
2 Espérance et variance
3 Inégalité de Chebyshev
4 Les lois usuelles
5 Couple de variable aléatoires
6 Covariance et corrélation
Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Inégalité de Chebyshev
Dans la majorité des problèmes pratique, on ne connait pas la loi de la variable
aléatoire :
En bourse : le prix d’une action,
Le nombre des infectés par Covid-19 par jours.
etc...
Par contre, nous pouvons trouver un estimation de l’espérance et variance.
En utilisant seulement l’espérance et variance, peut on calculer des probabilités?
L’inégalité de Chebyshev permet de fournir une borne inférieur de probabilité
connaissant l’espérance et variance.
Théorème : inégalité de Chebyshev
Soit X une variable aléatoire d’espérance μ et d’écart-type σ. Alors, pour tout réel
t > 0, on a
σ2
P[|X − μ| ≥ t] ≤ 2 .
t
Inégalité de Chebyshev
Une autre version de l’inégalité de Chebyshev
1
P [|X − μ| ≤ kσ] ≥ 1 − .
k2
Ou encore
1
P μ − kσ 2 ≤ X ≤ μ + kσ ≥ 1 −
.
k2
Exemple : On constate que les ordinateurs d’une entreprise donnée durent en
moyenne trois ans sans aucun dysfonctionnement matériel, avec un écart type de
deux mois. Quel pourcentage au moins des ordinateurs dure entre 31 mois et 41
mois?
Exemple : La durée moyenne d’une certaine ligne A de bus est de 50 minutes, avec
un écart type de 2 minutes. Une affiche promotionnelle pour ce système de bus
indique que "95% du temps, la ligne de bus A dure de à y minutes." Avec quels
chiffres rempliriez-vous et y?
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation
1 Introduction
2 Espérance et variance
3 Inégalité de Chebyshev
4 Les lois usuelles
5 Couple de variable aléatoires
6 Covariance et corrélation
Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Loi de Bernoulli
Une variable de Bernoulli est un simple jeu de Pile-Face.
Un état considéré comme succès noté par 1 et un autre considéré comme échec
noté par 0.
Une variable de Bernoulli a un espace d’état S = {0, 1}.
Définition
Une variable aléatoire X est dite de Bernoulli de paramètre p ∈]0, 1[ si sa densité
de probabilité est donnée par
P[X = 1] = p, P[X = 0] = 1 − p.
Figure: Loi de Bernoulli de paramètre p.
Loi de Bernoulli
Soit X une variable de Bernoulli de paramètre p ∈]0, 1[. Alors,
E[X] = p, V[X] = p(1 − p).
Pour générer sous Python, une variable de Bernoulli on utilise
[Link]:
Une variable aléatoire X est dite de Rademacher de paramètre p = 0.5 si elle
a deux état 1 et −1 avec une loi de probabilité
P[X = −1] = 0.5, P[X = 1] = 0.5
Montrer que si X est une variable de Rademacher de paramètre p = 0.5, alors
Y = 12 (X + 1) est une variable de Bernoulli de paramètre p = 0.5.
Variable aléatoire Binomiale
Soit une variable de Bernoulli de paramètre p.
Soit n un entier supérieur à 1.
On répète l’expérience de Bernoulli n fois et X désigne est le nombre des
succès.
Alors la loi de X est donnée par
P[X = k] = Ckn pk (1 − p)n−k , ∀k ∈ {0, 1, · · · , n}.
X est appelée variable binomiale de paramètres n et p et on note
X ∼ B(n, p).
On a
E[X] = np, V[X] = np(1 − p).
Exemple
L’exemple modèle d’une loi de Binomiale B(n, p) est le nombre des succès
dans n jeux de Bernoulli de paramètre p ∈]0, 1[.
Le lien suivant présente une animation d’un tel modèle [Link]
[Link]/random/apps/[Link].
Théorème
Une variable X est de loi binomiale B(n, p) si et seulement si
X = B1 + · · · + Bn ,
où B1 , · · · , Bn sont n variables indépendantes de même loi Bernoulli de paramètre
p.
Exemple : Un système de protection anti-missile est composée d’un ensemble à n
radars fonctionnant de manière indépendante, chacun avec une probabilité de
p = 0.9 à détecter un missile pénétrant une zone spécifiée. (Tous les radars couvrent
la même zone.) Si un missile pénètre la zone, trouver en fonction de n la probabilité
qu’il sera détecté.
Génération de loi binomiale sous Python
Pour calculer P[X = 1] où X ∼ B(10, 0.5)
Pour générer 500 réalisations d’une loi binomiale B(10, 0.5)
Représentation graphique de la loi B(6, 0.6)
Loi de Poisson
Dans plusieurs des modèles
physiques, la réalisation d’un
événement dans une période de
temps sont modélisés par la loi de
Poisson.
Compter les électrons et les photons
en une seconde.
Appels téléphoniques par heure dans
un centre d’appels.
Banques: Nombre de déclarations de Figure: Siméon Denis Poisson (1781-1840) est
faillite par mois. un mathématicien, géomètre et physicien
français.
Nombre de défaillances du réseau
par semaine.
Nombre des véhicules traversant un
carrefour en une minute.
Loi de Poisson est un cas particulier de la loi de Binomiale!
Loi de Poisson
Définition
Soit λ un réel strictement positif. Une variable aléatoire X est dite de Poisson de
paramètre λ si sa loi est donnée par
λk
P[X = k] = e−λ , ∀k ∈ N.
k!
Figure: Gauche : 5000 observation de la loi de Poisson de paramètre λ = 1. Droite: La loi de
probabilité de Poisson de paramètre λ = 1.
Généralement le paramètre λ = rt, où t est une période de temps et r la raison de
réalisation de l’événement.
Exemples pratiques
Le nombre de passagers attendant le bus à la station pendant une période de
temps.
Le nombre d’appels arrivant à un centre pendant une période de temps t.
Nombre des photons arrivant à une appareil photo en une période de temps.
Poisson sous Python
Calculer la probabilité P[X = 5] avec X de loi de Poisson de paramètre λ = 3.
Calculer la probabilité P[X ≤ 5] avec X de loi de Poisson de paramètre λ = 3.
Générer 10 observations d’une loi de Poisson de paramètre λ = 3.
Représenter la loi de Poisson de paramètre λ = mbd.
Propriétés de la loi de Poisson
Soit X une variable aléatoire discrète de Poisson de paramètre λ > 0.
L’espérance et la variance de X sont donnés par
E[X] = λ, V[X] = λ.
Pour n assez grand et p assez petit, la loi Binomiale est approximée par la loi de
Poisson de paramètre λ = np.
Théorème (Approximation de la
Si n est assez grand et p est assez petit, alors ∀k,
λk
Ckn pk (1 − p)n−k ≃ e−λ ,
k!
où λ = np.
Exemples
Exemple : Considérons un système de communication optique. Le taux d’arrivée
des bits est de l’ordre de 109 bits par secondes et la probabilité de faire une erreur
est de 10−9 . Quelle est la probabilité d’avoir 5 erreurs en une seconde?
Exemple : Dans une grande ville, il y a en moyenne deux appels téléphoniques au
centre d’urgence toutes les 3 minutes. Soit X le nombre d’appels en trois minutes.
1 Quelle est la loi de X?
2 Quelle est la probabilité que moins de 5 appels arrivent au centre.
3 Quelle est la probabilité que 5 appels ou plus arrivent dans une période de 9
minutes?
4 Sachant que 5 appels sont déjà arrivés au centre au début des 9 minutes, quelle
est la probabilité qu’il arrive en total dans les 9 minutes plus que 10 appels?
Loi gémetrique
Etant donné une expérience de Bernouilli, on l’execute jusqu’à le premeir
succes.
Par exemple, nous pouvons vouloir continuer à appeler un centre d’appels
jusqu’à ce qu’il décroche.
La variable aléatoire peut être définie comme le résultat de nombreux échecs
suivis d’un succès final.
C’est ce qu’on appelle la variable aléatoire géométrique.
Définition
Une variable aléatoire X est dite géometrique de paramètre p si sa loi est donnée pat
P[X = k] = p(1 − p)k−1 , k = 1, 2, , · · · .
Théorème
Si X suit une loi géométrique de paramètre p, alors
1 1−p
E[X] = , V[X] = .
p p2
Loi géométrique
Figure: Densité de probabilité de la loi géométrique de paramètre p = 0.5 (gauche) loi
échantillonné (droite) loi exacte.
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation
1 Introduction
2 Espérance et variance
3 Inégalité de Chebyshev
4 Les lois usuelles
5 Couple de variable aléatoires
6 Covariance et corrélation
Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Définition et exemples
Une distribution conjointe est une loi d’une variable aléatoire
multi-dimensionnelle.
Une variable aléatoire réelle X admet une loi ƒX () de dimension 1.
En cas de deux variables aléatoires X et Y, le loi est ƒX,Y (, y) de dimension 2.
Une variable aléatoire X : Ω → RN admet une densité de probabilité
ƒX (1 , · · · , N ).
Figure: Une image est représentée par un grand nombre des pixels = (1 , · · · , N ). Pour le
ème pixel, il y a une probabilité p d’avoir une valeur .
Définition
Définition : Loi conjointe d’un couple
Soit X et Y deux variables aléatoires discrètes. La loi conjointe du couple (X, Y) est
donnée par
pX,Y (, y) = P[X = , Y = y], ∀(, y) ∈ SX × SY ,
SX et SY sont respectivement les ensembles (discrets dans R) formés par les valeurs
prisent par les variables aléatoires X et Y.
Figure: Gauche : Nuage des points du couple (X, Y), droite: pX,Y (, y) la loi du couple
(X, Y).
Exemples
Exemple : On lance un dé cubique équilibré numéroté de 1 à 6 et une pièce de
monnaie équilibrée dont les résultats sont codés par 0 et 1. Soit X le résultat du dé et
Y le résultat de la pièce. Quelle est la loi conjointe de (X, Y)?
Exemple : On lance deux dés équilibrés numérotés de 1 à 6. Soit X le plus petit
numéro obtenu et Y le plus grand. Quelle est la loi conjointe de (X, Y)?
Définition: Loi marginale
Soit pX,Y la loi conjointe du couple aléatoire (X, Y). Les lois marginales pX et pY
de X et Y sont données par
X X
pX () = pX,Y (, y), pY (y) = pX,Y (, y).
y∈SY ∈SX
Exercice : Déterminer les lois marginales des couples (X, Y).
Indépendance
Définition:
Les variables aléatoire X et Y sont dite indépendantes si
pX,Y (, y) = pX ()pY (y), ∀(, y) ∈ R2 .
Exemple : Soit
y 2
pX,Y (, y) = , = 1, 2, 3, y = 1, 2.
30
Vérifier qu’il s’agit bien d’une loi de probabilité. Les variables X et Y sont-elles
indépendantes?
Exemple : On lance deux dés équilibrés numérotés de 1 à 6. Soit X le plus petit
numéro obtenu et Y le plus grand. Les variables X et Y sont-elles indépendantes?
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation
1 Introduction
2 Espérance et variance
3 Inégalité de Chebyshev
4 Les lois usuelles
5 Couple de variable aléatoires
6 Covariance et corrélation
Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Covariance
Étant donné deux variables aléatoires X et Y.
Nous avons définit l’espérance et la variance des paramètres décrivant chacune
des variables X et Y.
μX = E[X], μY = E[Y],
V[X] = E[(X − μX )2 ], V[Y] = E[(Y − μY )2 ].
Nous allons introduire des paramètres qui mesurent la dépendance entre X et Y.
L’espérance de XY est donnée par
X X
E[XY] = ypX,Y (, y).
∈SX y∈SY
La covariance de X et Y est définie par
Co(X, Y) = E[(X − μX )(Y − μY )],
= E[XY] − μX μY .
Corrélation
Le coefficient de corrélation de X et Y est définie par
Co(X, Y)
ρ(X, Y) = .
σX σY
Soit p,j = P[X = , Y = yj ] pour , j ∈ {1, . . . , n} avec
SX = { , 1 ≤ ≤ n} et SY = {yj , 1 ≤ j ≤ n}.
−
→ −→
Soit = [1 , · · · , n ] et y = [y1 , · · · , yn ]. Nous représentant la loi du
couple (X, Y) par une matrice
P = (p,j ) ∈ Rn×n .
Alors
−
→ − →
E[XY] = T P y .
Si P est symétrique définie positive, alors E[XY] n’est autre que le produit
−
→ − →
scalaire de et y .
−→ − →
Le coefficient de corrélation est le cos( , y ).
Propriétés
Théorème
Pour toute variables aléatoires X et Y nous avons
1 E[X + Y] = E[X] + E[Y].
2 V[X + Y] = V[X] + 2Co(X, Y) + V[Y].
Inégalité de Cauchy-Schwarz :
E[XY] 2 ≤ E[X 2 ] E[Y 2 ].
Il y a égalité dans Cauchy-Schwarz si et seulement si X = αY, α ∈ R.
Le coefficient de corrélation vérifie
−1 ≤ ρ(X, Y) ≤ 1.
Si X et Y sont indépendants alors ρ(X, Y) = 0.
Calculer la corrélation des observation
Le coefficient de corrélation
E[XY] − μX μY
ρ(X, Y) = .
σ(X)σ(Y)
Si (1 , y1 ), · · · , (N , yN ) sont N observations du couple (X, Y), alors
PN
1/ N =1 y − y
ρ̂(X, Y) = ,
σ̂(X)σ̂(Y)
avec
N
1X N
1X
σ̂(X) = ( − )2 , σ̂(Y) = (y − y)2 .
N =1
N =1
ρ̂(X, Y) est le coefficient de corrélation empirique de X et Y.
On estime que lorsque N → +∞, alors ρ̂(X, Y) → ρ(X, Y).
Visualisation de corrélation
Animation:
[Link]/random/apps/[Link]
Théorème
Si X et Y sont deux variables indépendantes de Poisson de paramètres λ1 , λ2 , alors
X + Y suit la loi de Poisson de paramètre λ1 + λ2 .
Bibliographie
R. V. Hogg, E. Tanis, D. Zimmerman,
Probability and statistical inference.
Global Edition, Pearson, 2019.
Stanley H. Chan,
Introduction to Probability for Data Science
[Link]