0% ont trouvé ce document utile (0 vote)
35 vues48 pages

Variables Aléatoires Discrètes : Concepts Clés

Ce chapitre traite des variables aléatoires discrètes, notamment leur loi de probabilité, fonction de répartition, espérance et autres concepts statistiques. Plusieurs exemples sont fournis pour illustrer ces notions.

Transféré par

dave.neii
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
35 vues48 pages

Variables Aléatoires Discrètes : Concepts Clés

Ce chapitre traite des variables aléatoires discrètes, notamment leur loi de probabilité, fonction de répartition, espérance et autres concepts statistiques. Plusieurs exemples sont fournis pour illustrer ces notions.

Transféré par

dave.neii
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation

C HAPITRE 2
VARIABLES A LÉATOIRES D ISCRÈTES

Abdallah Ben Abdallah

Université de Sfax
Institut supérieur d’informatique et multimédia de Sfax

Février 2023

Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation

1 Introduction

2 Espérance et variance

3 Inégalité de Chebyshev

4 Les lois usuelles

5 Couple de variable aléatoires

6 Covariance et corrélation

Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation

1 Introduction

2 Espérance et variance

3 Inégalité de Chebyshev

4 Les lois usuelles

5 Couple de variable aléatoires

6 Covariance et corrélation

Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Exemple de motivation

Considérons un univers Ω = {♣, ♠, ‡, r}.

On se propose de construire un espace probabilisé (Ω, F , P).

Ω est bien définie.

F l’ensemble des événements de Ω a 24 éléments.

Pour la mesure de probabilité, supposons que


1 1 1 1
P({♣}) = , P({♠}) = , P({‡}) = , P({r}) = . (1)
6 3 3 6

En pratique on n’aimerais pas utiliser les symboles ♣, ♠, ‡, r.

On adopte le codage ♣ ← 1, ♠ ← 2, ‡ ← 3, r ← 4.
Exemple de motivation

On peut adopter ce codage d’une manière plus rigoureuse.

Nous définissons l’application X : Ω → R définie par

X(♣) = 1, X(♠) = 2, X(‡) = 3, X(r) = 4.

Ainsi nous réécrivant (1) comme

1 1 1 1
P(X = 1) = , P(X = 2) = , P(X = 3) = , P(X = 4) = . (2)
6 3 3 6

X est appelé variable aléatoire sur Ω.

L’expression (2) est appelé loi de probabilité (ou densité de probabilité) de X.


Variable aléatoire

Étant donné un univers Ω de mesure de probabilité P.

Définition
Un variable aléatoire X sur un univers Ω est une application X : Ω → R qui envoi
tout élément ω ∈ Ω à un réel X(ω) ∈ R.

Figure: Une variable aléatoire X sur Ω.


Variable Discrète
Un ensemble discret S de Rn soit il est fini soit il est dénombrable, c’est à
dire il existe une bijection ψ : S → N.

Un ensemble dénombrable S peut être représenté comme

S = {1 , 2 , 3 , · · · }.

Figure: Une ensemble discret de R2 .

Définition
Une variable aléatoire X : Ω → R est dite discrète l’ensemble des valeurs prise

S = {X(ω), ω ∈ Ω}

est un ensemble discret.


Densité de probabilité

Soit X : Ω → S ⊂ R une variable aléatoire discrète.

L’ensemble S peut être représenté comme

S = {1 , 2 , 3 , · · · }.

Définition
Une fonction p : S → R est dite densité de probabilité (ou loi de probabilité) de la
variable aléatoire discrète X : Ω → S si elle vérifie les conditions
1 p() ≥ 0, pour tout  ∈ S.

∈S p() = 1.
P
2

3 P(X ∈ A) =
P
∈A p().

Exemple : On lance deux pièces de monnaies équilibrées. Soit la variable X


affichant le nombre des piles obtenus. Déterminer et représenter graphiquement la loi
de probabilité de la variable X.
Fonction de répartition

Définition
La fonction de répartition d’une variable aléatoire discrète X : Ω → S est définie
par
F() = P(X ≤ ), ∀ ∈ R.

Soit X : Ω → S ⊂ R une variable aléatoire discrète de densité de probabilité


p() et de fonction de répartition F().

Pour tout  ∈ R, 0 ≤ F() ≤ 1.

Pour tous , b ∈ R, tel que  ≤ b, on a

P( < X ≤ b) = F(b) − F().

F est croissante : si  ≤ y alors F() ≤ F(y).

On a lim→+∞ F() = 1, lim→−∞ F() = 0.

F est discontinue en  et F(+ −


 ) − F( ) = p( ).
Exemples

Exemple : On lance deux pièces de monnaies équilibrées. Soit la variable X


affichant le nombre des piles obtenus. Déterminer et représenter graphiquement la
fonction de répartition F de la variable X.

Exemple : On lance deux dés équilibrés à 4 faces numérotées de 1 à 4. Soit la


variable X le maximum des deux numéros obtenues. Déterminer la loi et la fonction
de répartition de X.

Exemple : On lance 3 fois successives une pièce de monnaie. Soit X la variable


aléatoire qui compte le nombre des faces obtenues. Déterminer la loi de probabilité et
la fonction de répartition de X.
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation

1 Introduction

2 Espérance et variance

3 Inégalité de Chebyshev

4 Les lois usuelles

5 Couple de variable aléatoires

6 Covariance et corrélation

Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Motivation

Un concept extrêmement important pour résumer les caractéristiques des


variables aléatoire est celui de l’espérance ou moyenne.

Nous l’introduisons à travers un exemple.

Exemple : On considère un jeu où le participant lance un dé parfait et:


Si l’événement A = {1, 2, 3} se produit, le participant gagne  dinars.
Si B = {4, 5} se produit, il ne reçoit b dinars.
Si C = {6} se produit, il doit payer c dinars.
Soit la variable aléatoire X le gain en dinars du participant.
1 Déterminer la loi probabilité de X.
2 On suppose que  = 1 et b = 0. Déterminer la moyenne de gain pour le
participant.
3 Que devrait il vérifier c pour que la participant gagne s’il fait beaucoup des
jeux?
Espérance
Définition
L’espérance d’une variable discrète X est le réel (s’il existe)
X
E[X] = P[X = ].
∈S

Pour l’exemple précédant


 b c
E[X] = + − .
2 3 6

Pour le participant, E[X] représente la moyenne de gain prévue.

L’espérance est la moyenne arithmétique traditionnellement utilisé en


statistique.

Supposons que nous avons N observations 1 , 2 , · · · , N .

1 PN
La moyenne arithmétique est ̄ = N =1
 .
Espérance et Moyenne arithmétique
Supposons que tous les  sont regroupés dans des classes suivant ses valeurs
c1 , · · · , cn sans répétitions (n ≤ N).

Supposons que c a été observé e fois dans les N observations.

e est appelé effectif de la classe c .

Ainsi e1 + · · · + en = N.

La fréquence de la classe c est donnée par


e
ƒ = .
N

La moyenne arithmétique se réécrit comme suit


n
1X n
X
̄ = n c = ƒ c = E[X],
N =1 =1

où les c sont les valeurs prise par X et ƒ est la probabilité correspondante.


Espérance en physique

Soit X une variable aléatoire discrète prenant les valeurs 1 , · · · , n et de loi


de probabilité p1 = p(1 ), · · · , pn = p(n ).

L’espérance est bien


évidement
n
X
E[X] = p  .
=1

Si nous voyons que les probabilités p1 , · · · , pn sont des masses aux point
1 , · · · , n .

Alors le point
n
X
G= p 
=1
est le centre de gravité des points pondérés (1 , p1 ), · · · , (n , pn ).
Espérance et propriétés
Soit h : R → R une fonction.

Soit X : Ω → R une variable aléatoire discrète de loi p(),  ∈ S.

Si la somme X
h()p()
∈S
existe alors il est appelé l’espérance de la variable Y = h(X) et noté E[h(X)].

Soit n ∈ N. Le moment d’ordre n de X est


X
E[X n ] = n p().
∈S

Pour tout , b ∈ R, on a E[X + b] = E[X] + b.

Pour tout , b ∈ R, et h1 , h2 des fonctions, on a

E[h1 (X) + bh2 (X)] = E[h1 (X)] + bE[h2 (X)].


Exemple
Exemple : Soit X une variable aléatoire de loi
1
p() = , ∀ ∈ {−1, 0, 1}.
3

1 Déterminer l’espérance de X et toutes les moments E[X n ] de X.


2 Soit la variable Y = X 2 . Déterminer la loi de Y et son espérance E[Y].

Exemple : Soit X une variable aléatoire discrète de loi



p() = ,  = 1, 2, 3, 4.
10
Déterminer E[X], E[X 2 ] et E[X(5 − X)].

Exemple : Soit X une variable aléatoire discrète et h() = ( − b)2 , avec b un réel
qui ne dépend pas de . On suppose que E[(X − b)2 ] existe. Notons
g(b) = E[(X − b)2 ], b ∈ R.
Déterminer la valeur optimal b∗ pour la quelle g(b) est minimale
b∗ = rgmin g(b).
b∈R
Variance
Définition
La variance d’une variable aléatoire X est

V[X] = E[(X − μ)2 ],

où μ = E[X] est l’espérance de X.

Il est claire que V[X] est positive.

De plus V[X] = 0 si et seulement si P[X = μ] = 1. C’est à dire X est


déterministe.

On note σ = V[X] l’écart-type de X.


p

Théorème
La variance d’une variable aléatoire vérifie les propriétés
V[X] = E[X 2 ] − (E[X])2 .
V[X + b] = 2 V[X].
Espérance et variance sous Python
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation

1 Introduction

2 Espérance et variance

3 Inégalité de Chebyshev

4 Les lois usuelles

5 Couple de variable aléatoires

6 Covariance et corrélation

Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Inégalité de Chebyshev
Dans la majorité des problèmes pratique, on ne connait pas la loi de la variable
aléatoire :
En bourse : le prix d’une action,
Le nombre des infectés par Covid-19 par jours.
etc...

Par contre, nous pouvons trouver un estimation de l’espérance et variance.

En utilisant seulement l’espérance et variance, peut on calculer des probabilités?

L’inégalité de Chebyshev permet de fournir une borne inférieur de probabilité


connaissant l’espérance et variance.

Théorème : inégalité de Chebyshev


Soit X une variable aléatoire d’espérance μ et d’écart-type σ. Alors, pour tout réel
t > 0, on a
σ2
P[|X − μ| ≥ t] ≤ 2 .
t
Inégalité de Chebyshev

Une autre version de l’inégalité de Chebyshev


1
P [|X − μ| ≤ kσ] ≥ 1 − .
k2

Ou encore
1
P μ − kσ 2 ≤ X ≤ μ + kσ ≥ 1 −
 
.
k2

Exemple : On constate que les ordinateurs d’une entreprise donnée durent en


moyenne trois ans sans aucun dysfonctionnement matériel, avec un écart type de
deux mois. Quel pourcentage au moins des ordinateurs dure entre 31 mois et 41
mois?

Exemple : La durée moyenne d’une certaine ligne A de bus est de 50 minutes, avec
un écart type de 2 minutes. Une affiche promotionnelle pour ce système de bus
indique que "95% du temps, la ligne de bus A dure de  à y minutes." Avec quels
chiffres rempliriez-vous  et y?
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation

1 Introduction

2 Espérance et variance

3 Inégalité de Chebyshev

4 Les lois usuelles

5 Couple de variable aléatoires

6 Covariance et corrélation

Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Loi de Bernoulli
Une variable de Bernoulli est un simple jeu de Pile-Face.

Un état considéré comme succès noté par 1 et un autre considéré comme échec
noté par 0.

Une variable de Bernoulli a un espace d’état S = {0, 1}.

Définition
Une variable aléatoire X est dite de Bernoulli de paramètre p ∈]0, 1[ si sa densité
de probabilité est donnée par

P[X = 1] = p, P[X = 0] = 1 − p.

Figure: Loi de Bernoulli de paramètre p.


Loi de Bernoulli
Soit X une variable de Bernoulli de paramètre p ∈]0, 1[. Alors,

E[X] = p, V[X] = p(1 − p).

Pour générer sous Python, une variable de Bernoulli on utilise


[Link]:

Une variable aléatoire X est dite de Rademacher de paramètre p = 0.5 si elle


a deux état 1 et −1 avec une loi de probabilité

P[X = −1] = 0.5, P[X = 1] = 0.5

Montrer que si X est une variable de Rademacher de paramètre p = 0.5, alors


Y = 12 (X + 1) est une variable de Bernoulli de paramètre p = 0.5.
Variable aléatoire Binomiale
Soit une variable de Bernoulli de paramètre p.

Soit n un entier supérieur à 1.

On répète l’expérience de Bernoulli n fois et X désigne est le nombre des


succès.

Alors la loi de X est donnée par

P[X = k] = Ckn pk (1 − p)n−k , ∀k ∈ {0, 1, · · · , n}.

X est appelée variable binomiale de paramètres n et p et on note

X ∼ B(n, p).

On a

E[X] = np, V[X] = np(1 − p).


Exemple

L’exemple modèle d’une loi de Binomiale B(n, p) est le nombre des succès
dans n jeux de Bernoulli de paramètre p ∈]0, 1[.

Le lien suivant présente une animation d’un tel modèle [Link]


[Link]/random/apps/[Link].

Théorème
Une variable X est de loi binomiale B(n, p) si et seulement si

X = B1 + · · · + Bn ,

où B1 , · · · , Bn sont n variables indépendantes de même loi Bernoulli de paramètre


p.

Exemple : Un système de protection anti-missile est composée d’un ensemble à n


radars fonctionnant de manière indépendante, chacun avec une probabilité de
p = 0.9 à détecter un missile pénétrant une zone spécifiée. (Tous les radars couvrent
la même zone.) Si un missile pénètre la zone, trouver en fonction de n la probabilité
qu’il sera détecté.
Génération de loi binomiale sous Python
Pour calculer P[X = 1] où X ∼ B(10, 0.5)

Pour générer 500 réalisations d’une loi binomiale B(10, 0.5)

Représentation graphique de la loi B(6, 0.6)


Loi de Poisson
Dans plusieurs des modèles
physiques, la réalisation d’un
événement dans une période de
temps sont modélisés par la loi de
Poisson.

Compter les électrons et les photons


en une seconde.

Appels téléphoniques par heure dans


un centre d’appels.

Banques: Nombre de déclarations de Figure: Siméon Denis Poisson (1781-1840) est


faillite par mois. un mathématicien, géomètre et physicien
français.
Nombre de défaillances du réseau
par semaine.

Nombre des véhicules traversant un


carrefour en une minute.

Loi de Poisson est un cas particulier de la loi de Binomiale!


Loi de Poisson
Définition
Soit λ un réel strictement positif. Une variable aléatoire X est dite de Poisson de
paramètre λ si sa loi est donnée par

λk
P[X = k] = e−λ , ∀k ∈ N.
k!

Figure: Gauche : 5000 observation de la loi de Poisson de paramètre λ = 1. Droite: La loi de


probabilité de Poisson de paramètre λ = 1.

Généralement le paramètre λ = rt, où t est une période de temps et r la raison de


réalisation de l’événement.
Exemples pratiques
Le nombre de passagers attendant le bus à la station pendant une période de
temps.

Le nombre d’appels arrivant à un centre pendant une période de temps t.


Nombre des photons arrivant à une appareil photo en une période de temps.
Poisson sous Python
Calculer la probabilité P[X = 5] avec X de loi de Poisson de paramètre λ = 3.

Calculer la probabilité P[X ≤ 5] avec X de loi de Poisson de paramètre λ = 3.

Générer 10 observations d’une loi de Poisson de paramètre λ = 3.

Représenter la loi de Poisson de paramètre λ = mbd.


Propriétés de la loi de Poisson

Soit X une variable aléatoire discrète de Poisson de paramètre λ > 0.

L’espérance et la variance de X sont donnés par

E[X] = λ, V[X] = λ.

Pour n assez grand et p assez petit, la loi Binomiale est approximée par la loi de
Poisson de paramètre λ = np.

Théorème (Approximation de la
Si n est assez grand et p est assez petit, alors ∀k,

λk
Ckn pk (1 − p)n−k ≃ e−λ ,
k!
où λ = np.
Exemples

Exemple : Considérons un système de communication optique. Le taux d’arrivée


des bits est de l’ordre de 109 bits par secondes et la probabilité de faire une erreur
est de 10−9 . Quelle est la probabilité d’avoir 5 erreurs en une seconde?

Exemple : Dans une grande ville, il y a en moyenne deux appels téléphoniques au


centre d’urgence toutes les 3 minutes. Soit X le nombre d’appels en trois minutes.
1 Quelle est la loi de X?
2 Quelle est la probabilité que moins de 5 appels arrivent au centre.
3 Quelle est la probabilité que 5 appels ou plus arrivent dans une période de 9
minutes?
4 Sachant que 5 appels sont déjà arrivés au centre au début des 9 minutes, quelle
est la probabilité qu’il arrive en total dans les 9 minutes plus que 10 appels?
Loi gémetrique
Etant donné une expérience de Bernouilli, on l’execute jusqu’à le premeir
succes.

Par exemple, nous pouvons vouloir continuer à appeler un centre d’appels


jusqu’à ce qu’il décroche.

La variable aléatoire peut être définie comme le résultat de nombreux échecs


suivis d’un succès final.

C’est ce qu’on appelle la variable aléatoire géométrique.


Définition
Une variable aléatoire X est dite géometrique de paramètre p si sa loi est donnée pat

P[X = k] = p(1 − p)k−1 , k = 1, 2, , · · · .

Théorème
Si X suit une loi géométrique de paramètre p, alors
1 1−p
E[X] = , V[X] = .
p p2
Loi géométrique

Figure: Densité de probabilité de la loi géométrique de paramètre p = 0.5 (gauche) loi


échantillonné (droite) loi exacte.
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation

1 Introduction

2 Espérance et variance

3 Inégalité de Chebyshev

4 Les lois usuelles

5 Couple de variable aléatoires

6 Covariance et corrélation

Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Définition et exemples
Une distribution conjointe est une loi d’une variable aléatoire
multi-dimensionnelle.

Une variable aléatoire réelle X admet une loi ƒX () de dimension 1.

En cas de deux variables aléatoires X et Y, le loi est ƒX,Y (, y) de dimension 2.

Une variable aléatoire X : Ω → RN admet une densité de probabilité


ƒX (1 , · · · , N ).

Figure: Une image est représentée par un grand nombre des pixels  = (1 , · · · , N ). Pour le 
ème pixel, il y a une probabilité p d’avoir une valeur  .
Définition

Définition : Loi conjointe d’un couple


Soit X et Y deux variables aléatoires discrètes. La loi conjointe du couple (X, Y) est
donnée par

pX,Y (, y) = P[X = , Y = y], ∀(, y) ∈ SX × SY ,

SX et SY sont respectivement les ensembles (discrets dans R) formés par les valeurs
prisent par les variables aléatoires X et Y.

Figure: Gauche : Nuage des points du couple (X, Y), droite: pX,Y (, y) la loi du couple
(X, Y).
Exemples

Exemple : On lance un dé cubique équilibré numéroté de 1 à 6 et une pièce de


monnaie équilibrée dont les résultats sont codés par 0 et 1. Soit X le résultat du dé et
Y le résultat de la pièce. Quelle est la loi conjointe de (X, Y)?

Exemple : On lance deux dés équilibrés numérotés de 1 à 6. Soit X le plus petit


numéro obtenu et Y le plus grand. Quelle est la loi conjointe de (X, Y)?

Définition: Loi marginale


Soit pX,Y la loi conjointe du couple aléatoire (X, Y). Les lois marginales pX et pY
de X et Y sont données par
X X
pX () = pX,Y (, y), pY (y) = pX,Y (, y).
y∈SY ∈SX

Exercice : Déterminer les lois marginales des couples (X, Y).


Indépendance

Définition:
Les variables aléatoire X et Y sont dite indépendantes si

pX,Y (, y) = pX ()pY (y), ∀(, y) ∈ R2 .

Exemple : Soit

y 2
pX,Y (, y) = ,  = 1, 2, 3, y = 1, 2.
30
Vérifier qu’il s’agit bien d’une loi de probabilité. Les variables X et Y sont-elles
indépendantes?

Exemple : On lance deux dés équilibrés numérotés de 1 à 6. Soit X le plus petit


numéro obtenu et Y le plus grand. Les variables X et Y sont-elles indépendantes?
Introduction Espérance et variance Inégalité de Chebyshev Les lois usuelles Couple de variable aléatoires Covariance et corrélation

1 Introduction

2 Espérance et variance

3 Inégalité de Chebyshev

4 Les lois usuelles

5 Couple de variable aléatoires

6 Covariance et corrélation

Abdallah Ben Abdallah Université de Sfax Institut supérieur d’informatique et multimédia de Sfax
C HAPITRE 2 VARIABLES A LÉATOIRES D ISCRÈTES
Covariance
Étant donné deux variables aléatoires X et Y.

Nous avons définit l’espérance et la variance des paramètres décrivant chacune


des variables X et Y.

μX = E[X], μY = E[Y],

V[X] = E[(X − μX )2 ], V[Y] = E[(Y − μY )2 ].

Nous allons introduire des paramètres qui mesurent la dépendance entre X et Y.

L’espérance de XY est donnée par


X X
E[XY] = ypX,Y (, y).
∈SX y∈SY

La covariance de X et Y est définie par

Co(X, Y) = E[(X − μX )(Y − μY )],


= E[XY] − μX μY .
Corrélation
Le coefficient de corrélation de X et Y est définie par

Co(X, Y)
ρ(X, Y) = .
σX σY

Soit p,j = P[X =  , Y = yj ] pour , j ∈ {1, . . . , n} avec


SX = { , 1 ≤  ≤ n} et SY = {yj , 1 ≤ j ≤ n}.


→ −→
Soit  = [1 , · · · , n ] et y = [y1 , · · · , yn ]. Nous représentant la loi du
couple (X, Y) par une matrice

P = (p,j ) ∈ Rn×n .

Alors

→ − →
E[XY] =  T P y .

Si P est symétrique définie positive, alors E[XY] n’est autre que le produit

→ − →
scalaire de  et y .

−→ − →
Le coefficient de corrélation est le cos(  , y ).
Propriétés

Théorème
Pour toute variables aléatoires X et Y nous avons
1 E[X + Y] = E[X] + E[Y].

2 V[X + Y] = V[X] + 2Co(X, Y) + V[Y].

Inégalité de Cauchy-Schwarz :

E[XY] 2 ≤ E[X 2 ] E[Y 2 ].

Il y a égalité dans Cauchy-Schwarz si et seulement si X = αY, α ∈ R.


Le coefficient de corrélation vérifie

−1 ≤ ρ(X, Y) ≤ 1.

Si X et Y sont indépendants alors ρ(X, Y) = 0.


Calculer la corrélation des observation

Le coefficient de corrélation
E[XY] − μX μY
ρ(X, Y) = .
σ(X)σ(Y)

Si (1 , y1 ), · · · , (N , yN ) sont N observations du couple (X, Y), alors


PN
1/ N =1  y −  y
ρ̂(X, Y) = ,
σ̂(X)σ̂(Y)
avec
N
1X N
1X
σ̂(X) = ( − )2 , σ̂(Y) = (y − y)2 .
N =1
N =1

ρ̂(X, Y) est le coefficient de corrélation empirique de X et Y.

On estime que lorsque N → +∞, alors ρ̂(X, Y) → ρ(X, Y).


Visualisation de corrélation

Animation:
[Link]/random/apps/[Link]

Théorème
Si X et Y sont deux variables indépendantes de Poisson de paramètres λ1 , λ2 , alors
X + Y suit la loi de Poisson de paramètre λ1 + λ2 .
Bibliographie

R. V. Hogg, E. Tanis, D. Zimmerman,


Probability and statistical inference.
Global Edition, Pearson, 2019.

Stanley H. Chan,
Introduction to Probability for Data Science
[Link]

Vous aimerez peut-être aussi