0% ont trouvé ce document utile (0 vote)
514 vues46 pages

Cours TD PB Proba Cpge 1

Le document présente des notions de base de combinatoire élémentaire, notamment la définition d'ensembles finis équipotents et de bijections. Il introduit également la notion de cardinalité d'ensembles finis et établit des propriétés sur les injections, surjections et bijections entre ensembles finis.

Transféré par

etoni932
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
514 vues46 pages

Cours TD PB Proba Cpge 1

Le document présente des notions de base de combinatoire élémentaire, notamment la définition d'ensembles finis équipotents et de bijections. Il introduit également la notion de cardinalité d'ensembles finis et établit des propriétés sur les injections, surjections et bijections entre ensembles finis.

Transféré par

etoni932
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Prépa-Concours

g( x, y) f X,Y ( x)dxdy

MPSI - MP - MP*
Z +∞ Z +∞

−∞

Cours
−∞
E[ g( X, Y )] =

de
Probabilités
g( x) f X ( x)dx

♦ Cours complet pour Sup et Spé.


♦ Exercices Corrigés.
Z +∞

−∞

♦ Problèmes et sujets de concours sélectionnés.


E[ g( X )] =

1
1/3
2
1/6
1 3 2 1
1/4 3
3 1 4 5 1/6
∑ g( xk ) P( X = xk )

4
1/12
2 3 4 1
5
k∈K
E[ g( X )] =

Mr. Moussa Faress


Mathématiques Supérieures
Table des matières


1 Combinatoire élémentaire 7
1.1 Les ensembles finis . . . . . . . . . . . . . . . . . . . . 8
1.2 Applications entre ensemble finis . . . . . . . . . . . 11
1.3 Dénombrements usuels . . . . . . . . . . . . . . . . . 12
1.4 Arrangements et combinaisons . . . . . . . . . . . . . 13
1.5 Quelques dénombrements utiles . . . . . . . . . . . . 15
1.6 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 17

2 Ensembles dénombrables 25
2.1 Ensembles dénombrables . . . . . . . . . . . . . . . . 26
2.2 Familles sommables de réels positifs . . . . . . . . . 28
2.3 Famille sommable d’éléments de K (cas général) . . 30
2.4 Suites doubles sommables . . . . . . . . . . . . . . . 32
2.5 Groupements de termes . . . . . . . . . . . . . . . . . 33

3 Espaces probabilisés 35
3.1 Espaces probabilisables . . . . . . . . . . . . . . . . . 36
3.2 Espaces probabilisés . . . . . . . . . . . . . . . . . . . 37
3.3 Probabilité conditionnelle . . . . . . . . . . . . . . . 41
3.4 Indépendance d’événements . . . . . . . . . . . . . . 44
3.5 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 46

4 Variables aléatoires réelles discrètes 53


4.1 Généralités sur les variables aléatoires discrètes . . 54
4.1.1 Définition et propriétés . . . . . . . . . . . . . 54
3
TABLE DES MATIÈRES TABLE DES MATIÈRES

4.1.2 Loi d’une v.a.r.d . . . . . . . . . . . . . . . . . 55


4.1.3 Fonction de répartition . . . . . . . . . . . . . 56
4.1.4 Fonction d’une variable aléatoire . . . . . . . 58
4.2 Moments d’une v.a.r.d . . . . . . . . . . . . . . . . . . 58
4.3 Lois discrètes usuelles . . . . . . . . . . . . . . . . . . 61
4.3.1 Lois discrètes finies . . . . . . . . . . . . . . . 61
4.3.2 Lois discrètes infinies . . . . . . . . . . . . . . 63
4.4 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 64

5 Suites de variables aléatoires discrètes 77


5.1 Couple de v.a.r.d discrètes . . . . . . . . . . . . . . . . 78
5.2 Indépendance de variables aléatoires réelles discrètes 81
5.3 Fonction de deux v.a.r.d . . . . . . . . . . . . . . . . . 82
5.4 Somme de variables aléatoires réelles discrètes . . . 85
5.5 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 86

6 Variables aléatoires à densité 99


6.1 Notion de variable aléatoire à densité . . . . . . . . . 100
6.2 Moments d’une variable aléatoire à densité . . . . . 104
6.3 Lois usuelles . . . . . . . . . . . . . . . . . . . . . . . 107
6.4 Exemples de fonctions d’une variable à densité . . . 112
6.4.1 Cas où g est affine . . . . . . . . . . . . . . . . 112
6.4.2 Cas de la fonction carrée . . . . . . . . . . . . 113
6.4.3 Cas de la fonction exponentielle . . . . . . . . 114
6.5 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 115

7 Convergences et approximations 131


7.1 Des inégalités remarquables . . . . . . . . . . . . . . 132
7.2 Convergence d’une suite de VAR . . . . . . . . . . . 134
7.3 Approximation de variables aléatoires . . . . . . . . 137
7.4 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 140

8 Estimations 149
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 150
Mr.Faress Moussa 4 TABLE DES MATIÈRES
8.2 Estimation ponctuelle . . . . . . . . . . . . . . . . . . 150
8.3 Intervalle de confiance . . . . . . . . . . . . . . . . . . 152
8.4 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 154

9 Sujets et extraits de concours 159


Chapitre 1

Combinatoire élémentaire


vv Objectifs vv
Ce chapitre est introduit essentiellement en vue de son utilisation en pro-
babilités ; rattaché aux mathématiques discrètes, le dénombrement interagit
également avec l’algèbre et l’informatique. Il permet de modéliser certaines
situations combinatoires et offre un nouveau cadre à la représentation de cer-
taines égalités . Les objectifs de ce chapitre sont :
û Définir le cardinal d’ensemble fini .
û Étudier les propriétés du cardinaux.
û Dénombrer les ensembles classiques .
û Étudier quelques propriétés des coéfficients binomiaux.
Combinatoire élémentaire Les ensembles finis .

1.1. Les ensembles finis .


Définition 1.1 . Ensembles équipotents
Deux ensembles E et F non vide sont dits équipotents s’il existe une bijection de E sur F.
On note E ≈ F.

Remarque : La relation ”E ≈ F” est une relation d’équivalence.


Exemples : 1/ Les ensembles { a, b, c} et {1, 2, 3} sont équipotente via la bijection f définie par :
f ( a) = 1 ; f (b) = 2 et f (c) = 3.

2/ N et N sont équipotente via la bijection s : n 7−→ n + 1.

n/2 si n pair
3/ N et Z sont équipotente via la bijection h : n 7−→ .
−(n + 1)/2 sinon
Notation : Pour n ∈ N∗ , on note Nn = [ 1, n] = {1, 2, . . . , n} l’ensemble des naturels non nuls inférieurs à
n. On note aussi N0 l’ensemble vide.

Proposition 1.1 . Un bon exemple


Soit p ∈ N\{0, 1} et c ∈ N p . L’application h : N p \{c} −→ N p−1 définie par :

x si 1 6 x < c
h( x) =
x − 1 si c < x 6 p
est une bijection de N p \{c} sur N p−1 .

Théorème 1.1 . Caractérisation des bijections


Soient n et p deux entiers naturels non nuls.
• S’il existe une injection de N p dans Nn alors p 6 n. La réciproque est vraie.
• S’il existe une surjection de N p dans Nn alors p > n. La réciproque est vraie.
• S’il existe une bijection de N p dans Nn alors n = p.

Preuve :
La propriété relative à l’existence de bijection de N p vers Nn découle immédiatement des deux pré-
cédentes, il ne reste qu’à établir celles-ci...
Par récurrence sur p ∈ N, montrons que pour tout n ∈ N, s’il existe une injection de N p dans Nn
alors p = n. Pour p = 0, la propriété p = n est vérifiée. Supposons la propriété établie au rang
p = 0. Supposons qu’il existe une injection f de N p+1 dans Nn pour un certain n ∈ N. A partir de
celle-ci construisons une injection g de N p+1 dans Nn vérifiant g( p + 1) = n. Cas f ( p + 1) = n :
g = f convient. Cas f ( p + 1) 6= n : introduisons l’application τ de Nn dans lui-même qui a pour
seul effet d’échanger les éléments n et f ( p + 1), cette application τ est clairement bijective. Considé-
rons ensuite g = τ o f , c’est une application injective par composition d’injections et par construction
g( p + 1) = τ ( f ( p + 1)) = n Nous sommes donc parvenu à construire une application g comme vou-
lue. Exploitons celle-ci. Considérons l’application h : N p → Nn−1 définie par h( x) = g( x) pour tout
x ∈ N p . Comme g est injective, n ne peut avoir d’autres antécédents que p + 1 par g et l’application h
ci-dessus est bien définie à valeurs dans Nn−1 . De plus, g étant injective, l’application h : N p → Nn−1 ,
qui n’est en fait qu’une restriction de g, l’est aussi. On peut alors appliquer l’hypothèse de récurrence
pour conclure p = n − 1 i.e. p + 1 = n. Récurrence établie.
Étudions maintenant les surjections de N p sur Nn . Supposons qu’il existe une surjection f de N p
sur Nn . A partir de celle-ci, nous allons construire une injection de Nn dans N p ce qui permettra de
conclure. Pour chaque y ∈ Nn , on peut dire que l’ensemble f −1 ({ y}) est non vide car f est sur-

Mr.Faress Moussa 8 Combinatoire élémentaire


Les ensembles finis . Combinatoire élémentaire

jective. Considérons alors x y un élément quelconque de cet ensemble (par exemple, le plus petit :
x y = min( f −1 ({ y}))). Considérons ensuite l’application g : Nn → N p définie par g( y) = x y pour
tout y ∈ Nn . Montrons qu’elle est injective. Pour tout y ∈ Nn , f ( g( y)) = f ( x y ) = y car x y est
un antécédent de y ; ainsi f og = IdNn . L’application f og étant injective, l’application g l’est aussi. On
peut donc conclure à l’existence d’une injection de Nn dans N p et, par l’étude qui précède, on obtient
n = p. 

Définition 1.2 . Ensemble fini


◦ Un ensemble E est dit fini s’il existe n ∈ N tel que E ' Nn .
◦ Par le théorème qui précède, on peut affirmer que ce naturel n est unique, on l’appelle le cardinal de
l’ensemble E et on le note card( E) (ou encore | E|). On écrit ainsi card( E) = n.
◦ Lorsqu’un ensemble E n’est pas fini, on dit qu’il est infini. On pose alors card( E) = +∞.

Exemples : 1/ card(Nn ) = n et card(N) = +∞.


2/ card({0, 1, . . . , n}) = n + 1. On le justifie en introduisant la bijection s : {0, . . . , n} →
Nn+1 définie par s(k) = k + 1. Plus généralement, on obtient ∀ a, b ∈ Z , card([[ a, b] ) =
b − a + 1.
3/ card(∅) = 0 , card({ a}) = 1 et card({ a, b}) = 1 si a = b et = 2 sinon.
Remarque : La connaissance du cardinal d’un ensemble fini non vide E permet de décrire celui-ci par
indexation de ses éléments. En effet, on peut introduire une bijection ϕ : Nn → E. Pour
tout 1 6 i 6 n, posons xi = ϕ(i ). Puisque l’application ϕ est surjective, on peut écrire E =
{ x1 , . . . , xn } et puisque ϕ est injective, les éléments x1 , . . . , xn sont deux à deux distincts.
Finalement, lorsque E est un ensemble fini à n ∈ N∗ éléments, on peut indexer ceux-ci de
sorte d’écrire E = { x1 , . . . , xn } avec des xi deux à deux distincts.

Théorème 1.2 . Cardinal d’une réunion d’ensembles disjoints


Soit A et B deux ensembles disjoints. Si A et B sont finis alors leur union A ∪ B l’est aussi et on a :

card( A ∪ B) = card( A) + card( B)

Preuve :
Posons n = card( A) et p = card( B). Si n = 0 ou p = 0 : ok Sinon écrivons A = { x1 , . . . , xn } avec
des xi deux à deux distincts et B = { y1 , . . . , y p } avec des y j deux à deux distincts. Comme A et B
sont supposés disjoints, les xi sont distincts des y j . Considérons alors l’application ϕ : Nn+ p → A ∪ B
déterminée par :
i 1 2 ... n n+1 ... n+ p
ϕ (i ) x 1 x 2 . . . x n y1 ... yp
Il est immédiat d’observer que ϕ est une bijection de Nn+ p vers A ∪ B ce qui permet de conclure. 

Corollaire : Soit ( Ai )16i6n une famille finie d’ensembles deux à deux disjoints.
! Si tous les Ai sont des
n
[ n
[ n
ensembles finis alors l’union Ai l’est aussi et card Ai = ∑ card( Ai ).
i =1 i =1 i =1

Combinatoire élémentaire 9 Mr.Faress Moussa


Arrangements et combinaisons . Combinatoire élémentaire

Théorème 1.9 . Ensembles de parties


Si E est un ensemble fini alors l’ensemble P ( E) des parties de E l’est aussi et card (P ( E)) = 2card(E) .

Méthode :
Pour constituer une partie A d’un ensemble E = { x1 , . . . , xn } avec x1 , . . . , xn deux à deux distincts :
• on choisit si x1 ∈ A ou non : 2 possibilités ;
• on choisit si x2 ∈ A ou non : 2 possibilités ;
.........
• on choisit si xn ∈ A ou non : 2 possibilités.
Au total, cela offre 2n possibilités de construction et autant parties de E.

1.4. Arrangements et combinaisons .


Définition 1.3 . Arrangements
On appelle arrangement de p éléments d’un ensemble E tout p-uplet ( x1 , . . . , x p ) formé d’éléments de
E deux à deux distincts.

Exemple : Soit E = { a, b, c, d} avec a, b, c, d deux à deux distincts. Les arrangements de trois éléments
de E sont les triplets : ( a, b, c), ( a, c, b), ( a, b, d), ( a, d, b), ( a, c, d), ( a, d, c), (b, c, d), (b, d, c),
(b, d, a), (b, a, d), (b, c, a), (b, a, c), (c, d, a), (c, a, d), (c, a, b), (c, b, a), (c, d, b) et (c, b, d).
Remarque : Si p > card( E), il n’existe pas d’arrangements possibles de p éléments de E.

Théorème 1.10 . Nombre d’arrangements


Soit E un ensemble fini de cardinal n ∈ N et p ∈ N tels que p 6 n.
n!
Il existe exactement n × (n − 1) × · · · × (n − p + 1) = arrangements de p éléments de E.
(n − p)!

Méthode :
Pour constituer un arrangement ( x1 , . . . , x p ) de E :
• on choisit x1 dans E : n possibilités ;
• on choisit x2 dans E\{ x1 } : n − 1 possibilités ;
.........
• on choisit x p dans E\{ x1 , . . . , x p−1 } : n − p + 1 possibilités.
Au total, cela offre n × (n − 1) × · · · × (n − p + 1) possibilités de construction et autant d’arrange-
ments de p éléments de E.

Théorème 1.11 . Nombre d’injections


Soit E et F deux ensembles finis. On pose p = card( E) et n = card( F ).
• Si card( E) > card( F ) , alors il n’existe pas d’injections de E dans F.
• Si card( E) 6 card( F ) , alors il existe exactement autant d’injections de E dans F que d’arrangements
de card( E) éléments de F. Autrement dit, il existe exactement n × (n − 1) × · · · × (n − p + 1) =

Combinatoire élémentaire 13 Mr.Faress Moussa


Combinatoire élémentaire Arrangements et combinaisons .

n!
injections de E dans F.
(n − p)!

Méthode :
Pour construire une injection de E = { x1 , . . . , x p } dans F :
• on choisit f ( x1 ) dans F : n possibilités ;
• on choisit f ( x2 ) dans F \{ f ( x1 )} : n − 1 possibilités ;
.........
• on choisit f ( x p ) dans F \{ f ( x1 ), . . . , f ( x p−1 )} : n − p + 1 possibilité.
Au total , il y a n × (n − 1) × · · · × (n − p + 1) possibilités de construction et autant d’injections de E
dans F.

Définition 1.4 . Permutation


Rappelons qu’on appelle permutation d’un ensemble E toute bijection de E dans E. L’ensemble des
permutations de E est noté S( E).

Théorème 1.12 . Nombre de permutations


Si E est un ensemble fini à n éléments, il y a exactement n! permutations de E.
Autrement dit card(S( E)) = (card( E))!

Définition 1.5 . Combinaison


On appelle combinaison de p éléments d’un ensemble E toute partie de E à p éléments.

Exemple : Soit E = { a, b, c, d} avec a, b, c, d deux à deux distincts. Les combinaisons de trois éléments
de E sont les parties { a, b, c}, { a, b, d}, { a, c, d} et {b, c, d}

Théorème 1.13 . Nombre de combinaisons


 
n n!
Soit E un ensemble fini à n ∈ N éléments et p ∈ N tel que p 6 n. Il y a exactement =
  p p!(n − p)!
n
combinaisons possibles de p éléments de E. Autrement dit : il y a exactement parties à p éléments
p
dans un ensemble à n éléments.

 
n
Remarque : En exploitant les coefficients binomiaux généralisés pour lesquels = 0 si p < 0 ou
  p
n
p > n, on peut encore dire qu’il y a exactement parties à p éléments dans un ensemble
p
à n, et ce, pour tout p ∈ Z.

Mr.Faress Moussa 14 Combinatoire élémentaire


Quelques dénombrements utiles . Combinatoire élémentaire

Proposition 1.4 . Formule de Pascal


   
n n
→ Pour tous entiers n et p avec 0 6 p 6 n, on a : = .
p n−p
n−1 n−1
     
n
→ Pour tous entiers n et p avec 1 6 p 6 n − 1, on a : = + .
p p−1 p

D’où le tableau suivant , appelé le triangle de Pascal pour calculer les coéfficients binomiaux

p=0 p=1 p=2 p=3 p=4 p=5 p=6 ... ...


n=0 1
n=1 1 1
n=2 1 2 1
n=3 1 3 3 1
n=4 1 4 6 4 1
n=5 1 5 10 10 5 1
n=6 1 6 15 20 15 6 1
.. .. ..
. . .
.. .. ..
. . .

Proposition 1.5 . Autres formules


Sous réserve que les coefficients ci-dessous soient définis, On a les égalités suivantes :
Anp n−p n n n−1 n−1
             
n n n n n
= ; = ; = ; =
p p! p+1 p+1 p p p p−1 p n−p p

Proposition 1.6 . Binôme de Newton


Pour tous x et y de C et tout 
n de
 N, on a :
n n   n
 
n k n−k n n
( x + y)n = ∑ x y ; ( x + 1)n = ∑ k xk ; 2n = ∑ k
k=0
k k=0 k=0

1.5. Quelques dénombrements utiles .


A. Nombre d’anagrammes :
Un mot M de n lettres est écrit avec p caractères différents A1 , . . . , A p . Le caractère Ak apparaît nk
fois à l’intérieur du mot M (et donc n1 + · · · + n p = n ). Combien peut-on composer d’anagrammes
distincts du mot M ?
Solution :
En indexant les lettres du mot M, chacune des n! permutations de {1, . . . , n} permet de dé-
finir un anagramme de M. Cependant, les lettres n’étant pas distinctes, plusieurs permuta-
tions conduisent au même anagramme. Pour un anagramme donné, il y a n1 ! permutations
des lettres A1 conduisant au même anagramme. En étudiant de même les permutations des
n!
lettres A2 , . . . , A p , on obtient que le nombre d’anagrammes cherché est .
n1 ! . . . n p !

Combinatoire élémentaire 15 Mr.Faress Moussa


Chapitre 2

Ensembles dénombrables


vv Objectifs vv
L’objectif de ce chapitre est : Introduire la notion d’ensemble dénombrable
et de famille sommable de nombres réels ou complexes indexée par un tel
ensemble ; cette notion sera utile notamment pour l’étude des probabilités.
Ensembles dénombrables Ensembles dénombrables

Dans tout ce chapitre K = R ou C

2.1. Ensembles dénombrables


Définition 2.1 . Ensemble dénombrable
Un ensemble D est dit dénombrable si et seulement si il est équipotent à N. Il est dit au plus dénom-
brable si et seulement si il est équipotent à une partie de N.

Rappels :
• Deux ensembles E et F sont dits équipotents s’il existe une bijection f : E −→ F.
• Si E est un ensemble d’ensembles, alors la relation d’équipotence sur E est une relation d’équiva-
lence.
Exemples : 1/ Soit P (resp. I ) l’ensemble des entiers naturels pairs (resp. impairs).
Les applications f : N −→ P et g : N −→ I sont des bijections. Donc
n 7−→ 2n n 7−→ 2n + 1
P et I sont dénombrables.
2/ Tout ensemble fini est au plus dénombrable car il est équipotent à une partie de N de la
forme [ 1, n] où n ∈ N..
Remarque : Si D est un ensemble dénombrable (resp. au plus dénombrable) alors tout ensemble ∆
équipotent à D est dénombrable (resp. au plus dénombrable).

Proposition 2.1 .
Soit D une partie infinie de N. Alors l’application σ : N −→ D tel que :

σ (0) = min( P)
∀n > 0 , σ (n) = min ( P\{σ (0), . . . , σ (n − 1)})

est une bijection strictement croissante de N dans D (elle est unique).

Preuve :
Définissons par récurrence une suite ( pn )n d’éléments de D de la façon suivante :
Notons p0 le plus petit élément de D. Comme D est infinie, alors D \ { p0 } est non vide. Notons p1
son plus petit élément. Supposons définis les éléments p0 , p1 , . . . , pn de D. Comme D est infinie, alors
D \ { p0 , p1 , . . . , pn } est non vide. On définit alors l’entier pn+1 comme le plus petit élément de cet
ensemble .
L’application n 7−→ pn est une bijection strictement croissante de N sur D.
Si f est une bijection strictement croissante de N sur D alors f (0) = p0 . Puis par récurrence on montre
que f (n) = pn . 

Théorème 2.1 . Pour mieux démarrer


• Soit D une partie infinie de N. Il existe une bijection strictement croissante et une seule de N sur D .
• Toute partie infinie d’un ensemble dénombrable est dénombrable.
• Soit D un ensemble. Alors D est au plus dénombrable si et seulement si D est fini ou dénombrable.

Mr.Faress Moussa 26 Ensembles dénombrables


Familles sommables de réels positifs Ensembles dénombrables

Théorème 2.5 .
Soit ( ai )i∈ I et (bi )i∈ I deux familles de réels positifs telles que : ∀i ∈ I : ai 6 bi . Alors :
• Si (bi )i∈ I est sommable, il en est de même de ( ai )i∈ I et on a : ∑ ai 6 ∑ bi .
i∈ I i∈ I
• Si ( ai )i∈ I n’est pas sommable, il en est de même de (bi )i∈ I .

Preuve :
Analogue à celle des séries numériques à termes positifs. 

2 1
Exemples : 1/ I = N∗2 , ai j = , bi j = 2 . Comme la famille (bi j )(i, j)∈ I est sommable (d’après
+j 4 i4 i × j2
un exemple précédent), on a la famille ( ai j )(i, j)∈ I est sommable.
ln(i + 2) 1
2/ I = N∗ , bi = , ai = . La famille ( ai )i∈ I n’est pas sommable, il en est de même
i i
de la famille (bi )i∈ I .

Proposition 2.4 .
Soit ( ai )i∈ I et (bi )i∈ I deux familles de réels positifs indexée par I sommables. Soit c ∈ R+ . Alors :
→ La famille ( ai + bi )i∈ I est sommable, et on a : ∑ ( ai + bi ) = ∑ ai + ∑ bi .
i∈ I i∈ I i∈ I
→ La famille (c.ai )i∈ I est sommable, et on a : ∑ (c.ai ) = c. ∑ ai .
i∈ I i∈ I

Théorème 2.6 .
Soit ( Jn )n∈N une suite exhaustive de I . Soit ( ai )i∈ I une famille de réels positifs. Alors les propositions
suivantes sont équivalentes :
• La famille ( ai )i∈ I est sommable.
!
• La suite réelle ∑ ai est majorée.
i ∈ Jn
!n
• La suite réelle ∑ ai est convergente.
i ∈ Jn n ! !
De plus, dans ce cas : ∑ ai = sup ∑ ai = lim ∑ ai .
n ∈N n→+∞
i∈ I i ∈ Jn i ∈ Jn

1
Exemple : On prend : I = N∗2 , ai j = avec : r ∈ R donné. Soit Jn = {(i, j) ∈ I / i + j 6 n}.
(i + j )r [
On a : ( Jn )n est une suite croissante et que I = Jn .
  n

n n n
1  1 1
ai j =  = 1 = card{(i, j) ∈ I / i + j = k} =

∑ ∑  ∑ (i + j )r ∑ kr ∑ ∑ kr
(i, j)∈ Jn k=2 (i, j)∈ I k=2 (i, j)∈ I k=2
i + j=k i + j=k
n
k−1
∑ .
k=2
kr
n−1 1 n−1
Or r
∼ r−1 , donc ( ai j )(i, j) est sommable si et seulement si ∑ converge si et
n n n nr
seulement si r − 1 > 1 si et seulement si r > 2.
+∞
k−1
En outre dans ce cas : ∑ ai j = lim ∑ ai j = ∑ = ζ (r − 1 ) − ζ (r )
(i, j)∈ I
n→+∞
(i, j)∈ J k=1
kr
n

Ensembles dénombrables 29 Mr.Faress Moussa


Chapitre 3

Espaces probabilisés


vv Objectifs vv
Ce chapitre introduit essentiellement le vocabulaire relatif aux probabilités.
Les objectifs sont :
û Définir les espaces probabilisables .
û Étudier les propriétés d’une probabilité.
û Définir la probabilité conditionnelles .
û Définir les événements indépendants.
Espaces probabilisés Espaces probabilisables

3.1. Espaces probabilisables


Définition 3.1 . Expérience aléatoire
On appelle expérience aléatoire, toute expérience dont le résultat ne peut être déterminé a priori,
c’est-à -dire qui dépend du hasard.

Exemple : Si on lance un dé cubique dont les faces sont numérotées de 1 à 6 et que l’on note le résultat
on effectue une expérience aléatoire.
Dans la suite nous appellerons cette expérience, l’expérience (∗).

Définition 3.2 . Univers


On appelle univers d’ une expérience aléatoire, l’ensemble Ω des issues ou résultats possibles de
l’expérience. Les éléments de Ω se notent souvent ω.

Exemples : 1/ Dans l’exemple précédent, l’univers est Ω = {1, 2, 3, 4, 5, 6}.


2/ Lorsqu’on lance une pièce, l’univers est Ω = { pile, f ace}.
3/ Si on choisit 5 cartes dans un jeu de 32 cartes, l’univers est l’ensemble de tous les sous-
ensembles à 5 éléments des 32 cartes. Attention ici il n’y a pas d’ordre...
4/ Si on lance trois fois de suite un dé à 6 faces et que l’on note les trois résultats, on réalise
une expérience dont l’univers est Ω = {( x, y, z)/ x, y, z ∈ {1, 2, 3, 4, 5, 6}}. Attention ici
l’ordre est important.
5/ Si on choisit au hasard un réel compris entre 0 et 1, l’univers de l’expérience est [0; 1].

Définition 3.3 . Tribu/Espace probabilisable


Soient Ω un ensemble et A une partie de P (Ω), c’est-à-dire un ensemble de parties de Ω. On dit que
A est une tribu ou une σ-algèbre de parties de Ω si :
(i) Ω ∈ A.
(ii) Si A ∈ A alors A ∈ A.
[
(iii) Pour tout partie I de N, et toute famille ( Ai )i∈ I d’éléments de A, Ai ∈ A. On parle de la
i∈ I
stabilité par réunion dénombrable. Le couple (Ω, A) s’appelle un espace probabilisable.

Exemples : 1/ P (Ω) est une tribu de parties de Ω.


2/ A = {∅, Ω} est une tribu de Ω.
3/ Soit A une partie de Ω. A = {∅, A, A, Ω} est une tribu de Ω,

Proposition 3.1 . Propriétés des tribus


Soient Ω un ensemble et A une tribu de partie de Ω.
→ ∅ ∈ A.
→ Si A et B sont deux éléments de A, alors A ∪ B, A ∩ B et A \ B sont dans A.
\
→ Si I est une partie de N et si pour tout i ∈ I, Ai ∈ A alors Ai ∈ A.
i∈ I

Remarque : Une tribu est donc stable par passage au complémentaire et par réunion et intersection finie
ou dénombrable.
Lorsqu’on effectue une expérience aléatoire, certains faits liés à cette expérience peuvent se produire ou
non : on les appelle des événements. Dans l’expérience (∗), on peut par exemple considérer l’événement,
que nous noterons A1 , " le nombre obtenu est pair ". L’événement A1 est réalisé lorsque le résultat est 2, 4 ou
6. On écrit alors A1 = {2, 4, 6}.

Mr.Faress Moussa 36 Espaces probabilisés


Espaces probabilisés Espaces probabilisés

Définition 3.4 . Événements et événements élémentaires


◦ Si (Ω, A) est un espace probabilisable, les parties A de Ω éléments de la tribu A sont appelées
événement de l’univers .
◦ Les événements qui sont représentés par un singleton {ω} sont appelés des événements élémen-
taires.

En particulier :
◦ Un événement qui est toujours réalisé est appelé un événement certain, il est donc l’ensemble Ω.
◦ Un événement qui n’est jamais réalisé est appelé un événement impossible, il est donc l’ensemble
vide ∅.
Comme un événement est une partie de Ω, on peut appliquer aux événements tout le vocabulaire des
ensembles.
Terminologie ensembliste Terminologie probabiliste

L’ensemble vide ∅ Événement impossible

L’univers Événement certain

Un singleton {ω} où ω ∈ Ω Un événement élémentaire

Un sous-ensemble A de Ω Un événement

ω∈A Le résultat ω est une réalisation possible de A

A⊆B si A est réalisé, alors B est réalisé

Le complémentaire Ω\ A de A dans Ω Événement contraire de A

A∩B Réalisation simultanée de A et B

A∩B = ∅ Les événements A et B sont incompatibles

A∪B Réalisation de A ou B

( Ai )i∈ I une partition dénombrable de Ω ( Ai )i∈ I est un système complet d’événements de Ω

3.2. Espaces probabilisés


Soit E une expérience aléatoire. Tous les événements liés à e n’ont pas la même "chance" de se produire.
Pour essayer de " mesurer " cette chance, il nous faut répéter plusieurs fois l’expérience. Si on répète n
r
fois l’expérience, on compte le nombre r de fois où l’événement A se produit. Le réel est appelé fréquence
n
r
d’apparition de A ou fréquence de A, et on note f ( A) = . Voici les propriétés que vérifie f :
n
→ f ( A) ∈ [0; 1]
→ Si A et B sont deux événements incompatibles alors f ( A ∪ B) = f ( A) + f ( B)
→ f ( A) = 1 − f ( A)
→ f (Ω) = 1 et f (∅) = 0
Intuitivement, lorsque n tend vers +∞, f ( A) admet une limite finie. Cette limite s’appelle la probabilité
de A et on la note P( A).
Les univers que vous allez rencontrer ne seront pas tous finis. Lorsque Ω est infini la construction d’une
probabilité est un peu plus compliquée.

Espaces probabilisés 37 Mr.Faress Moussa


Espaces probabilisés Espaces probabilisés

1
Si tout les événements élémentaires sont équiprobables alors nécessairement on a : P({ωi }) =
. Grâce
n
card( A)
à la propriété précédente on en déduit que pour tout événement A : P( A) = ∑ P(ωi ) =
i /ω ∈ A
n
i
Exemple : Dans l’expérience (∗), l’événement A : " obtenir un nombre pair " est donc de probabilité
égale à :
3 1
P( A) = = .
6 2

Définition 3.8 . Système complet


Soit (Ω, A) un espace probabilisable. On appelle système complet d’événements de Ω toute famille
( Ai )i∈ I (I est une partie de N) d’éléments de A telle que :
(i) Les événements Ai sont deux à deux incompatibles
[
(ii) Ω= Ai
i∈ I

Exemple : Dans l’expérience (∗), on avait Ω = {1, 2, 3, 4, 5, 6}.


1/ La famille d’événements ({1}; {2}; {3}; {4}; {5}; {6}) est le système complet d’événe-
ment composé des événements élémentaires.
2/ On note A l’événement " obtenir un nombre pair ", et B l’événement " obtenir un nombre
impair ". Alors ( A, B) est un système complet d’événements. On dit aussi que les évé-
nements A et B forment un système complet d’événements.

Proposition 3.5 .
Soit ( Ai )i∈ I un système complet d’événements d’un espace probabilisé (Ω, A, P). Alors ∑ P( Ai ) = 1
i∈ I

Remarque : D’abord il faut montrer que la famille ( P( Ai ))i∈ I est sommable.

Théorème 3.2 . Propriété de la limite monotone


Soit (Ω, A, P) un espace probabilisé.
• Si ( An )n∈N est une suite croissante d’événements de A ( An ⊂ An+1 ) alors la suite ( P( An ))n∈N est
convergente et :

!
+
[
P An = lim P( An )
n→+∞
n=0
• Si ( An )n∈N est une suite décroissante d’événements de A ( An+1 ⊂ An ) alors la suite ( P( An ))n∈N est
convergente et :

!
+
\
P An = lim P( An ).
n→+∞
n=0

Remarque : Ce résultat est utile pour calculer la probabilité d’une union dénombrable.
Corollaire : Soit (Ω, A, P) un espace probabilisé. Si ( An )n∈N est une suite d’événements de A alors :
∞ ∞
! ! ! !
+
[ n
[ +
\ n
\
P Ak = lim P Ak et P Ak = lim P Ak
n→+∞ n→+∞
k=0 k=0 k=0 k=0

Exemple : On lance indéfiniment un dé équilibré On note A l’événement : " on n’obtient jamais de 6 ".
On note An l’événement "on n’a pas obtenu de 6 lors des n premiers lancers ". En supposant
les lancers indépendants P( An ) = (5/6)n . Puisque la suite ( An )n est décroissante, on a par
continuité P( A) = lim P( An ) = 0.

Mr.Faress Moussa 40 Espaces probabilisés


Probabilité conditionnelle Espaces probabilisés

3.3. Probabilité conditionnelle

Théorème 3.3 . Probabilité conditionnelle


Soit (Ω, A, P) un espace probabilisé et A un événement de probabilité non nulle. Pour tout événement
B, on pose :
P( A ∩ B)
PA ( B) = .
P( A)
Alors PA est une probabilité sur (Ω, A) appelée probabilité conditionnelle relative à A ou encore pro-
babilité sachant A. PA ( B) est parfois noté P( B/ A).

Remarques : 1/ On peut déduire de la définition P( A ∩ B) = P( A) × PA ( B).


P( B ∩ A)
2/ Si P( B) 6= 0, on peut aussi écrire PB ( A) = et donc P( B ∩ A) = P( B) × PB ( A)
P( B)
3/ Comme P( A ∩ B) = P( B ∩ A) on a P( A) × PA ( B) = P( B) × PB ( A)
4/ Le but de vos exercices est de vous faire " jouer " avec toutes ces égalités.
5/ Les propriétés calculatoires relatives aux probabilités sont aussi vraies pour les proba-
bilités conditionnelles.
Exemple : Un test sanguin est effectué sur 100 personnes que l’on classe suivant leur groupe sanguin
et leur facteur rhésus. On résume les résultats de ce test dans le tableau suivant :
PP
PP Groupe
PP sanguin
PP A B AB O
Rhésus PP
PP
Positif 30 7 3 35
Négatif 8 2 1 9
On choisit une personne au hasard sur ces 100 personnes. On s’interesse a l’événement B+ :
7
" la personne est du groupe sanguin B+ ". On a clairement P( B+ ) = .
100
+
Notons B l’événement : "la personne est du groupe sanguin B" et R l’événement : " la
personne est de facteur rhesus positif ". Calculer P( B/ R+ ) et P( R+ / B).
Solution :
Intuitivement, la probabilité qu’une personne soit du groupe sanguin B sachant qu’elle est de facteur
7 7
rhesus positif est P( B/ R+ ) = = .
30 + 7 + 3 + 35 75
On a donc bien P( B+ ) = P( B ∩ R+ ) = P( R+ ) P( B/ R+ ).
De même, intuitivement, la probabilité qu’une personne soit de facteur rhesus positif sachant qu’elle
7 7
est du groupe sanguin B est P( R+ / B) = = .
7+2 9
On a encore bien P( B+ ) = P( B ∩ R+ ) = P( B) P( R+ / B) .

Dans toute la suite (Ω, A, P) désigne un espace probabilisé et I une partie de N.

Théorème 3.4 . Formule des probabilités composées


Soit ( Ai )16i6n une famille d’événements
! tels que P( A1 ∩ A2 ∩ · · · ∩ An−1 ) 6= 0. Alors on a :
n
\
P Ai = P( A1 ) PA1 ( A2 ) PA1 ∩ A2 ( A3 ) . . . PA1 ∩ A2 ∩···∩ An−1 ( An )
i =1

Espaces probabilisés 41 Mr.Faress Moussa


Chapitre 4

Variables aléatoires réelles


discrètes


vv Objectifs vv
Ce chapitre introduit essentiellement le vocabulaire relatif aux variables aléa-
toires discrètes réelles. Ses objectifs sont :
û Définir les variables aléatoires discrètes réelles .
û Étudier les éléments caractéristiques d’une v.a.r.d .
û Étudier les v.a.r.d usuelles.
Variables aléatoires réelles discrètes Généralités sur les variables aléatoires discrètes

4.1. Généralités sur les variables aléatoires discrètes


4.1.1. Définition et propriétés

Définition 4.1 . Variable aléatoire


On appelle variable aléatoire réelle discrète (v.a.r.d) définie sur un espace probabilisable (Ω, A) toute
application X de Ω dans R telle que :
(i) L’ensemble des valeurs prises X (Ω) est fini ou dénombrable ;
(ii) Pour tout x ∈ X (Ω), la partie X −1 ({ x}) = {ω ∈ Ω/ X (ω) = x} est un élément de A.

Remarque : Dans ce cas on pose : X (Ω) = { xi /i ∈ I } avec I = N, Z ou une de leurs parties finies ou une
partie dénombrable quelconque.

Vocabulaire :
 X (Ω) est l’ensemble des valeurs prises par X.
 Si X (Ω) est un ensemble fini, on dit que X est une v.a.r.d finie. Sinon on dit que X est une v.a.r.d
infinie.

Exemple : Un joueur lance deux fois de suite un dé et note les deux nombres obtenus sous la forme
d’un couple : par exemple si le joueur obtient 2 puis 5, on note son résultat sous la forme
(2, 5). L’univers de notre expérience est Ω = [[1; 6]] × [[1; 6]].
On définit la v.a.r.d X qui à chaque couple associe la somme des deux nombres obtenus. Ici
on a X (Ω) = {2, 3, . . . , 12}. Donc X est une v.a.r.d finie.
Exemple : On effectue une succession de lancers d’un dé cubique jusqu’à obtenir 6. Soit X le nombre
de lancers effectués.
Il est très difficile ici de décrire l’univers de notre expérience mais on peut tout de même
donner très clairement X (Ω).
En étant rigoureux on devrait écrire : X (Ω) = N∗ ∪ {+∞} car il se peut que l’on obtienne
jamais 6. Mais on peut démontrer que la probabilité de ne jamais obtenir 6 est égale à 0,
c’est-à -dire que l’on obtiendra presque sûrement 6. On peut alors choisir de considérer que
X (Ω) = N∗ et donc X est une v.a.r.d infinie.

Proposition 4.1 . Plus général


Soit X une variable aléatoire réelle discrète définie sur un espace probabilisable (Ω, A). Pour toute
partie B de R, l’ensemble X −1 ( B) = {ω ∈ Ω / X (ω) ∈ B} est un événement de A que l’on notera
( X ∈ B ).

En particulier :
 Lorsque B = { a}, alors ( X ∈ { a}) se note ( X = a).
 Lorsque B =] − ∞, a], alors ( X ∈ B) se note ( X 6 a).
 Lorsque B = [ a, b[, alors ( X ∈ B) se note ( a 6 X < b).
 . . . . . ..
Exemple : Revenons au premier exemple où un joueur lance deux fois de suite un dé et X est la somme
des deux chiffres obtenus. On a
( X = 2) = {(1, 1)} ; ( X = 4) = {(1, 3), (2, 2), (3, 1)}
( X 6 5) = {(1, 1), (1, 2), (2, 1), (1, 3), (2, 2), (3, 1), (1, 4), (2, 3), (3, 2), (4, 1)}

Mr.Faress Moussa 54 Variables aléatoires réelles discrètes


Généralités sur les variables aléatoires discrètes Variables aléatoires réelles discrètes

4.1.2. Loi d’une v.a.r.d


Dans toute cette partie (Ω, A, P) est un espace probabilisé et X une v.a.r.d définie sur cet espace. On note
X (Ω) = { xi / i ∈ I } avec I = N, Z ou une de leurs parties finies (ou une partie au plus dénombrable dans
le cas général).

Définition 4.2 . Loi d’une v.a.r.d


Soit X une v.a.r.d définie sur un espace probabilisé (Ω, A, P). On appelle loi de probabilité de la
v.a.r.d X , ou distribution de X, l’application PX : X (Ω) −→ [0, 1]
x 7−→ P( X = x)

Méthodologie :
 Lorsque vous devez répondre à la question « déterminer la loi de X », il faut commencer par donner
clairement X (Ω) = { xk / k ∈ I }. Puis pour chaque k ∈ I il faut donner pk = P( X = xk ).
 Lorsque X (Ω) est fini et ne contient « pas trop » d’éléments, on peut présenter ses résultats sous forme
de tableau avec dans la première ligne les valeur de xk et dans la deuxième ligne P( X = xk ).
Exemple : (∗) : On choisit au hasard une carte dans un jeu de 52 cartes. Ω est l’ensemble des 52 cartes.
A chaque carte ω ∈ Ω, on associe le réel X (ω) défini par :
X (ω) = 4 si ω est un as X (ω) = 3 si ω est un roi
X (ω) = 2 si ω est une dame X (ω) = 1 si ω est un valet
X (ω) = 0 dans tous les autres cas.
Déterminons, alors, la loi de cette v.a.r.d X.
Solution :
• D’après l’énoncé X (Ω) = {0, 1, 2, 3, 4}.
• L’événement ( X = 0) est l’événement « obtenir un carte qui n’est pas un roi, une dame, un
valet ou un as ». Toutes les cartes ayant la même probabilité d’être choisies et comme il y a 36
36 9
cartes correspondant à notre événement on a : P( X = 0) = =
52 13
4 1
• L’événement ( X = 1) est l’événement « obtenir un valet » donc P( X = 1) = = .
52 13
4 1
• De même P( X = 2) = P( X = 3) = P( X = 4) = = .
52 13
Donc , on peut donner la loi de X sous la forme :
Valeur de X 0 1 2 3 4
9 1 1 1 1
Probabilité
13 13 13 13 13

Il faut aussi être capable, lorsqu’on vous donne des valeurs pour pk et xk , de déterminer si ces valeurs
sont la loi d’une v.a.r.d :

Théorème 4.1 . Germe de probabilité


Soit {( xk , pk ) / k ∈ I } une partie au plus dénombrable de R2 . Si
◦ pour tout k ∈ I, pk > 0, et
◦ ∑ pk = 1 (sous condition de convergence lorsque I est infini),
k∈ I
alors il existe un espace probabilisé (Ω, A, P) et une v.a.r.d X définie sur (Ω, A) tels que

P( X = xk ) = pk , ∀k ∈ I

Variables aléatoires réelles discrètes 55 Mr.Faress Moussa


Variables aléatoires réelles discrètes Lois discrètes usuelles

Preuve :
n n
1 1 n(n + 1) n+1
• E( X ) = ∑ kP(X = k) = ∑ k × n = n × =
k=1 k=1
2 2
• On sait que V ( X ) = E( X ) − E( X )2 .
2
n n
1 1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
Or E( X 2 ) = ∑ k2 P( X = k) = ∑ k2 × n = n × =
k=1 k=1
6 6
(n + 1)(2n + 1) (n + 1)2 n2 − 1
Donc V ( X ) = − = .
6 4 12


v Loi de Bernoulli (ou indicatrice d’événement) :


Situation : On considère une expérience aléatoire E et A un événement lié à cette expérience tel que
P( A) = p. On définit alors la variable aléatoire X en posant X = 1 si A est réalisé et X = 0 sinon.
X est une v.a.r.d qui prend les valeurs 0 et 1 avec la probabilité P( X = 0) = 1 − p et P( X = 1) = p.
C’est donc une expérience de type succès-échec (pile ou face, tirage d’une boule noire ou blanche....).

Définition 4.11 . Loi de Bernoulli


Soit p ∈ [0; 1]. On dit qu’une v.a.r.d X suit la loi de Bernoulli de paramètre p (notée B(1, p)) si :
X (Ω) = {0; 1} et P( X = 0) = 1 − p et P( X = 1) = p

Proposition 4.12 . Espérance et variance de B( p)


Si X suit une loi de Bernoulli alors : E( X ) = p et V ( X ) = p ( 1 − p ).

v Loi binomiale (ou des tirages avec remise) :


Situation : On considère une expérience E et on considère un événement A lié à E tel que P( A) = p.
On suppose que l’on effectue n fois l’expérience E dans les même conditions et on considère X le
nombre de fois où A est réalisé au cours de ces n expériences identiques. X prend donc les valeurs
0, 1, ..., n.
Soit k ∈ [[0; n]]. On cherche à calculer P( X
=  k) c’est-à -dire la probabilité que A soit réalisé k fois
n
exactement. Parmi les n expériences, il y a façon de placer les k fois où A est réalisé. Chacun de
  k  
n k n−k n k
ces événement est réalisé avec la probabilité p (1 − p) . On a donc : P( X = k) = p (1 −
k k
p )n−k .

Définition 4.12 . Loi binomiale


Soit p ∈ [0; 1] et n ∈ N. On dit que la v.a.r.d X suit la loi binomiale de taille n et de paramètre p
(notée B(n, p)) si :
 
n k
X (Ω) = {0, 1, . . . , n} = [[0; n]] et ∀k ∈ [[0; n]] P( X = k) = p ( 1 − p )n−k
k

Une v.a.r.d qui suit une loi binomiale est une v.a.r.d qui « compte le nombre de réalisation d’un
événement A de probabilité p au cours de n expériences identiques. »

Mr.Faress Moussa 62 Variables aléatoires réelles discrètes


Lois discrètes usuelles Variables aléatoires réelles discrètes

Proposition 4.13 . Espérance et variance de B(n, p)


Soit X une v.a.r.d qui suit la loi B(n, p). Alors on a : E( X ) = np et V ( X ) = np(1 − p)

Théorème 4.5 . Somme de v.a.r.d de Bernoulli


La somme de n v.a.r.d de Bernoulli indépendantes, de même paramètre p, suit la loi binomiale
B(n, p).

v Loi hypergéométrique (ou des tirages sans remise) :


Situation : On considère une boite dans laquelle sont placées N boules : il y a M boules blanches et
N − M boules rouges. On effectue alors n tirages sans remise (n 6 N) et on appelle X le nombre de
boules blanches obtenues. X prend la valeur k si : 0 6 k 6 M et 0 6 n − k 6 N − M, c’est-à-dire si
max(0, n − N + M) 6 k 6 min( M, n)
Toutes les façons de tirer n boules parmi les N sont équiprobables donc on peut calculer la proba-
nombre de cas favorables
bilité P( X = k) grâce à la formule
nombre de cas possibles
 
N
• Tout d’abord il y a façon de choisir n boules parmi les N.
n
• Un cas favorable signifie que l’on a choisit k boules blanches M et n − k boules rouges
parmi les 
N−M
 
M
parmi les N − M. Donc le nombre de cas favorables est .
k n−k
( M)( N − M)
• On a donc : P( X = k) = k Nn−k
(n)

Définition 4.13 . Loi hypergéométrique


Soit N et n des entiers tels que n 6 N et p ∈ [0; 1] tel que N p est un entier. On dit qu’une v.a.r.d
X suit la loi hypergéométrique de paramètres N, n, p (notée H( N, n, p)) si :
( N p).( N − N p)
X (Ω) = [[max(0, n − N + M); min( M, n)]] ∀k ∈ X (Ω), P( X = k) = k N n−k
(n)

Proposition 4.14 .
Si X suit la loi hypergéométrique H( N, n, p) alors : E( X ) = np.

4.3.2. Lois discrètes infinies


v Loi géométrique (ou loi d’attente d’un premier succès dans un processus sans mémoire) :
Situation : On considère une expérience aléatoire E et un événement A lié à E tel que P( A) = p.
On répète l’expérience E dans des conditions identiques (les expériences sont indépendantes) et on
appelle X le nombre d’épreuves effectuées jusqu’à ce que A soit réalisé pour la première fois.
On note Ai l’événement « A est réalisé au cours de la iième expérience ».
+
\ ∞
Soit R l’événement « A ne réalise jamais ». On a R = Ai . Donc
i =1
!
n
= lim (1 − p)n = 0
\
P( R) = lim P Ai
n→+∞ n→+∞
i =1

Variables aléatoires réelles discrètes 63 Mr.Faress Moussa


Exercices et Problèmes. Variables aléatoires réelles discrètes

On suppose le jeu constitué de 32 cartes (n = 16).


Déterminer, selon les valeurs de a, le protocole le plus favorable au joueur. Justifier la réponse.

Solution :
On note Rk l’événement « la carte obtenue au kième essai est un roi rouge ».
I. Premier protocole
1/ • On peut au mieux obtenir le premier roi rouge à la première carte et au pire on obtiendra forcé-
ment un roi rouge à la (2n − 1)ième carte. Donc X (Ω) = [[1; 2n − 1]].
• Pour tout k ∈ X (Ω), si k 6= 1, on peut écrire l’événement [ X = k] de la façon suivante :

[ X = k] = R1 ∩ R2 ∩ ... ∩ Rk−1 ∩ Rk

A l’aide de la formule des probabilités composées, on peut calculer :

2n − 2 2n − 3 2n − k 2
P( X = k) = × × ... × ×
2n 2n − 1 2n − k + 2 2n − k + 1
2n − k
=
n(2n − 1)

2 1
De plus P( X = 1) = P( R1 ) = = . (On remarque que la formule du dessus fonctionne en fait
2n n
aussi pour k = 1.)
2/ X est une VAR discrète finie, donc X admet une espérance et :
2n−1
E( X ) = ∑ kP( X = k)
k=1
2n−1 2n−1
2n 1
=
n(2n − 1) k∑
k −
n ( 2n − 1 ) ∑ k2
=1 k=1
2n (2n − 1)2n 1 (2n − 1)(2n)(4n − 1)
= × − ×
n(2n − 1) 2 n(2n − 1) 6
4n − 1
= 2n −
3
2n + 1
=
3

3/ On peut exprimer G1 en fonction de X, par G1 = a − X car lorsque X = k cela signifie qu’on a


retourné k cartes donc on a perdu k euros et qu’on a eu le roi rouge donc qu’on a gagné a euros.
2n + 1
Donc E( G1 ) = a − E( X ) et donc E( G1 ) = a − .
3
II. Deuxième protocole
2n − k
1/ Lorsque G2 = a − k, cela signifie que X = k, donc P( G2 = a − k) = P( X = k) =
n(2n − 1)
n
2/ Comme la somme totale des probabilité doit valoir 1, on a P( G2 = −n) = 1 − ∑ P(G2 = a − k).
k=1
n n
2n k 2n × n n(n + 1) 4n − (n + 1)
Or ∑ P( G2 = a − k) = ∑ − = − = =
k=1 k=1
n(2n − 1) n(2n − 1) n(2n − 1) 2n(2n − 1) 2(2n − 1)
3n − 1
2(2n − 1)
3n − 1 n−1
Donc on en déduit que P( G2 = −n) = 1 − = .
2(2n − 1) 2(2n − 1)

Variables aléatoires réelles discrètes 69 Mr.Faress Moussa


Variables aléatoires réelles discrètes Exercices et Problèmes.

3/
n
E( G2 ) = ∑ (a − k)P(G2 = a − k) − nP(G2 = −n)
k=1
n
1 n(n − 1)
= ∑ ( a − k)(2n − k) −
n(2n − 1) k=1 2(2n − 1)
n 
1  n(n − 1)
= ∑ 2an − ( a + 2n)k + k2 −
n(2n − 1) k=1 2(2n − 1)
2an a + 2n n(n + 1) 1 n(n + 1)(2n + 1) n(n − 1)
= ×n− × + × −
n(2n − 1) n(2n − 1) 2 n(2n − 1) 6 2(2n − 1)
12an − 3( a + 2n)(n + 1) + (n + 1)(2n + 1) − 3n(n − 1)
=
6(2n − 1)
3a(4n − n − 1) − 6n − 6n + 2n2 + 3n + 1 − 3n2 + 3n
2
=
6(2n − 1)
2
3a(3n − 1) − (7n − 1)
=
6(2n − 1)

III-Comparaison des deux protocoles


141a − 1791 47 597
Avec n = 16, on obtient E( G1 ) = a − 11 et E( G2 ) = = a−
186 62 62
On cherche à comparer selon les valeurs de a, E( G1 ) et E( G2 ). On calcule donc

15 85
E( G1 ) − E( G2 ) = a−
62 62
85
On voit donc que si a > ≈ 5, 6 alors le premier protocole est le plus favorable. Dans le cas contraire
15
c’est le deuxième protocole qui est le plus favorable.

Exercice .7 :
On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la probabilité d’obtenir face est
1
égale à .
3
Les lancers sont supposés indépendants. On note X la variable aléatoire réelle égale au nombre de lancers
nécessaires pour l’obtention pour la première fois de deux piles consécutifs. Soit n un entier naturel non
nul. On note pn la probabilité de l’événement [ X = n].
On note de plus Fi l’événement « obtenir face au iième lancer ».
1/ Expliciter les événements [ X = 2], [ X = 3], [ X = 4], [ X = 5] à l’aide des événements Fi et Fi
Déterminer la valeur de p1 , p2 , p3 , p4 , p5 .
2/ A l’aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du premier
lancer, montrer que :
2 1
∀n > 3, pn = pn−2 + pn−1
9 3
3/ En déduire l’expression de pn en fonction de n, pour n > 1.
4/ Calculer E( X ).

Solution :
2 2 4
1/ — [ X = 2] = F1 ∩ F2 donc p2 = × = (car les lancers sont indépendants)
3 3 9
4
— [ X = 3] = F1 ∩ F2 ∩ F3 donc p3 =
27

Mr.Faress Moussa 70 Variables aléatoires réelles discrètes


Chapitre 5

Suites de variables aléatoires


discrètes


vv Objectifs vv
Ce chapitre introduit les propriétés des couples de variables aléatoires dis-
crètes réelles. Ses objectifs sont :
û Définir les lois des couples de variables aléatoires discrètes réelles .
û Étudier les variables aléatoires discrètes réelles indépendantes.
û Étudier la fonction de deux variables aléatoires discrètes réelles.
Suites de variables aléatoires discrètes Couple de v.a.r.d discrètes

5.1. Couple de v.a.r.d discrètes


 Dans toute cette partie X et Y désigneront deux variables aléatoires discrètes discrètes définies sur un
même espace probabilisé (Ω, A, P).
 On notera X (Ω) = { xi / i ∈ I } et Y (Ω) = { y j / j ∈ J } où I et J désignent des ensembles finis ou
dénombrables ( Par exemple N, Z ou une de leurs parties finies ).

Définition 5.1 . Couple de v.a.r.d


L’application ( X, Y ) : Ω −→ R2 est appelé le couple des deux v.a.r.d X
ω 7−→ ( X, Y )(ω) = ( X (ω), Y (ω))
et Y. C’est une v.a.r.d de Ω dans R2 .

Remarque : On prolonge de la même façon la définition précédente à un nombre fini de variables aléa-
toires discrètes.

Définition 5.2 . Loi du couple de v.a.r.d


On appelle loi du couple de v.a.r.d ( X, Y ), ou encore loi conjointe des variables aléatoires X et Y,
l’application P(X,Y ) : X (Ω) × Y (Ω) −→ [0, 1] . C’est une pro-
( x, y) 7−→ P (( X = x) ∩ (Y = y)) := P( X = x, Y = y)
babilité sur une tribu de X (Ω) × Y (Ω).

Remarques : Lorsqu’on vous demande la loi du couple ( X, Y ) il faut toujours commencer par rappeler
X (Ω), Y (Ω) puis il faut donner la valeurs de P( X = xi , Y = y j ) où xi ∈ X (Ω) et y j ∈
Y ( Ω ).

Théorème 5.1 . Germe de probabilité


Soit ( xi , y j , pi j ) / (i, j) ∈ I × J une partie au plus dénombrable de R3 . Si


◦ pour tout (i, j) ∈ I × J, pi j > 0, et


◦ la famille ( pi j )(i, j)∈ I × J est sommable de somme égale à 1,
alors il existe un espace probabilisé (Ω, A, P) et deux v.a.r.d X et Y définies sur (Ω, A) tels que

P( X = xi , Y = y j ) = pi j , ∀(i, j) ∈ I × J

Exemple : Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est p ∈]0; 1[
et la probabilité d’obtenir face est q = 1 − p, on note X le rang d’apparition du premier pile
et Y le rang d’apparition du deuxième pile. Déterminer la loi du couple ( X, Y ).
Solution :
• On a X (Ω) = N∗ et Y (Ω) = N \ {0, 1}. Soit i ∈ X (Ω) et j ∈ Y (Ω).
• Il est impossible que le deuxième pile arrive avant le premier donc si i > j on a :
P( X = i, Y = j) = 0
• Si i < j, on a ( X = i) ∩ (Y = j) = F1 ∩ · · · ∩ Fi−1 ∩ Pi ∩ Fi+1 ∩ · · · ∩ Fj−1 ∩ Pj et les lancers sont
indépendants donc on a : P( X = i, Y = j) = qi−1 × p × q j−i−1 × p = q j−2 p2

Exemple : Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues. On extrait 3 boules
de l’urne. On note X le nombre de boules blanches parmi ces 3 boules et Y le nombre de
boules rouges. Déterminer la loi du couple ( X, Y ).

Mr.Faress Moussa 78 Suites de variables aléatoires discrètes


Fonction de deux v.a.r.d Suites de variables aléatoires discrètes

• Z (Ω) = {0; 1; 2; 3; 4; 6} et
Valeur de Z 0 1 2 3 4 6
51 2 3
Probabilité 0 0 0
84 7 28

Si on a calculé la loi de Z = g( X, Y ) alors on peut calculer l’espérance de façon classique mais si on n’a
pas déterminé clairement la loi de Z alors le théorème suivant peut aider...

Théorème 5.2 . Théorème de Transfert


E( g( X, Y )) = ∑ g( x, y) P( X = x, Y = y)
( x,y)∈ X (Ω)×Y (Ω)

Remarque : Il faut donc connaître la loi du couple ( X, Y ) pour utiliser ce théorème.

Proposition 5.7 . Inégalité de Cauchy-Schwarz


Soient X et Y deux variables aléatoires réelles discrètes sur un espace probabilisé (Ω, A, P), ayant
chacune un moment d’ordre 2. Alors l’espérance de XY existe et E( XY )2 6 E( X 2 ) E(Y 2 ) .

de plus on a :

Proposition 5.8 .
→ E( XY ) = ∑ xyP( X = x, Y = y).
( x,y)∈ X (Ω)×Y (Ω)
→ Si X et Y sont indépendantes alors E( XY ) = E( X ) E(Y ). La réciproque est fausse. Ce n’est pas parce
que E( XY ) = E( X ) E(Y ) que les v.a.r.d sont indépendantes.

Preuve :
1/ Il suffit d’appliquer le théorème de transfert.
2/ Comme X et Y sont indépendantes :
E( XY ) = ∑ xi y j P( X = xi ) P(Y = y j ) = ∑ ( ∑ xi y j P( X = xi ) P(Y = y j ))
(i, j)∈ I × J i∈ I j∈ J

= ∑ (( ∑ y j P(Y = y j )) xi P( X = xi )) = ∑ E(Y ) xi P( X = xi ) = E(Y ) E( X )


i∈ I j∈ J i∈ I


Corollaire : Si X et Y sont deux variables aléatoires réelles admettant un moment d’ordre 2, alors la
variable aléatoire X + Y admet aussi un moment d’ordre 2.

Définition 5.8 . Covariance


Soient X et Y deux v.a.r.d admettant une espérance. On appelle covariance de X et de Y le nombre réel
cov( X, Y ) = E (( X − E( X ))(Y − E(Y ))), s’il existe.

Suites de variables aléatoires discrètes 83 Mr.Faress Moussa


Somme de variables aléatoires réelles discrètes Suites de variables aléatoires discrètes

Interprétation :
◦ Ce nombre est un réel compris entre −1 et 1 qui compare les similarités entre les lois de X et de Y.
◦ Il est égal à 1 dans le cas où l’une des variables est fonction affine croissante de l’autre variable et il est
égal à −1 dans le cas où la fonction affine est décroissante.
◦ Les valeurs intermédiaires renseignent sur le degré de dépendance linéaire entre les deux variables.
Plus le coefficient est proche des valeurs extrêmes −1 et 1, plus la corrélation entre les variables est
forte ; on emploie simplement l’expression à « fortement corrélées à » pour qualifier les deux variables.
◦ Une corrélation égale à 0 signifie que les variables sont linéairement indépendantes.

5.4. Somme de variables aléatoires réelles discrètes

Théorème 5.5 . Linéarité de l’espérance


• Si X et Y sont deux v.a.r.d et a, b deux réels , alors : E( aX + bY ) = aE( X ) + bE(Y ).
• Si X1 , . . . , Xn sont des v.a.r.d admettant toutes une espérance , alors la variable X1 + · · · + Xn admet
n
une espérance et E( X1 + · · · + Xn ) = ∑ E(Xi ).
i =1

Preuve :
. . . . . . . . . . . . . . . . . . . . . . . . Un bon exercice à faire . . . . . . . . . . . . . . . . . . . . . . . . 

Théorème 5.6 . Non linéarité de la variance


• V ( X + Y ) = V ( X ) + V (Y ) + 2cov( X, Y )
• Si X et Y sont indépendantes V ( X + Y ) = V ( X ) + V (Y ).

Preuve :
. . . . . . . . . . . . . . . . . . . . . . . . Un bon exercice à faire . . . . . . . . . . . . . . . . . . . . . . . . 

Théorème 5.7 . Non linéarité de la variance, cas général


• Soient X1 , . . . , Xn des v.a.r.d admettant toutes un moment d’ordre 2. Alors la variable aléatoire réelle
discrète X1 + · · · + Xn admet une variance et
n
V ( X1 + · · · + Xn ) = ∑ V (Xi ) + 2 ∑ cov( Xi , X j )
i =1 1 6i < j 6 n
n
• Si les X1 , . . . , Xn sont mutuellement indépendantes : V ( X1 + · · · + Xn ) = ∑ V (Xi ).
i =1

Preuve :
. . . . . . . . . . . . . . . . . . . . . . . . Un bon exercice à faire . . . . . . . . . . . . . . . . . . . . . . . . 

Suites de variables aléatoires discrètes 85 Mr.Faress Moussa


Chapitre 6

Variables aléatoires à densité




vv Objectifs vv
Ce chapitre introduit les propriétés des variables aléatoires à densité. Il a
pour objectifs :
û Introduire la notion de variables aléatoires à densité .
û Étudier les moments d’une variable aléatoire à densité.
û Étudier les lois usuelles.
Variables aléatoires à densité Notion de variable aléatoire à densité

Rappels :
Une variable aléatoire réelle (VAR) est une application X : Ω → R où (Ω, A, P) est un espace probabi-
lisé. Lorsque X (Ω) est un ensemble discret on dit que X est une VAR discrète.
Pour toutes les VAR (discrètes ou non) on définit la fonction de répartition de X, que l’on note FX , par
FX ( x) = P( X 6 x) pour tout réel x.

6.1. Notion de variable aléatoire à densité


Définition 6.1 . Notion de densité
Soit X une VAR définie sur un espace probabilisé (Ω, A, P) et FX sa fonction de répartition. On dit que
X est une variable aléatoire réelle à densité s’il existe une fonction f X : R → R vérifiant :
(i) f X est à valeur réelles positives ou nulles
(ii) f X est continue sur R, sauf éventuellement en un nombre fini de points
Z +∞ Z +∞
(iii) f X (t) dt est convergente et f X (t) dt = 1
−∞ −∞
Z x
(iv) Pour tout x ∈ R, FX ( x) = f X (t) dt
−∞
La fonction f X s’appelle alors une densité de la variable aléatoire X.

Remarque : La fonction f X n’est pas unique c’est pourquoi on dit que c’est une densité de X. En effet si
g est une fonction égale à f X sauf en un nombre fini de points alors g est aussi une densité
de X.
Le théorème suivant, nous permet de vérifier si une fonction f donnée est une densité d’une variable X.

Théorème 6.1 . Cas pratique


Soit f : R −→ R une fonction vérifiant :
(i) f est à valeur réelles positives ou nulles
(ii) f est continue sur R, sauf éventuellement en un nombre fini de points
Z +∞ Z +∞
(iii) f (t) dt est convergente et f (t) dt = 1
−∞ −∞
alors il existe un espace probabilisé (Ω, A, P) et une variable aléatoire réelle X définie sur cet espace, tels
que f est une densité de la variable X. On dit alors que f est une densité de probabilité.

(
e− x si x > 0
Exemple : Soit f la fonction définie sur R par f ( x) = . Montrer que c’est une densité
0 si x < 0
de probabilité.

Solution :
Comme l’exponentielle est positive, f est bien une fonction à valeurs positives ou nulles.
• Sur ] − ∞; 0[ f est la fonction nulle donc f est continue sur ] − ∞; 0[.
• Sur [0; +∞[, f est la composée des fonctions x → − x et t → et qui sont continues sur R, donc f
est continue sur [0; +∞[.
• Ainsi on a montré que f est continue sur R∗ .
Z +∞
Il nous faut maintenant vérifier la convergence de f ( x) dx et calculer la valeur de cette inté-
−∞
grale.
Z 0
• f est nulle sur ] − ∞; 0[ donc f ( x) dx est convergente et vaut 0.
−∞

Mr.Faress Moussa 100 Variables aléatoires à densité


Variables aléatoires à densité Moments d’une variable aléatoire à densité

Remarque : Pour montrer que deux variables à densité X et Y sont indépendantes il faut montrer que
pour tout x ∈ R et y ∈ R on a P (( X 6 x) ∩ (Y 6 y)) = P( X 6 x) × P(Y 6 y).

6.2. Moments d’une variable aléatoire à densité


Définition 6.3 . Espérance
Z +∞
Soit X une VAR de densité f . Si l’intégrale t f (t) dt est absolument convergente alors on dit que
−∞ Z +∞
X admet une espérance que l’on note E( X ) et on a : E( X ) = t f (t) dt.
−∞

(
6x(1 − x) si x ∈ [0; 1]
Exemple : Soit f la fonction définie sur R par : f ( x) =
0 sinon
Montrer que f est une densité d’une variable aléatoire X. X admet-elle une espérance ? Si
oui, la calculer.
Solution :
• Comme x(1 − x) > 0 pour x ∈ [0; 1], f est bien une fonction positive.
De plus on vérifie facilement que f est continue sur R.
Z 0 Z +∞
Enfin on voit que f ( x) dx et f ( x) dx sont convergentes car f est nulle sur ] − ∞; 0] et
Z 1 −∞ 1

sur [1; +∞[ et f ( x) dx est convergente car f est continue sur [0; 1].
0
Z +∞
Donc f ( x) dx est convergente et :
−∞
Z +∞ Z 0 Z 1 Z +∞ Z 1
f ( x) dx = 0 dx + 6x(1 − x) dx + 0 dx = (6x − 6x2 ) dx = [3x2 − 2x3 ]10 = 1
−∞ −∞ 0 1 0
Donc f est bien une densité de probabilité.
Z 0 Z +∞
• La fonction x 7−→ | x f ( x)| est nulle sur ] − ∞; 0] et sur [1; +∞[ donc | x f ( x)| dx et | x f ( x)| dx
Z∞1
− 1

sont convergente. De plus x 7−→ | x f ( x)| est continue sur [0; 1] donc | x f ( x)| dx est aussi conver-
0
gente.
Z +∞
Par conséquent x f ( x) dx est absolument convergente et X admet donc une espérance. De
−∞
plus :
Z 0 Z 1 Z +∞ Z 1  1
2 3 1
E( X ) = 0 dx + 6x (1 − x) dx + 0 dx = 2 3
(6x − 6x ) dx = 2x − x4 3
=
−∞ 0 1 0 2 0 2


0 si x < 1
Exemple : Soit f la fonction définie sur R par f ( x) = 1 .

2
si x > 1
x
Montrer que f est une densité d’une variable aléatoire X. X admet-elle une espérance ? Si
oui, la calculer.
Solution :
• f est bien une fonction à valeurs positive
De plus f est continue sur R \ {1}.
Z 1
On voit que f ( x) dx est convergente car f est nulle sur ] − ∞; 1[.
−∞

Mr.Faress Moussa 104 Variables aléatoires à densité


Variables aléatoires à densité Lois usuelles

Z +∞
1
Ainsi t f (t) dt est absolument convergente donc X admet une espérance et E( X ) = . 
−∞ λ

Théorème 6.9 . Caractérisation de la loi exponentielle


Soit X une VAR à densité, qui n’est pas la variable certaine nulle et qui est à valeur dans R+ . X suit
une loi exponentielle si et seulement si :

∀(s, t) ∈ R+ × R+ , P(X >s) ( X > s + t) = P( X > t) ( E∗)

Remarque : L’égalité (( E∗)) est équivalente à P( X > s + t) = P( X > s) P( X > t).

Définition 6.11 . VAR sans mémoire


Une VAR à densité vérifiant l’égalité (( E∗)) est dite sans mémoire.

Preuve :
Nous n’allons ici démontrer qu’un sens de l’équivalence :
Soit X suivant la loi E (λ ). Alors pour tout réels s et t positifs :
P(( X > s + t) ∩ ( X > s)) P( X > s + t)
P(X >s) ( X > s + t) = =
P( X > s) P( X > s)
Z +∞

Or P( X > s) = λe−λx dx = [−e−λx ]+
s = e−λs et de même P( X > s + t) = e−λ(s+t) . Donc :
s

e−λ (s+t)
P(X >s) ( X > s + t) = = e−λt = P( X > t)
e−λs


v Loi normale

Définition 6.12 . Loi normale centrée réduite


On dit qu’une variable aléatoire X suit la loi normale centrée réduite si elle admet pour densité la
x2
 
1
fonction f définie sur R par : f ( x) = √ exp − . On note X ,→ N (0, 1).
2π 2

Z +∞
2 /2 √
Remarque : Pour vérifier que f est une densité de probabilité, utiliser e− x dx = 2π.
−∞
Voici la représentation graphique de la densité d’une loi normale centrée réduite :

F IGURE 6.4 – Densité d’une loi normale centrée ré-


duite

Mr.Faress Moussa 110 Variables aléatoires à densité


Lois usuelles Variables aléatoires à densité

Pour la fonction de répartition, nous ne sommes pas capable de l’exprimer avec de fonctions usuelles.
Il faudra cependant bien savoir utiliser la propriété que nous allons mettre ci-dessous et savoir utiliser le
tableau de valeurs approchées que nous verrons en exercice.

Proposition 6.6 . Fonction de répartition de N (0, 1)


Soit Φ la fonction de répartition d’une VAR X suivant la loi N [0, 1). Alors Φ vérifie :
∀x ∈ R Φ(− x) = 1 − Φ( x)

Preuve :
Tout repose ici sur le fait que la densité est paire :
Z −x Z −x
Φ(− x) = f (t) dt = lim f (t) dt
−∞ A→−∞ A
Z x
= lim f (−u) (−du) changement de variable u = −t
A→−∞ − A
Z −A Z +∞
= lim f (u) du = f (u) du = 1 − Φ( x)
A→−∞ x x


Théorème 6.10 . Espérance et variance de N (0, 1)


Soit X qui suit une loi normale centrée réduite. Alors X admet une espérance et une variance :
E( X ) = 0 et V (X) = 1

Définition 6.13 . Loi normale de Laplace-Gauss


Soit m un réel, et σ un réel strictement positif. On dit que X suit la loi normale de paramètres (m, σ 2 )
si elle admet pour densité la fonction f définie sur R par :
( x − m)2
 
1
f ( x) = √ exp −
σ 2π 2σ 2
2
On note X ,→ N (m, σ ).

Voici la représentation graphique de la densité d’une loi normale.

F IGURE 6.5 – Densité d’une loi normale

Variables aléatoires à densité 111 Mr.Faress Moussa


Exercices et Problèmes. Variables aléatoires à densité

ex
Une densité de X est par exemple f ( x) = .
(1 + e x )2

Exercice .4 : (
0 si x < 0
Soit X une VAR dont la fonction de répartition F est définie par : F ( x) = − x2 /2
1−e si x > 0
Montrer que X est une variable à densité et déterminer une densité de X.

Solution :
1/ La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction x →
2
1 − e−x /2 est continue sur ]0; +∞[. Donc F est continue sur R∗ .
De plus lim F = 0 = lim F = F (0) donc F est en fait continue sur R.
0− 0+
2/ La fonction nulle est de classe C 1 sur ] − ∞; 0[ et par produit de fonctions de classe C 1 , la fonction
2
x → 1 − e−x /2 est de classe C 1 sur ]0; +∞[. Donc F est de classe C 1 sur R∗ .
X est donc une variable à densité.
Pour obtenir une densité il suffit de dériver( F là où F est dérivable.
0 si x < 0
Une densité de X est par exemple f ( x) = − x2 /2
.
xe si x > 0

Exercice .5 : Calcul d’espérance


Calculer, si elle existe, l’espérance de la variable X dont une densité est :

( 
0 si t < 0 0 si t < 1
1/ g(t) = 2/ h(t) = 4 ln t
4te−2t si t > 0  si t > 1
t3

Solution :
Z 0
1/ Comme t → t g(t) est nulle sur ] − ∞; 0[, l’intégrale t g(t) dt est absolument convergente et
−∞
vaut 0. Z +∞
Sur [0; +∞[, t → |t g(t)| est continue donc l’intégrale |t g(t)| dt ne pose problème qu’en +∞.
0
Soit A > 0, par intégration par parties :
Z A Z A h iA Z A Z A
2 −2t 2 −2t −2t 2 −2A
|t g(t)| dt = 4t e dt = −2t e + 4te dt = −2A e + 4te−2t dt
0 0 0 0 0

Z A
Dans l’exercice 1 on a calculé : 4te−2t dt = −2Ae−2A − e−2A + 1
0
Z A
Donc |t g(t)| dt = −2A2 e−2A − 2Ae−2A − e−2A + 1.
0
Z +∞
Or lim −2A2 e−2A − 2Ae−2A − e−2A + 1 = 1 donc l’intégrale t g(t) dt est absolument
A→+∞ 0
convergente et vaut 1.
Z +∞
En conclusion t g(t) dt est absolument convergente et vaut 1.
−∞
X admet donc une espérance et E( X ) = 1.

Variables aléatoires à densité 119 Mr.Faress Moussa


Variables aléatoires à densité Exercices et Problèmes.

Z 1
2/ Comme t → t h(t) est nulle sur ] − ∞; 1[, l’intégrale t h(t) dt est absolument convergente et
−∞
vaut 0. Z +∞
Sur [1; +∞[, t → |t h(t)| est continue donc l’intégrale |t h(t)| dt ne pose problème qu’en +∞.
1
Z +∞
4 ln( A) 4
Soit A > 1, par intégration par parties : lim − − + 4 = 4 donc l’intégrale t h(t) dt
A→+∞ A A 1
est absolument convergente et vaut 4.
Z +∞
En conclusion |t h(t)| dt est convergente et vaut 4.
−∞
X admet donc une espérance et E( X ) = 4.

Exercice .6 : 
 4 ( 1 − x )1/3 si 0 6 x 6 1
On considère la fonction f définie par : f ( x) = 3
0 sinon
1/ Montrer que f est la densité d’une variable aléatoire Y.
2/ Déterminer la fonction de répartition F de la variable Y.
3/ Calculer l’espérance de la variable Y.
4/ Calculer la probabilité de l’événement (0, 488 < Y 6 1, 2)

Solution :
1/ (a) Pour x 6∈ [0; 1] on a f ( x) = 0 > 0 et si x ∈ [0; 1], (1 − x) > 0 donc f ( x) > 0.
f est bien une fonction à valeurs positives.
(b) f est bien continue sur ] − ∞; 0[ et sur ]1; +∞[ car f est la fonction nulle sur ces intervalles.
Sur ]0; 1[ , f est la composée de fonction continues donc f est continue.
f est donc continue sur R \ {0; 1}.
Z 0 Z +∞
(c) Les intégrales f ( x) dx et f ( x) dx sont convergentes car f est nulle sur ces intervalles
−∞ 1
et ces intégrales valent 0.
Z 1
Sur [0; 1] la fonction f est continue donc l’intégrale f ( x) dx est convergente. De plus :
0
Z 1 h i1
f ( x) dx = −(1 − x)4/3 = 1
0 0

Z +∞ Z +∞
Donc f ( x) dx est convergente et f ( x) dx = 1
−∞ −∞
f est bien une densité de probabilité.
Z x
2/ Par définition F ( x) = f (t) dt.
Z x −∞
• Si x < 0, F ( x) = 0 dt = 0.
−∞
Z 0 Z x Z x
4
• Si 0 6 x 6 1, F ( x) = f (t) dt + f (t) dt = (1 − t)1/3 dt = 1 − (1 − x)4/3 .
−∞ 0 0 3
Z 0 Z 1 Z x Z 1
4
• Si x > 1, F ( x) = f (t) dt + f (t) dt + f (t) dt = (1 − t)1/3 dt = 1.
−∞ 0 1 0 3

0
 si x < 0
F ( x) = 1 − (1 − x)4/3 si 0 6 x 6 1

1 si x > 1

Mr.Faress Moussa 120 Variables aléatoires à densité


Chapitre 7

Convergences et
approximations


vv Objectifs vv
Ce chapitre introduit les notions suivantes :
û Inégalité de Bienaymé-Tchebychev .
û Convergence d’une suite de VAR.
û Approximation de variables aléatoires.
Convergences et approximations Des inégalités remarquables

Dans tout ce chapitre, les démonstrations seront faites dans le cas des variables discrètes et des variables
à densité.

7.1. Des inégalités remarquables

Proposition 7.1 . Inégalité de Markov


E( X )
Soit X une variable aléatoire réelle positive sur Ω et a ∈ R∗+ . Alors P( X > a) 6 .
a

Preuve :
• Cas d’une variable finie ou discrète : Comme xi > 0 pour tout i ∈ I ⊆ N ; on a :
E( X ) = ∑ P( X = xi ) xi > ∑ P( X = xi ) xi > a ∑ P( X = xi ) = aP( X > a)
i∈ I i∈ I i∈ I
xi > a xi > a

• Cas d’une variable continue à densité : Désignons par f la densité de X. Comme X ne prend que
Z +∞
des valeurs positives, f est identiquement nulle sur R− et on a donc E( X ) = t f (t)dt.
0
Z +∞ Z +∞ Z +∞
E( X ) = t f (t)dt > t f (t)dt > a f (t)dt = aP( X > a).
0 a a


Exemple : Cas d’une variable finie ou discrète :


1
Si X ,→ G( ) on a E( X ) = 3. L’inégalité de Markov donne par exemple : P( X > 60) =
3
1
P( X > 20 × 3) 6 .
20
Donc si dans une urne il y a trois boules, deux noires et une blanche, indiscernables au
toucher, la probabilité de devoir attendre plus de 60 tirages avec remise pour obtenir pour
la première fois la boule blanche est inférieure ou égale à 5%.
Exemple : Cas d’une variable continue à densité :
La durée d’une communication téléphonique en minutes est une variable aléatoire conti-
nue X dont on supposera qu’elle suit une loi exponentielle de paramètre 1. On a donc
1
E( X ) = 1 et P( X > 10) = P( X > 10 × 1) 6 .
10
Dans ce modèle, la probabilité qu’une communication dure plus de 10 minutes est infé-
rieure à 0, 1. Ce qui revient à dire qu’il y a moins de 10% des communications dont la
durée dure plus de 10 minutes.
Z +∞
Là encore le résultat est très imprécis : P( X > 10) = e−x dx = e−10 ≈ 4.54.10−5 .
10
Il y a donc en réalité moins de 5 chances sur 100000 qu’une communication dure plus de
10 minutes ,ce qui en fait montre que ce modèle n’est pas très réaliste.

Théorème 7.1 . Inégalité de Bienaymé-Tchebychev


V (X)
Soit X une VAR admettant un moment d’ordre 2. Alors : ∀ε > 0 , P (| X − E( X )| > ε) 6 .
ε2

Mr.Faress Moussa 132 Convergences et approximations


Convergences et approximations Convergence d’une suite de VAR

Solution :
1/ La fréquence est égale au nombre de 1 obtenus divisé par le nombre total de lancers effectués donc
Xn
on a Fn = .
n  
1 1
2/ On cherche n pour que P Fn − < > 0, 95.
6 100
1
3/ Nous souhaitons ici appliquer l’inégalité de Bienaymé-Tchebychev sur Fn avec ε = . Nous
100
avons besoin de E( Fn ) et de V ( Fn ).
 
1 n 5n
Xn suit une loi binomiale B n, donc E( Xn ) = et V ( Xn ) = .
6 6 36
1 5
On en déduit donc que E( Fn ) = et V ( Fn ) =
6 36n
L’inégalité de Bienaymé-Tchebychev nous dit que :
5.104 5.104
   
1 1 1 1
P Fn − > 6 ⇐⇒ P Fn − < > 1−
6 100 36n 6 100 36n
5.10 4
Il suffit donc de choisir n tel que 1 − > 0, 95 c’est-à-dire n > 27778.
36n

Proposition 7.2 . Inégalité de Jensen


Si X est une variable aléatoire réelle admettant une espérance, si f : R −→ R est une application
convexe sur R et si Y = f ( X ) admet une espérance, alors f ( E( X )) 6 E( f ( X )).

Preuve :
Utiliser l’inégalité de Jensen pour une fonction convexe 

7.2. Convergence d’une suite de VAR


Définition 7.1 . Convergence en probabilité
On dit qu’une suite de variables aléatoires réelles ( Xn )n converge en probabilité vers une variable
aléatoire réelle Y si :
∀ε > 0 ; lim P (|Y − Xn | > ε) = 0
n→+∞

Proposition 7.3 .
Soit X une variable aléatoire réelle. Si la suite de fonctions ( f k )k converge simplement sur R vers une
fonction g, la suite de variables aléatoires réelles ( f k ( X ))k converge en probabilité vers g( X ).

Théorème 7.2 . Loi faible des grands nombres


Soit ( Xn )n∈N∗ une suite de VAR indépendantes, admettant une même espérance m et une même va-
X1 + · · · + Xn
riance σ 2 . On pose X n = . Alors on a :
n

∀ε > 0, lim P | X n − m| > ε = 0
n→+∞

Mr.Faress Moussa 134 Convergences et approximations


Convergence d’une suite de VAR Convergences et approximations

On dit que X n converge en probabilité vers la variable constante égale à m.

Preuve :
1 n 1
On a E( X n ) = E( Xi ) = nm = m et comme les variables sont indépendantes,
n i∑
=1 n
1 n σ2
V ( X n ) = 2 ∑ V ( Xi ) = .
n i =1 n
 σ2
D’après l’inégalité de Bienaymé-Tchebychev, 0 6 P | X n − m| > ε 6 2
 nε
Donc par encadrement de limites, lim P | X n − m| > ε = 0 
n→+∞

Remarque : On considère une suite d’épreuves indépendantes, et un événement A, de probabilité p,


qui peut ou non se réaliser au cours d’une des épreuves. On note Xi la variable qui vaut
1 si A s’est réalisé à la iième épreuve et 0 sinon. Dans ce cas X n représente la fréquence de
réalisation de l’événement A au cours des n première épreuves. La loi faible des grands
nombres nous dit que cette fréquence « tend » vers p.
Cela justifie a posteriori notre façon d’introduire la notion de probabilité, c’est-à-dire comme
étant la limite de la fréquence d’apparition de l’événement donné.

Définition 7.2 . Convergence en loi


Soit ( Xn )n∈N une suite de VAR. On note FXn la fonction de répartition de Xn .
On dit que la suite ( Xn )n∈N converge en loi vers la VAR X, de fonction de répartition FX , si pour tout
x ∈ R où FX est continue, la suite ( FXn ( x))n∈N converge vers FX ( x).

Exercice .2 :
Soit X une VAR à densité. Pour tout entier naturel non nul n, on pose Xn = e1/n X. Montrons que
( Xn )n∈N∗ converge en loi vers X.

Solution :
On note F la fonction de répartition de X et Fn la fonction de répartition de Xn .
Il faut ici montrer que pour tout réel x, lim Fn ( x) = F ( x). Pour cela on va exprimer Fn ( x) en fonction de
n→+∞
F ( x ).
Pour tout réel x, on a Fn ( x) = P( Xn 6 x) = P(e1/n X 6 x) = P( X 6 e−1/n x) = F (e−1/n x).
Or, pour tout réel x fixé, lim e−1/n x = x et comme X est une variable à densité, F est continue en x.
n→+∞
−1/n
Donc lim F (e x ) = F ( x ).
n→+∞
Ainsi, pour tout réel x, lim Fn ( x) = F ( x) donc ( Xn ) converge en loi vers X.
n→+∞

Proposition 7.4 .
Soit ( Xn ) une suit de VAR convergeant en loi vers la VAR X. Pour tous points a et b de continuité de
FX tels que a < b, on a :
lim P( a < Xn 6 b) = P( a < X 6 b)
n→+∞

Convergences et approximations 135 Mr.Faress Moussa


Convergences et approximations Exercices et Problèmes.

De plus comme on a supposé que les Zi sont indépendantes, on a

1 1−p 1−p 1−p


 
1
V ( Mn ) = 2 (V ( Z1 ) + · · · + V ( Zn )) = 2 + · · · + =
n n p2 p2 np2
s
1−p
Donc σn = .
np2
Mn − m
 
2/ On remarque que P(0 6 Mn − m 6 σn ) = P 0 6 6 1 = P(0 6 Mn∗ 6 1).
σn
Or d’après le théorème de la limite centrée (les Zi sont indépendantes, suivent la même loi de
variance non nulle) Mn∗ converge en loi vers une VAR M∗ suivant la loi normale centrée réduite.
Donc lim P(0 6 Mn − m 6 σn ) existe et
n→+∞

Z 1
1 2 /2
lim P(0 6 Mn − m 6 σn ) = lim P(0 6 Mn∗ 6 1) = P(0 6 M∗ 6 1) = √ e− x dx
n→+∞ n→+∞ 2π 0

Exercice .11 :
Chaque année, M. FARESS effectue deux fois par jour, 5 jours par semaine et pendant 46 semaines, un
trajet en voiture dont la durée est une VAR X qui suit une loi d’espérance 45 min et d’écart-type 10 min.
On suppose que les durées des trajets sont mutuellement indépendantes. Quelle est la probabilité pour
que M. FARESS passe au moins 350 h dans sa voiture au cours de l’année ?

Solution :
Au cours de l’année M. FARESS effectue donc 2 × 5 × 46 = 460 trajets.
Notons Xi la VAR égale à la durée en minutes du iième trajet. L’énoncé nous dit que les VAR Xi sont
mutuellement indépendantes et que E( Xi ) = 45 et V ( Xi ) = 100.
460
Le temps que passe M.FARESS dans sa voiture en une année est donc Y = ∑ Xi et on cherche à
i =1
calculer P(Y > 21000).
La fait de voir une somme de VAR indépendantes suivants toutes la même loi de variance non nulle
nous fait penser au théorème de la limite centrée.
Comme ici 460 > 30 on peut approcher la loi de Y ∗ par la loi normale centrée réduite.
Y − 460 × 45
On a Y ∗ = √ donc
46000

21000 − 460 × 45
 

P(Y > 21000) = P Y > √ ≈ P(Y ∗ > 1, 40) ≈ 1 − Φ(1, 40) ≈ 0, 0808
46000

Exercice .12 : Approx loi hypergeom par binomiale


Un lot de N pots de confiture contient 0, 2% de pots avariés. On cherche à calculer la probabilité que,
parmi 1000 pots, il y ait au plus 4 pots avariés ?
Pour cela on notera X la VAR aléatoire égale au nombre de pots avariés parmi 1000 pots, on reconnaîtra
une loi usuelle et on supposera N bien choisi pour pouvoir effectuer des approximations de loi

Mr.Faress Moussa 144 Convergences et approximations


Chapitre 8

Estimations


vv Objectifs vv
Ce chapitre introduit les notions suivantes :
û Estimateur - Estimation .
û Estimation de l’espérance.
û Intervalle de confiance.
Estimations Introduction

8.1. Introduction
Exemple : Si on cherche à calculer la taille moyenne d’un homme de 40 ans en France, il est impossible
de déterminer exactement la taille de tous les hommes français et d’en faire une moyenne.
Pour donner une valeur approchée de cette moyenne on prend un échantillon d’hommes,
par exemple 1000 hommes, on détermine leur taille puis on fait la moyenne. Avec un échan-
tillon assez grand on considère que l’on a obtenu une valeur approchée, « une estimation »,
de la taille moyenne d’un homme de 40 ans.
Exemple : On dispose d’une urne contenant des boules rouges et des boules blanches mais on ne
connaît pas la composition de l’urne. En 100 tirages avec remise on obtient 30 boules rouges
et 70 boules blanches. A combien peut-on estimer la proportion de boules rouges dans
l’urne ?
Mise en place de la théorie :
On considère une expérience aléatoire e et une variable aléatoire réelle X qui lui est liée. On ne connaît
pas la loi de X mais on sait qu’elle appartient à une famille de loi dépendant d’un paramètre θ réel qui
appartient à un ensemble Θ. (par exemple X suit une loi de poisson de paramètre λ inconnu mais on sait
que λ ∈ R+ )
Lorsqu’on réalise une fois l’expérience e, la valeur que prend X, souvent notée x, s’appelle une réalisation
de X.
Le but ici est de donner une valeur approchée de θ à l’aide de la donnée de n réalisations de X, que l’on
notera ( x1 , · · · , xn ). Le n-uplet ( x1 , · · · , xn ) s’appelle un n-échantillon de données.
Retour au second exemple : Prenons ici X la variable qui vaut 1 si on tire une boule rouge et 0 sinon.
Alors on sait que X suit une loi de Bernoulli de paramètre p où p est la probabilité de tirer une boule rouge,
c’est-à-dire que p est la proportion de boules rouges. Dans cette expérience on cherche à connaître la valeur
de p. On a donc ici θ = p et Θ =]0; 1[.
L’énoncé de cet exemple, nous dit que lors de 100 réalisations de la variable X, X a pris 30 fois la valeur 1
et 70 fois la valeur 0.
Nous allons voir deux types d’estimations : soit on cherchera une valeur approchée de θ soit nous cherche-
rons un intervalle dans lequel θ a une forte probabilité de se trouver.

8.2. Estimation ponctuelle


Définition 8.1 . Notion de n-échantillon
Soit X une VAR définie sur un espace probabilisé (Ω, A, P). On appelle n-échantillon de la variable
X tout n-uplet ( X1 , . . . , Xn ) de variables aléatoires indépendantes définies sur (Ω, A, P) et de même loi
que X. La loi de X est appelée la loi parente de l’échantillon

A chaque fois que l’on réalise n fois l’expérience e, on obtient des échantillons de données différents. On
peut donc définir les variables aléatoires X1 , · · · , Xn définies de la façon suivante : à chaque réalisation de
n fois l’expérience E , Xi correspond à la valeur prise par X lors de la iième réalisation de E .

Définition 8.2 . Estimateur-Estimation


Soit ( X1 , . . . , Xn ) un n-échantillon d’une variable X dont la loi dépend d’un paramètre θ. On appelle
estimateur de θ toute variable aléatoire Tn qui est une fonction des variables ( X1 , . . . , Xn ) :

Tn = f ( X1 , . . . , Xn )

Mr.Faress Moussa 150 Estimations


Estimations Intervalle de confiance

Théorème 8.1 .
Soit Tn un estimateur de θ admettant un moment d’ordre 2. Alors on a : r( Tn ) = V ( Tn ) + (b( Tn ))2 .

Preuve :
r( Tn ) = E([ Tn − θ ]2 ) = E( Tn2 − 2θTn + θ 2 )
= E( Tn2 ) − 2θE( Tn ) + θ 2 or E( Tn2 ) = V ( Tn ) + E( Tn )2
= V ( Tn ) + ( E( Tn ))2 − 2θE( Tn ) + θ 2
= V ( Tn ) + ( E( Tn ) − θ )2 = V ( Tn ) + (b( Tn ))2


Remarque : Si Tn est un estimateur sans biais alors r( Tn ) = V ( Tn ).


Exemple : On revient à notre pile ou face avec p la probabilité d’obtenir pile et X qui suit une loi de
Bernoulli de paramètre p. Soit ( X1 , · · · , Xn ) un n-échantillon de X.
• Si on considère l’estimateur Tn = X1 , le risque quadratique est r( Tn ) = V ( Tn ) =
V ( X1 ) = pq.
X + · · · + Xn
• On considère maintenant la moyenne empirique Xn = 1 .
n
1 n 1
On a E( Xn ) = ∑ E( Xi ) = × np = p donc b( Xn ) = 0.
n i =1 n
1 pq
De plus, comme les Xi sont indépendantes, r( Xn ) = V ( Xn ) = 2
nV ( X1 ) = .
n n
Le risque quadratique de Xn est n fois plus petit que celui de Tn et de plus, plus n est grand
plus r( Xn ) sera petit.

Proposition 8.1 . Estimation de l’espérance


On considère X une variable aléatoire d’espérance m et ( X1 , . . . , Xn ) un n-échantillon de X. Alors la
X1 + · · · + Xn
moyenne empirique Xn = est un estimateur sans biais de m et dont le risque quadratique
n
tend vers 0 lorsque n tend vers +∞.

Preuve :
1 n 1
On a E( Xn ) = ∑ E( Xi ) = × nm = m donc b( Xn ) = 0. Comme les Xi sont indépendantes
n i =1 n
1 n 1 V (X)
r( Xn ) = V ( Xn ) = 2 ∑ V ( Xi ) = 2 nV ( X ) = . Donc r( Xn ) → 0 lorsque n → +∞ 
n i =1 n n

8.3. Intervalle de confiance


Définition 8.6 . Intervalle de confiance
Soit ( X1 , · · · , Xn ) un n-échantillon d’une loi µθ et Un et Vn deux estimateurs de θ. Pour tout réel
α ∈]0; 1[, on dit que [Un , Vn ] est un intervalle de confiance de θ au niveau de confiance 1 − α (ou
aussi au risque α) si on a : P((Un 6 θ 6 Vn )) > 1 − α

Mr.Faress Moussa 152 Estimations


Chapitre 9

Sujets et extraits de concours




vv Objectifs vv
Ce chapitre introduit des sujets ou extraits de certains concours :
û
û
û
Cours de Mathématiques
Mathématiques Spéciales

αβ
Ψ Ω

-T
a h a -
ba
a-
H i φ
Ay ϕ
ξ
Classes Préparatoires
aux
Grandes Écoles d’Ingénieurs

Vous aimerez peut-être aussi