Faculté des Sciences Juridiques OUIA AZIZ
Economiques et sociales 2019/2020
Mohammedia
Partie II : Variables aléatoires, lois de probabilité et fonction de répartition.
Chapitre I : Variable aléatoire à une seule dimension
Dans ce chapitre, nous allons essayer de définir certaines notions qui nous serons
d’une grande utilité pour les autres chapitres de ce livre, soient les notions de
variable aléatoire, de lois de probabilité, d’espérance mathématique d’une variable
aléatoire et de variance d’une variable aléatoire.
Et parmi ces notions, la plus essentielle est celle de variable aléatoire. C’est une
application qui à un résultat possible de l'expérience, on associe une valeur. Une
variable aléatoire va donc prendre telle ou telle valeur selon le résultat obtenu; et ce
ne sont pas les valeurs possibles de la variable, ni la valeur qu'elle prend une fois que
l'on connaît le résultat de l'expérience qui sont aléatoires, mais la valeur qu'elle va
prendre avant d'avoir effectué l'expérience.
1. généralités :
1.1. définitions
I.1.1 Définition d’une variable aléatoire :
X est une variable aléatoire si et seulement si, quelque soit x appartenant à Ω, il
existe une application F sur Ω et à valeurs dans IR/F(x) = P(Xx) a un sens.
Une variable aléatoire est une fonction dont la valeur du résultat dépend d’une
expérience aléatoire « épreuve ».
Une variable aléatoire peut, également, être définie comme étant une application qui
associe un nombre réel pour chaque résultat d’une épreuve
Exemple 1 : Dans une entreprise, une machine peut avoir de 0 à 3 pannes par
semaine avec les probabilités suivantes :
Xi : nombre de pannes par semaine 0 1 2 3
Probabilité 1/3 1/6 1/3 1/6
Le nombre de pannes par semaine est une variable aléatoire X, qui prend la valeur 0
avec une probabilité 1/3, la valeur 1 avec une probabilité 1/3, …. et la valeur 3 avec
la probabilité 1/6.
Exemple 2 : Soit l’expérience aléatoire qui consiste à jeter un dé. La variable X :
« valeur obtenue par le dé » est une variable aléatoire car, F(x) est définie pour tout x
de IR.
Xi 1 2 3 4 5 6
Pi 1/6 1/6 1/6 1/6 1/6 1/6
X est une variable aléatoire, qui prend la valeur 1 avec une probabilité 1/6, la valeur
2 avec une probabilité 1/6, …. Et la valeur 6 avec la probabilité 1/6.
1.2 Définition d’une fonction de répartition
F(x) est appelée fonction de répartition ou fonction cumulative de X.
Suite exemple 1 :
La fonction de répartition de la variable aléatoire X : nombre de pannes par semaine
est donnée par le tableau suivant :
Xi : nombre de pannes par semaine 0 1 2 3 4
F(x) 0 1/3 3/6 5/6 1
Suite exemple 2 :
La fonction de répartition de la variable aléatoire X : « la valeur obtenue par un dé »
est donnée par le tableau suivant :
Xi 1 2 3 4 5 6 7
F(x) 0 1/6 1/3 1/2 2/3 5/6 1
F(-1) = P(X -1) = 0
F(3) = P(X3 ) = 1/3
F(5) = P(X 5) = 2/3
F(10) = P(X10) =1
1.3 Lois de probabilité:
Les événements ne sont pas toujours équiprobables. Leurs probabilités de réalisation
s’expriment par une loi ou densité de probabilité. Les événements sont donc
représentés par des variables aléatoires. On distingue deux cas :
Des lois discrètes et des lois continues : les premières permettent de rendre
compte de phénomènes prenant uniquement des valeurs dénombrables, au
contraire des autres.
Des lois à intervalles de définition fini ou infini.
Exemple de lois discrètes :
Loi Binomiale : P(x)= C nx p x q x-n x{1, 2, 3,…, n}
e x
Loi de Poisson : P(x) =
x!
1 xi m 2
1 ( )
2
Loi Normale : P(x) = e
2
2. Notions diverses :
2.1 L’espérances mathématique :
On appelle espérance mathématique de la variable aléatoire X, la quantité E(X) tel
que :
E(X)=∑Pixi pour les lois discrètes.
E(X)=∫xf(x)dx pour les lois continues.
2.1.1 Exemple 1 :
On attribue à chacun des entiers suivants :
{1, 2, 3, 4, 5, 6} la probabilité 1/6.
Calculer E(x).
1 1 1 1 1 1
E(x) =∑Pixi = 1 2 3 4 5 6
6 6 6 6 6 6
1
= (1+2+3+4+5+6)
6
= 3,5
On remarque que l’espérance mathématique d’une variable aléatoire n’est pas
réellement possible (3,5). Mais, en aucun cas, il permet de bien positionner le
classement de grandeur des résultats.
Exemple 2 : Considérons l’ensemble constitué par les résultats d’un tirage à pile
ou à face avec une pièce de monnaie ayant la probabilité P de donner pile et q de
donner face.
A pile, on fait correspondre 1 et à face on fait correspondre 0.
On définit alors, une application de dans IR.
Nous attributions la probabilité p au résultat pile ou au nombre 1 et nous attributions
la probabilité q au résultat face ou au nombre 0.
On définit donc, ce qu’on appelle une variable aléatoire de Bernoulli.
Supposant que la pièce de monnaie est bonne « équiprobabilité ». On aura la
probabilité 1/2 pour les nombres 1 et 0.
1 1 1
E(x)= =∑Pixi = ( 1 0)
2 2 2
Exemple 3 : Soit X la variable aléatoire qui caractérise le nombre de garçons dans
une famille de quatre enfants.
Distribution de probabilité de X
x p(x)
0 0,0625
1 0,2500
2 0,3750
3 0,2500
4 0,0625
Total 1
E( X ) x p( x) 0 0,0625 1 0,25 2 0,375 3 0,25 4 0,0625 = 2
Dans une famille de quatre enfants on doit s'attendre à avoir deux garçons.
2.1.2 Propriétés de l’espérance mathématique :
E(X1+X2+ X3+… Xn)=E(X1)+E(X2)+E(X3)+E(X4)+… E(Xn)
E(k*X) = k*E(X)
E(k) = k
E[X – E(X)] = E(X) – E(X) = 0
2.2 Les Moments : En considérant les espérances mathématiques des variables
aléatoires (Xn, |X|n, [X–E(X)]r), on définit aussi les moments (algébrique, absolues,
centrés en E(X)) de X.
2.2.1 La variance : La variance est moment centré d’ordre 2. Elle est notée V(X) ou
² ou 2.
2= E[X–E(X)]2.
Pour les variables discrètes 2=∑Pi*[Xi–E(X)]2.
Pour les variables continues 2=∫[Xi–E(X)]2f(x)dx
Exemple 1 : On considère l’épreuve du jet d’une pièce de monnaie avec
équiprobabilité des résultats (pile ou face).
Calculer la variance.
²(x) =∑Pi*[Xi–E(X)]2=p[1-E(x)]²+ q[0-E(x)]²
=p[1-p]²+ q[0-p]²= pq²+ qp²=pq(p+q)=pq
Exemple 2 : On considère l’épreuve du jet d’un dé avec équiprobabilité des résultats
obtenus.
={1, 2, 3, 4, 5, 6}
Calculer la variance.
²(x) =∑Pi[Xi–E(X)]2
1 1 1 1
= (1-3,5)²+ (2-3,5)²+ (3-3,5)²+ …..+ (6-3,5)²
6 6 6 6
= 2,9
On remarque que la variance d’une variable aléatoire n’est pas, elle aussi réellement,
possible (2,9).
Remarque : il est conseillé de préférence, pour le calcul de la variance dans le cas
fini, d’utiliser le résultat du développement suivant :
²(x) =∑Pi[xi–E(x)]2 =∑Pi[xi²–2xE(x)+E(x)²]
=∑Pixi²–2E(x) ∑Pixi+E(x)²∑pi
=∑Pixi²–E(x)²
= E(xi²) - E(x)²
Suite Exemple 1 :
²(x) = E(xi²) - E(x)² =∑Pixi²–E(x)²
=(p*1²+q*0²)- p²=p – p²
=p(1-p)
=pq
Suite Exemple 1 : ²(x) = E(xi²) - E(x)² =∑Pixi²–E(x)²
1
= (1²+2²+3²+4²+5²+6²)-3,5²2,9
6
2.2.2 Propriétés de la variance :
V(ax+b) = a²V(x)
V(b) = 0
V(x+y)= V(X-Y)=V(x)+V(y) (Si X et Y sont indépendants)
V(ax+by)= V(aX-bY)=a²V(x)+b²V(y) (Si X et Y sont indépendants)
Cov(x ; y) = E(x*y) – E(x)*E(y)
2.3 La fonction génératrice : Dans certain cas, la détermination des moments
d’une loi peut s’avérer difficile. Cependant, il y a une méthode mathématique facile
qui permet de calculer tous les moments d’une loi de probabilité. Il s’agit de faire
appel à une fonction génératrice des moments.
2.3.1 Définition d’une fonction génératrice : On considère une variable aléatoire
X, on appelle fonction génératrice des moments de la variable aléatoire X, noté Mx
(t), l’espérance mathématique de etx (où t est l’argument de la fonction :
Mx (t) = E(etx)
On a :
Mx (t)=E(etx)=∑etx(xi) pour une variable aléatoire discrète.
Mx(t)=E(etx)=∑etx(xi) pour une variable aléatoire continue.
2.3.2 Détermination des moments : Lorsqu’elle existe, la fonction Mx(t) permet de
déterminer les moments non centrés d’une variable aléatoire en dérivant
successivement Mx(t) par rapport à t.
On cherche les dérivées successives par rapport à t de la fonction génératrice
des moments qui doit être définie, continue et dérivable au voisinage de t = 0.
En utilisant la formule de Mac-Laurin pour déterminer le développement limité
à l’ordre n de la fonction f(t) au voisinage de t = 0 on obtient les résultats suivants :
f(t)= f(0)+tf’(0)+t²/2!f’’(0), …..+ tn/n!fn (0)
Le développement de etx au voisinage de t=0 donne :
etx = 1+tx+t²x²/2!, t3x3/3!, …..+ tnxn/n!
E(etx)= 1+tE(x)+t²E(x²)/2!, t3E(x3)/3!, …..+ tnE(xn)/n!
dM x (t )
Donc, E ( x) / t0
dt
d 2 M x (t )
E(x )
2
/t0
d 2t
D’une manière générale, on a :
d k M x (t )
E(x k ) /t0
d kt
2.4. Convergence en probabilité.
On dit qu’une variable aléatoire Xn converge en probabilité vers une constante a si :
0, limP( X n a ) = 0
n
Ceci signifie que l’écart entre le paramètre calculé à partir de l’échantillon et la vraie
valeur du paramètre de la population est très faible quand la taille de l’échantillon est
grande. Cet écart peut être mesuré par la variance. Ainsi on parle de convergence en
probabilité si :
lim V(X n) = 0
n
Exemple : Soit Xn une variable aléatoire qui désigne le nombre de succès obtenus
lors de n prélèvements dans une population finie de taille N et dont la proportion de
succès est p.
Désignons par fn X n la fréquence relative (pourcentage) des succès.
n
Cas des prélèvements sans remise :
Dans ce cas la variable aléatoire Xn suit une loi hypergéométrique de paramètre N, n
et p.
On sait que :
E(Xn) = n p et V(Xn) = N n n p q
N 1
On démontre :
E( fn ) = E( X n ) = 1 E( X n ) = 1 n p = p
n n n
V( fn ) = V( X n ) = 1 V( X n ) = 1 N n n p q = N n pq
n n² n² N 1 N 1 n
lim V(f n) = 0
n
La fréquence relative fn converge en probabilité vers p.
Cas des prélèvements avec remise :
Dans ce cas la variable aléatoire Xn suit une loi binomiale de paramètre n et p.
On sait que :
E(Xn) = n p et V(Xn) = n p q
On démontre :
E( fn ) = E( X n ) = 1 E( X n ) = 1 n p = p
n n n
V( fn ) = V( X n ) = 1 V( X n ) = 1 n p q = pq
n n² n² n
lim V(f n) = 0
n
La fréquence relative fn converge en probabilité vers p.
Exemple : Soient Xi (i=1 à n) n variables aléatoires indépendantes et ayant la même
loi de probabilité.
E(Xi) = m et V(Xi) = ²
n
Xi
Désignons par : X n i 1 la moyenne calculée à partir d’un échantillon de taille n.
n
Cas des prélèvements sans remise :
n
Xi n
On démontre : E( X n ) = E( i 1
) = 1E(Xi) = 1nm = m
n n i 1 n
n
Xi
) = 1 V(Xi) = 1 n N n ² = N n ²
n
i 1
V( X n ) = V(
n n² i 1 n² N 1 N 1 n
limV(X n) = 0
n
n
Xi
La moyenne X n i 1 calculée à partir d’un échantillon de taille n converge en
n
probabilité vers m.
Cas des prélèvements avec remise :
n
Xi n
On démontre : E( X n ) = E( i 1
) = 1E(Xi) = 1nm = m
n n i 1 n
n
Xi
) = 1 V(Xi) = 1 n ² = ²
n
i 1
V( X n ) = V(
n n² i 1 n² n
limV(X n) = 0
n
n
Xi
La moyenne X n i 1 calculée à partir d’un échantillon de taille n converge en probabilité vers m.
n
2.5 Inégalité de bienymé-Tchebycheff
Il arrive souvent que l’on cherche à déterminer la probabilité pour qu’une
variable aléatoire soit comprise dans un intervalle, lorsque la loi de probabilité est
inconnue. Dans ces conditions, on peut utiliser l’espérance mathématique de la
variable aléatoire, la variance de la variable aléatoire et l’inégalité de Bienymé-
Tchebycheff.
2.5.1 Définition : On considère une variable aléatoire X distribuée selon une loi de
probabilité (connue ou inconnue) de moyenne E(x) et de variance ²(x) finies.
P[E(x)-t(x)X E(x)+t(x)] 1-1t² avec t1
Remarque : L’inégalité de Bienymé-Tchebycheff est valable pour toutes les lois de
probabilités discrètes et continues.
Exemple : Dans une entreprise, une machine fabrique des résistances électroniques
dont la valeur en ohms X est une variable aléatoire. Ces résistances sont utilisées par
une société de montage d’ordinateurs. Cette dernière établit la norme d’appréciation
suivante :
Résistance moyenne : E(x) = 100 ohms
Ecart-type : (x) = 5 ohms
1. Quelle est la probabilité pour qu’une appréciation d’une résistance soit
comprise entre 92 et 108 ohms ?
2. Quel sera cet intervalle si la probabilité d’appréciation de X autour de la
moyenne est égale à 75%
1)
Bi= E(x)-t(x) = 100-5t=92
Bs=E(x)+t(x) = 100+5t=108 t=1,6
En utilisant l’inégalité de Bienymé-Tchebycheff on trouve le résultat suivant :
P[92X 108] 1-1t² P[92X 108] 61%
Il y a au moins une probabilité de 61% que l’appréciation de la valeur de la
résistance soit comprise entre 92 et 108 ohms.
2) Il s’agit de déterminer la borne inférieure et la borne supérieure de l’intervalle tel
que :
P[100-5tX 100+5t] 75%
On a : P[E(x)-t(x)X E(x)+t(x)] 1-1t²
1-1t² = 75% t²=4 t = 2
Bi = E(x)-t(x) = 100-5t=90
Bs =E(x)+t(x) = 100+5t=110
Il y a 75% de chance pour que l’appréciation de la valeur de la résistance soit
comprise entre 90 et 110 ohms.
Exercice 1. On lance deux dés cubiques équilibrés dont les faces sont numérotées de
1 à 6. On appelle X la variable aléatoire donnant le résultat du premier dé, et Y celui
du second.
a) Quelle est la loi de ces deux variables?
b) Calculer E(X), V(X) et (X).
Correction.
a) Les dés sont équilibrés donc les valeurs sont équiprobables et = 1 donc
chaque probabilité est égale à . La loi de X est donnée par le tableau suivant :
Xi 1 2 3 4 5 6
Pi
Y correspond à la même expérience que X, donc elle a la même loi que X.
b) E(X)= E(Y) = xi * Pi
=
1 1 1 1 1 7
= 1 * 2 * 3 * 4 * 5 * 6 * =
6 6 6 6 6 2
V(X) = V(Y) = E[(X - E(X))2] = E(X²) – [E(X)]² =
1 1 1 1 1
[ 1² * 2² * 3² * 4² * 5² * 6² * - E(X)]²=
6 6 6 6 6
V(X) = (1+4+9+16+25+36)* – =
(X) = (Y) = = = 1,708
Exercice 2. On appelle S la variable aléatoire somme des résultats X et Y du lancé
de deux dés.
a) Déterminer la loi de S, sa fonction de répartition F et dessiner le graphe de cette
dernière.
b) Calculer le mode, l'espérance et la variance de S.
Correction.
a) Z = X + Y
Loi de Z :
X \ Y 1 2 3 4 5 6
1 2 3 4 5 6 7
2 3 4 5 6 7 8
3 4 5 6 7 8 9
4 5 6 7 8 9 10
5 6 7 8 9 10 11
6 7 8 9 10 11 12
X et Y sont indépendantes donc P(Z = 2) = P(X = 1 et Y = 1) = P(X = 1)P(Y = 1) =
1/6*1/6 = 1/36,
P(Z = 3) = P((X = 1 et Y = 2) ou (X = 2 et Y = 1)) = P(X = 1)P(Y = 2) + P(X =
2)P(Y = 1) = 2/36…
On obtient finalement pour la loi de Z :
Xi 2 3 4 5 6 7 8 9 10 11 12
1 2 3 4 5 6 5 4 3 2 1
Pi 36 36 36 36 36 36 36 36 36 36 36
On vérifie que pi = 1.
La fonction de répartition est la fonction F définie par : F(x) = P(Z < x). On calcule
donc les probabilités suivantes :
F(- ) = 0
F(2) = P(Z < 2) = 0
(Entre - et 2 compris, la fonction de répartition vaut 0)
b) Le MODE de Z est la valeur k pour laquelle P(Z = k) est maximale : P(Z = 7) =
6/36 donc le mode est 7.
E(S) = E(X + Y) = E(X) + E(Y) = 7/2 + 7/2 = 7
V(S) = V(X + Y) = V(X) + V(Y) = 35/6 car X et Y sont indépendantes.
Exercice3 :
On lance un premier dé à six faces. Soit X le résultat obtenu.
1 – Donner la loi de probabilité de X, E(X) et V(X).
On lance un deuxième dé et on note Y le résultat obtenu.
Soit Z la somme des résultats obtenus par les deux dés.
2 – Donner la loi de probabilité de Z, E(Z) et V(Z).
Correction :
1 – Soit X : « Le nombre obtenu par le dé 1 ».
X 1 2 3 4 5 6
P(X=xi) 1/6 1/6 1/6 1/6 1/6 1/6
E(X) = ∑xiP(X=xi)
= 1.1/6+ 2.1/6+3.1/6+4.1/6+5.1/6+6.1/6 = 21/6
V(X) = E(X²) – E(X)²
= [1².1/6+ 2².1/6+3².1/6+4².1/6+5².1/6+6².1/6] – (21/6)²
V(X) = 91/6 – 441/36 = 105/36
2 – Soit Y: « Le nombre obtenu par le dé 2 ».
Soit Z: « La somme des nombres obtenus par le dé 1 et le dé2 ».
Valeurs possibles de Z : {2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12}
Z 2 3 4 5 6 7 8 9 10 11 12 ∑P(Z=zi)
Pi 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36 1
Calcul justificatif des probabilités :
P(Z=2) = P(X=1∩Y=1) = P(X=1).P(Y=1) = 1/6.1/6 = 1/36
P(Z=3) = P[(X=1∩Y=2)⋃(X=2∩Y=1)] = 1/6.1/6 + 1/6.1/6 = 2/36
P(Z=4) = P[(X=1∩Y=3)⋃(X=2∩Y=2) ⋃(X=3∩Y=1)] = 3/36
P(Z=5) = P[(X=1∩Y=4)⋃(X=2∩Y=3) ⋃(X=3∩Y=2) ⋃(X=4∩Y=1)]
= 4/36
P(Z=6) = P[(X=1∩Y=5)⋃(X=2∩Y=4) ⋃(X=3∩Y=3) ⋃(X=4∩Y=2)
⋃(X=5∩Y=1)] = 5/36
P(Z=7) = P[(X=1∩Y=6)⋃(X=2∩Y=5) ⋃(X=3∩Y=4) ⋃(X=4∩Y=3)
⋃(X=5∩Y=2) ⋃(X=6∩Y=1)] = 6/36
P(Z=8) = P[(X=2∩Y=6)⋃(X=3∩Y=5) ⋃(X=4∩Y=4) ⋃(X=5∩Y=3)
⋃(X=6∩Y=2)] = 5/36
P(Z=9) = P[(X=3∩Y=6)⋃(X=4∩Y=5) ⋃(X=5∩Y=4) ⋃(X=6∩Y=3)]
= 4/36
P(Z=10) = P[(X=4∩Y=6)⋃(X=5∩Y=5) ⋃(X=6∩Y=4)] = 3/36
P(Z=11) = P[(X=5∩Y=6)⋃(X=6∩Y=5)] = 2/36
P(Z=12) = P[(X=6∩Y=6)] = 1/36
E(Z) = ∑ziP(Z=zi) = 2.1/36+3.2/36+4.3/36+5.4/36+6.5/36+7.6/36+
8.5/36+9.4/36+10.3/36+11.2/36+12.1/36
E(Z) = 252/36 = 42/6
V(Z) = E(Z²) – E(Z)² = 1974/36 – 1764/36 = 210/36 = 35/6.
Exercice 4 : On considère le jeu suivant : le joueur lance un dé équilibré. S’il obtient
un nombre pair, il gagne l’équivalent en dh. Si non, il perd 1 DH. On note X la
variable aléatoire correspondant au gain du joueur.
1. Donnez la loi de X et sa fonction de répartition F(X).
2. Calculez l’espérance de X.
3. Calculez la variance de X.
Correction
L’expérience aléatoire est un lancer de dé à 6 faces numérotées de 1 à 6
dont l’univers est donc
=1 ; 2 ; 3 ; 4 ; 5 ; 6
muni d’une probabilité uniforme (car le dé est équilibré et il n’est pas truqué).
La variable aléatoire X est donnée par le tableau suivant
Xi 1 2 3 4 5 6
X() -1 2 -1 4 -1 6
On déduit que X()=-1 ; 2 ; 4 ; 6
La loi der X est donnée par le tableau suivant
Xi -1 2 4 6
X() 1 ; 3 ;5 2 4 6
P 1/2 1/6 1/6 1/6
E(X) = ∑xi.P(X=xi)
=-1*1/2+ 2*1/6+4*1/6+6*1/6 = 1,5
V(X) = E(X²) – E(X)²
= [(-1)²*1/6+ 2²*1/6+4²*1/6+6²*1/6] – (1,5)²
=7,58
Exercice 5 : On jette 5 fois de suite un dé bien équilibré, et l’on suppose
qu’un 2 ou un 4 correspond à un succès.
1) Donner la variable aléatoire et sa loi de probabilité
2) Calculer E(X) et V(X)
3) Quelle est la probabilité que l’on obtienne exactement 2 fois un 2 ou un
4?
4) Quelle est la probabilité que l’on obtienne jamais de 2 ni de 4 ?
5) Quelle est la probabilité que l’on obtienne au moins une fois un 2 ou un
4?
Exercice 6 : On jette 7 fois de suite un dé bien équilibré, et l’on suppose qu’un 5 ou
un 6 correspond à un succès.
1. Quelle est la probabilité que l’on obtienne exactement 3 fois un 5 ou un 6 ?
2. Quelle est la probabilité que l’on obtienne jamais de 5 ni de 6 ?
3. Quelle est la probabilité que l’on obtienne au moins une fois un 5 ou un 6 ?
Exercice 7 : La probabilité pour qu’un objet produit par une usine soit défectueux
(qu’il présente un défaut) est 0,02.
Un lot de 1000 objets est produit.
1) Calculer le nombre moyen d’objets défectueux.
2) Quelle est la probabilité pour que, dans ce lot, le nombre d’objets défectueux
soit égal à ce nombre moyen ?
Exercice 8 : Un dé cubique D1 comporte 3 faces marquées 1, 2 faces marquées 2, 1
face marquée 3. On lance le dé D1, on note X1 le nombre obtenu.
1. Déterminer la loi de X1 son espérance, sa variance.
2. Mêmes questions pour X2 le nombre obtenu en lançant un dé D2 comportant 3
faces marquées 4, 2 faces marquées 5, 1 face marquée 6.
3. On lance D1 et D2 simultanément, Calculer l'espérance de Z = X1+ X2. Vérifier en
déterminant la loi de Z.