Cours TD PB Proba Cpge 1
Cours TD PB Proba Cpge 1
g( x, y) f X,Y ( x)dxdy
MPSI - MP - MP*
Z +∞ Z +∞
−∞
Cours
−∞
E[ g( X, Y )] =
de
Probabilités
g( x) f X ( x)dx
−∞
1
1/3
2
1/6
1 3 2 1
1/4 3
3 1 4 5 1/6
∑ g( xk ) P( X = xk )
4
1/12
2 3 4 1
5
k∈K
E[ g( X )] =
1 Combinatoire élémentaire 7
1.1 Les ensembles finis . . . . . . . . . . . . . . . . . . . . 8
1.2 Applications entre ensemble finis . . . . . . . . . . . 11
1.3 Dénombrements usuels . . . . . . . . . . . . . . . . . 12
1.4 Arrangements et combinaisons . . . . . . . . . . . . . 13
1.5 Quelques dénombrements utiles . . . . . . . . . . . . 15
1.6 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 17
2 Ensembles dénombrables 25
2.1 Ensembles dénombrables . . . . . . . . . . . . . . . . 26
2.2 Familles sommables de réels positifs . . . . . . . . . 28
2.3 Famille sommable d’éléments de K (cas général) . . 30
2.4 Suites doubles sommables . . . . . . . . . . . . . . . 32
2.5 Groupements de termes . . . . . . . . . . . . . . . . . 33
3 Espaces probabilisés 35
3.1 Espaces probabilisables . . . . . . . . . . . . . . . . . 36
3.2 Espaces probabilisés . . . . . . . . . . . . . . . . . . . 37
3.3 Probabilité conditionnelle . . . . . . . . . . . . . . . 41
3.4 Indépendance d’événements . . . . . . . . . . . . . . 44
3.5 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 46
8 Estimations 149
8.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . 150
Mr.Faress Moussa 4 TABLE DES MATIÈRES
8.2 Estimation ponctuelle . . . . . . . . . . . . . . . . . . 150
8.3 Intervalle de confiance . . . . . . . . . . . . . . . . . . 152
8.4 Exercices et Problèmes. . . . . . . . . . . . . . . . . . 154
Combinatoire élémentaire
vv Objectifs vv
Ce chapitre est introduit essentiellement en vue de son utilisation en pro-
babilités ; rattaché aux mathématiques discrètes, le dénombrement interagit
également avec l’algèbre et l’informatique. Il permet de modéliser certaines
situations combinatoires et offre un nouveau cadre à la représentation de cer-
taines égalités . Les objectifs de ce chapitre sont :
û Définir le cardinal d’ensemble fini .
û Étudier les propriétés du cardinaux.
û Dénombrer les ensembles classiques .
û Étudier quelques propriétés des coéfficients binomiaux.
Combinatoire élémentaire Les ensembles finis .
Preuve :
La propriété relative à l’existence de bijection de N p vers Nn découle immédiatement des deux pré-
cédentes, il ne reste qu’à établir celles-ci...
Par récurrence sur p ∈ N, montrons que pour tout n ∈ N, s’il existe une injection de N p dans Nn
alors p = n. Pour p = 0, la propriété p = n est vérifiée. Supposons la propriété établie au rang
p = 0. Supposons qu’il existe une injection f de N p+1 dans Nn pour un certain n ∈ N. A partir de
celle-ci construisons une injection g de N p+1 dans Nn vérifiant g( p + 1) = n. Cas f ( p + 1) = n :
g = f convient. Cas f ( p + 1) 6= n : introduisons l’application τ de Nn dans lui-même qui a pour
seul effet d’échanger les éléments n et f ( p + 1), cette application τ est clairement bijective. Considé-
rons ensuite g = τ o f , c’est une application injective par composition d’injections et par construction
g( p + 1) = τ ( f ( p + 1)) = n Nous sommes donc parvenu à construire une application g comme vou-
lue. Exploitons celle-ci. Considérons l’application h : N p → Nn−1 définie par h( x) = g( x) pour tout
x ∈ N p . Comme g est injective, n ne peut avoir d’autres antécédents que p + 1 par g et l’application h
ci-dessus est bien définie à valeurs dans Nn−1 . De plus, g étant injective, l’application h : N p → Nn−1 ,
qui n’est en fait qu’une restriction de g, l’est aussi. On peut alors appliquer l’hypothèse de récurrence
pour conclure p = n − 1 i.e. p + 1 = n. Récurrence établie.
Étudions maintenant les surjections de N p sur Nn . Supposons qu’il existe une surjection f de N p
sur Nn . A partir de celle-ci, nous allons construire une injection de Nn dans N p ce qui permettra de
conclure. Pour chaque y ∈ Nn , on peut dire que l’ensemble f −1 ({ y}) est non vide car f est sur-
jective. Considérons alors x y un élément quelconque de cet ensemble (par exemple, le plus petit :
x y = min( f −1 ({ y}))). Considérons ensuite l’application g : Nn → N p définie par g( y) = x y pour
tout y ∈ Nn . Montrons qu’elle est injective. Pour tout y ∈ Nn , f ( g( y)) = f ( x y ) = y car x y est
un antécédent de y ; ainsi f og = IdNn . L’application f og étant injective, l’application g l’est aussi. On
peut donc conclure à l’existence d’une injection de Nn dans N p et, par l’étude qui précède, on obtient
n = p.
Preuve :
Posons n = card( A) et p = card( B). Si n = 0 ou p = 0 : ok Sinon écrivons A = { x1 , . . . , xn } avec
des xi deux à deux distincts et B = { y1 , . . . , y p } avec des y j deux à deux distincts. Comme A et B
sont supposés disjoints, les xi sont distincts des y j . Considérons alors l’application ϕ : Nn+ p → A ∪ B
déterminée par :
i 1 2 ... n n+1 ... n+ p
ϕ (i ) x 1 x 2 . . . x n y1 ... yp
Il est immédiat d’observer que ϕ est une bijection de Nn+ p vers A ∪ B ce qui permet de conclure.
Corollaire : Soit ( Ai )16i6n une famille finie d’ensembles deux à deux disjoints.
! Si tous les Ai sont des
n
[ n
[ n
ensembles finis alors l’union Ai l’est aussi et card Ai = ∑ card( Ai ).
i =1 i =1 i =1
Méthode :
Pour constituer une partie A d’un ensemble E = { x1 , . . . , xn } avec x1 , . . . , xn deux à deux distincts :
• on choisit si x1 ∈ A ou non : 2 possibilités ;
• on choisit si x2 ∈ A ou non : 2 possibilités ;
.........
• on choisit si xn ∈ A ou non : 2 possibilités.
Au total, cela offre 2n possibilités de construction et autant parties de E.
Exemple : Soit E = { a, b, c, d} avec a, b, c, d deux à deux distincts. Les arrangements de trois éléments
de E sont les triplets : ( a, b, c), ( a, c, b), ( a, b, d), ( a, d, b), ( a, c, d), ( a, d, c), (b, c, d), (b, d, c),
(b, d, a), (b, a, d), (b, c, a), (b, a, c), (c, d, a), (c, a, d), (c, a, b), (c, b, a), (c, d, b) et (c, b, d).
Remarque : Si p > card( E), il n’existe pas d’arrangements possibles de p éléments de E.
Méthode :
Pour constituer un arrangement ( x1 , . . . , x p ) de E :
• on choisit x1 dans E : n possibilités ;
• on choisit x2 dans E\{ x1 } : n − 1 possibilités ;
.........
• on choisit x p dans E\{ x1 , . . . , x p−1 } : n − p + 1 possibilités.
Au total, cela offre n × (n − 1) × · · · × (n − p + 1) possibilités de construction et autant d’arrange-
ments de p éléments de E.
n!
injections de E dans F.
(n − p)!
Méthode :
Pour construire une injection de E = { x1 , . . . , x p } dans F :
• on choisit f ( x1 ) dans F : n possibilités ;
• on choisit f ( x2 ) dans F \{ f ( x1 )} : n − 1 possibilités ;
.........
• on choisit f ( x p ) dans F \{ f ( x1 ), . . . , f ( x p−1 )} : n − p + 1 possibilité.
Au total , il y a n × (n − 1) × · · · × (n − p + 1) possibilités de construction et autant d’injections de E
dans F.
Exemple : Soit E = { a, b, c, d} avec a, b, c, d deux à deux distincts. Les combinaisons de trois éléments
de E sont les parties { a, b, c}, { a, b, d}, { a, c, d} et {b, c, d}
n
Remarque : En exploitant les coefficients binomiaux généralisés pour lesquels = 0 si p < 0 ou
p
n
p > n, on peut encore dire qu’il y a exactement parties à p éléments dans un ensemble
p
à n, et ce, pour tout p ∈ Z.
D’où le tableau suivant , appelé le triangle de Pascal pour calculer les coéfficients binomiaux
Ensembles dénombrables
vv Objectifs vv
L’objectif de ce chapitre est : Introduire la notion d’ensemble dénombrable
et de famille sommable de nombres réels ou complexes indexée par un tel
ensemble ; cette notion sera utile notamment pour l’étude des probabilités.
Ensembles dénombrables Ensembles dénombrables
Rappels :
• Deux ensembles E et F sont dits équipotents s’il existe une bijection f : E −→ F.
• Si E est un ensemble d’ensembles, alors la relation d’équipotence sur E est une relation d’équiva-
lence.
Exemples : 1/ Soit P (resp. I ) l’ensemble des entiers naturels pairs (resp. impairs).
Les applications f : N −→ P et g : N −→ I sont des bijections. Donc
n 7−→ 2n n 7−→ 2n + 1
P et I sont dénombrables.
2/ Tout ensemble fini est au plus dénombrable car il est équipotent à une partie de N de la
forme [ 1, n] où n ∈ N..
Remarque : Si D est un ensemble dénombrable (resp. au plus dénombrable) alors tout ensemble ∆
équipotent à D est dénombrable (resp. au plus dénombrable).
Proposition 2.1 .
Soit D une partie infinie de N. Alors l’application σ : N −→ D tel que :
σ (0) = min( P)
∀n > 0 , σ (n) = min ( P\{σ (0), . . . , σ (n − 1)})
Preuve :
Définissons par récurrence une suite ( pn )n d’éléments de D de la façon suivante :
Notons p0 le plus petit élément de D. Comme D est infinie, alors D \ { p0 } est non vide. Notons p1
son plus petit élément. Supposons définis les éléments p0 , p1 , . . . , pn de D. Comme D est infinie, alors
D \ { p0 , p1 , . . . , pn } est non vide. On définit alors l’entier pn+1 comme le plus petit élément de cet
ensemble .
L’application n 7−→ pn est une bijection strictement croissante de N sur D.
Si f est une bijection strictement croissante de N sur D alors f (0) = p0 . Puis par récurrence on montre
que f (n) = pn .
Théorème 2.5 .
Soit ( ai )i∈ I et (bi )i∈ I deux familles de réels positifs telles que : ∀i ∈ I : ai 6 bi . Alors :
• Si (bi )i∈ I est sommable, il en est de même de ( ai )i∈ I et on a : ∑ ai 6 ∑ bi .
i∈ I i∈ I
• Si ( ai )i∈ I n’est pas sommable, il en est de même de (bi )i∈ I .
Preuve :
Analogue à celle des séries numériques à termes positifs.
2 1
Exemples : 1/ I = N∗2 , ai j = , bi j = 2 . Comme la famille (bi j )(i, j)∈ I est sommable (d’après
+j 4 i4 i × j2
un exemple précédent), on a la famille ( ai j )(i, j)∈ I est sommable.
ln(i + 2) 1
2/ I = N∗ , bi = , ai = . La famille ( ai )i∈ I n’est pas sommable, il en est de même
i i
de la famille (bi )i∈ I .
Proposition 2.4 .
Soit ( ai )i∈ I et (bi )i∈ I deux familles de réels positifs indexée par I sommables. Soit c ∈ R+ . Alors :
→ La famille ( ai + bi )i∈ I est sommable, et on a : ∑ ( ai + bi ) = ∑ ai + ∑ bi .
i∈ I i∈ I i∈ I
→ La famille (c.ai )i∈ I est sommable, et on a : ∑ (c.ai ) = c. ∑ ai .
i∈ I i∈ I
Théorème 2.6 .
Soit ( Jn )n∈N une suite exhaustive de I . Soit ( ai )i∈ I une famille de réels positifs. Alors les propositions
suivantes sont équivalentes :
• La famille ( ai )i∈ I est sommable.
!
• La suite réelle ∑ ai est majorée.
i ∈ Jn
!n
• La suite réelle ∑ ai est convergente.
i ∈ Jn n ! !
De plus, dans ce cas : ∑ ai = sup ∑ ai = lim ∑ ai .
n ∈N n→+∞
i∈ I i ∈ Jn i ∈ Jn
1
Exemple : On prend : I = N∗2 , ai j = avec : r ∈ R donné. Soit Jn = {(i, j) ∈ I / i + j 6 n}.
(i + j )r [
On a : ( Jn )n est une suite croissante et que I = Jn .
n
n n n
1 1 1
ai j = = 1 = card{(i, j) ∈ I / i + j = k} =
∑ ∑ ∑ (i + j )r ∑ kr ∑ ∑ kr
(i, j)∈ Jn k=2 (i, j)∈ I k=2 (i, j)∈ I k=2
i + j=k i + j=k
n
k−1
∑ .
k=2
kr
n−1 1 n−1
Or r
∼ r−1 , donc ( ai j )(i, j) est sommable si et seulement si ∑ converge si et
n n n nr
seulement si r − 1 > 1 si et seulement si r > 2.
+∞
k−1
En outre dans ce cas : ∑ ai j = lim ∑ ai j = ∑ = ζ (r − 1 ) − ζ (r )
(i, j)∈ I
n→+∞
(i, j)∈ J k=1
kr
n
Espaces probabilisés
vv Objectifs vv
Ce chapitre introduit essentiellement le vocabulaire relatif aux probabilités.
Les objectifs sont :
û Définir les espaces probabilisables .
û Étudier les propriétés d’une probabilité.
û Définir la probabilité conditionnelles .
û Définir les événements indépendants.
Espaces probabilisés Espaces probabilisables
Exemple : Si on lance un dé cubique dont les faces sont numérotées de 1 à 6 et que l’on note le résultat
on effectue une expérience aléatoire.
Dans la suite nous appellerons cette expérience, l’expérience (∗).
Remarque : Une tribu est donc stable par passage au complémentaire et par réunion et intersection finie
ou dénombrable.
Lorsqu’on effectue une expérience aléatoire, certains faits liés à cette expérience peuvent se produire ou
non : on les appelle des événements. Dans l’expérience (∗), on peut par exemple considérer l’événement,
que nous noterons A1 , " le nombre obtenu est pair ". L’événement A1 est réalisé lorsque le résultat est 2, 4 ou
6. On écrit alors A1 = {2, 4, 6}.
En particulier :
◦ Un événement qui est toujours réalisé est appelé un événement certain, il est donc l’ensemble Ω.
◦ Un événement qui n’est jamais réalisé est appelé un événement impossible, il est donc l’ensemble
vide ∅.
Comme un événement est une partie de Ω, on peut appliquer aux événements tout le vocabulaire des
ensembles.
Terminologie ensembliste Terminologie probabiliste
Un sous-ensemble A de Ω Un événement
A∪B Réalisation de A ou B
1
Si tout les événements élémentaires sont équiprobables alors nécessairement on a : P({ωi }) =
. Grâce
n
card( A)
à la propriété précédente on en déduit que pour tout événement A : P( A) = ∑ P(ωi ) =
i /ω ∈ A
n
i
Exemple : Dans l’expérience (∗), l’événement A : " obtenir un nombre pair " est donc de probabilité
égale à :
3 1
P( A) = = .
6 2
Proposition 3.5 .
Soit ( Ai )i∈ I un système complet d’événements d’un espace probabilisé (Ω, A, P). Alors ∑ P( Ai ) = 1
i∈ I
Remarque : Ce résultat est utile pour calculer la probabilité d’une union dénombrable.
Corollaire : Soit (Ω, A, P) un espace probabilisé. Si ( An )n∈N est une suite d’événements de A alors :
∞ ∞
! ! ! !
+
[ n
[ +
\ n
\
P Ak = lim P Ak et P Ak = lim P Ak
n→+∞ n→+∞
k=0 k=0 k=0 k=0
Exemple : On lance indéfiniment un dé équilibré On note A l’événement : " on n’obtient jamais de 6 ".
On note An l’événement "on n’a pas obtenu de 6 lors des n premiers lancers ". En supposant
les lancers indépendants P( An ) = (5/6)n . Puisque la suite ( An )n est décroissante, on a par
continuité P( A) = lim P( An ) = 0.
vv Objectifs vv
Ce chapitre introduit essentiellement le vocabulaire relatif aux variables aléa-
toires discrètes réelles. Ses objectifs sont :
û Définir les variables aléatoires discrètes réelles .
û Étudier les éléments caractéristiques d’une v.a.r.d .
û Étudier les v.a.r.d usuelles.
Variables aléatoires réelles discrètes Généralités sur les variables aléatoires discrètes
Remarque : Dans ce cas on pose : X (Ω) = { xi /i ∈ I } avec I = N, Z ou une de leurs parties finies ou une
partie dénombrable quelconque.
Vocabulaire :
X (Ω) est l’ensemble des valeurs prises par X.
Si X (Ω) est un ensemble fini, on dit que X est une v.a.r.d finie. Sinon on dit que X est une v.a.r.d
infinie.
Exemple : Un joueur lance deux fois de suite un dé et note les deux nombres obtenus sous la forme
d’un couple : par exemple si le joueur obtient 2 puis 5, on note son résultat sous la forme
(2, 5). L’univers de notre expérience est Ω = [[1; 6]] × [[1; 6]].
On définit la v.a.r.d X qui à chaque couple associe la somme des deux nombres obtenus. Ici
on a X (Ω) = {2, 3, . . . , 12}. Donc X est une v.a.r.d finie.
Exemple : On effectue une succession de lancers d’un dé cubique jusqu’à obtenir 6. Soit X le nombre
de lancers effectués.
Il est très difficile ici de décrire l’univers de notre expérience mais on peut tout de même
donner très clairement X (Ω).
En étant rigoureux on devrait écrire : X (Ω) = N∗ ∪ {+∞} car il se peut que l’on obtienne
jamais 6. Mais on peut démontrer que la probabilité de ne jamais obtenir 6 est égale à 0,
c’est-à -dire que l’on obtiendra presque sûrement 6. On peut alors choisir de considérer que
X (Ω) = N∗ et donc X est une v.a.r.d infinie.
En particulier :
Lorsque B = { a}, alors ( X ∈ { a}) se note ( X = a).
Lorsque B =] − ∞, a], alors ( X ∈ B) se note ( X 6 a).
Lorsque B = [ a, b[, alors ( X ∈ B) se note ( a 6 X < b).
. . . . . ..
Exemple : Revenons au premier exemple où un joueur lance deux fois de suite un dé et X est la somme
des deux chiffres obtenus. On a
( X = 2) = {(1, 1)} ; ( X = 4) = {(1, 3), (2, 2), (3, 1)}
( X 6 5) = {(1, 1), (1, 2), (2, 1), (1, 3), (2, 2), (3, 1), (1, 4), (2, 3), (3, 2), (4, 1)}
Méthodologie :
Lorsque vous devez répondre à la question « déterminer la loi de X », il faut commencer par donner
clairement X (Ω) = { xk / k ∈ I }. Puis pour chaque k ∈ I il faut donner pk = P( X = xk ).
Lorsque X (Ω) est fini et ne contient « pas trop » d’éléments, on peut présenter ses résultats sous forme
de tableau avec dans la première ligne les valeur de xk et dans la deuxième ligne P( X = xk ).
Exemple : (∗) : On choisit au hasard une carte dans un jeu de 52 cartes. Ω est l’ensemble des 52 cartes.
A chaque carte ω ∈ Ω, on associe le réel X (ω) défini par :
X (ω) = 4 si ω est un as X (ω) = 3 si ω est un roi
X (ω) = 2 si ω est une dame X (ω) = 1 si ω est un valet
X (ω) = 0 dans tous les autres cas.
Déterminons, alors, la loi de cette v.a.r.d X.
Solution :
• D’après l’énoncé X (Ω) = {0, 1, 2, 3, 4}.
• L’événement ( X = 0) est l’événement « obtenir un carte qui n’est pas un roi, une dame, un
valet ou un as ». Toutes les cartes ayant la même probabilité d’être choisies et comme il y a 36
36 9
cartes correspondant à notre événement on a : P( X = 0) = =
52 13
4 1
• L’événement ( X = 1) est l’événement « obtenir un valet » donc P( X = 1) = = .
52 13
4 1
• De même P( X = 2) = P( X = 3) = P( X = 4) = = .
52 13
Donc , on peut donner la loi de X sous la forme :
Valeur de X 0 1 2 3 4
9 1 1 1 1
Probabilité
13 13 13 13 13
Il faut aussi être capable, lorsqu’on vous donne des valeurs pour pk et xk , de déterminer si ces valeurs
sont la loi d’une v.a.r.d :
P( X = xk ) = pk , ∀k ∈ I
Preuve :
n n
1 1 n(n + 1) n+1
• E( X ) = ∑ kP(X = k) = ∑ k × n = n × =
k=1 k=1
2 2
• On sait que V ( X ) = E( X ) − E( X )2 .
2
n n
1 1 n(n + 1)(2n + 1) (n + 1)(2n + 1)
Or E( X 2 ) = ∑ k2 P( X = k) = ∑ k2 × n = n × =
k=1 k=1
6 6
(n + 1)(2n + 1) (n + 1)2 n2 − 1
Donc V ( X ) = − = .
6 4 12
Une v.a.r.d qui suit une loi binomiale est une v.a.r.d qui « compte le nombre de réalisation d’un
événement A de probabilité p au cours de n expériences identiques. »
Proposition 4.14 .
Si X suit la loi hypergéométrique H( N, n, p) alors : E( X ) = np.
Solution :
On note Rk l’événement « la carte obtenue au kième essai est un roi rouge ».
I. Premier protocole
1/ • On peut au mieux obtenir le premier roi rouge à la première carte et au pire on obtiendra forcé-
ment un roi rouge à la (2n − 1)ième carte. Donc X (Ω) = [[1; 2n − 1]].
• Pour tout k ∈ X (Ω), si k 6= 1, on peut écrire l’événement [ X = k] de la façon suivante :
[ X = k] = R1 ∩ R2 ∩ ... ∩ Rk−1 ∩ Rk
2n − 2 2n − 3 2n − k 2
P( X = k) = × × ... × ×
2n 2n − 1 2n − k + 2 2n − k + 1
2n − k
=
n(2n − 1)
2 1
De plus P( X = 1) = P( R1 ) = = . (On remarque que la formule du dessus fonctionne en fait
2n n
aussi pour k = 1.)
2/ X est une VAR discrète finie, donc X admet une espérance et :
2n−1
E( X ) = ∑ kP( X = k)
k=1
2n−1 2n−1
2n 1
=
n(2n − 1) k∑
k −
n ( 2n − 1 ) ∑ k2
=1 k=1
2n (2n − 1)2n 1 (2n − 1)(2n)(4n − 1)
= × − ×
n(2n − 1) 2 n(2n − 1) 6
4n − 1
= 2n −
3
2n + 1
=
3
3/
n
E( G2 ) = ∑ (a − k)P(G2 = a − k) − nP(G2 = −n)
k=1
n
1 n(n − 1)
= ∑ ( a − k)(2n − k) −
n(2n − 1) k=1 2(2n − 1)
n
1 n(n − 1)
= ∑ 2an − ( a + 2n)k + k2 −
n(2n − 1) k=1 2(2n − 1)
2an a + 2n n(n + 1) 1 n(n + 1)(2n + 1) n(n − 1)
= ×n− × + × −
n(2n − 1) n(2n − 1) 2 n(2n − 1) 6 2(2n − 1)
12an − 3( a + 2n)(n + 1) + (n + 1)(2n + 1) − 3n(n − 1)
=
6(2n − 1)
3a(4n − n − 1) − 6n − 6n + 2n2 + 3n + 1 − 3n2 + 3n
2
=
6(2n − 1)
2
3a(3n − 1) − (7n − 1)
=
6(2n − 1)
15 85
E( G1 ) − E( G2 ) = a−
62 62
85
On voit donc que si a > ≈ 5, 6 alors le premier protocole est le plus favorable. Dans le cas contraire
15
c’est le deuxième protocole qui est le plus favorable.
Exercice .7 :
On joue à pile ou face avec une pièce non équilibrée. A chaque lancer la probabilité d’obtenir face est
1
égale à .
3
Les lancers sont supposés indépendants. On note X la variable aléatoire réelle égale au nombre de lancers
nécessaires pour l’obtention pour la première fois de deux piles consécutifs. Soit n un entier naturel non
nul. On note pn la probabilité de l’événement [ X = n].
On note de plus Fi l’événement « obtenir face au iième lancer ».
1/ Expliciter les événements [ X = 2], [ X = 3], [ X = 4], [ X = 5] à l’aide des événements Fi et Fi
Déterminer la valeur de p1 , p2 , p3 , p4 , p5 .
2/ A l’aide de la formule des probabilités totales, en distinguant deux cas selon le résultat du premier
lancer, montrer que :
2 1
∀n > 3, pn = pn−2 + pn−1
9 3
3/ En déduire l’expression de pn en fonction de n, pour n > 1.
4/ Calculer E( X ).
Solution :
2 2 4
1/ — [ X = 2] = F1 ∩ F2 donc p2 = × = (car les lancers sont indépendants)
3 3 9
4
— [ X = 3] = F1 ∩ F2 ∩ F3 donc p3 =
27
vv Objectifs vv
Ce chapitre introduit les propriétés des couples de variables aléatoires dis-
crètes réelles. Ses objectifs sont :
û Définir les lois des couples de variables aléatoires discrètes réelles .
û Étudier les variables aléatoires discrètes réelles indépendantes.
û Étudier la fonction de deux variables aléatoires discrètes réelles.
Suites de variables aléatoires discrètes Couple de v.a.r.d discrètes
Remarque : On prolonge de la même façon la définition précédente à un nombre fini de variables aléa-
toires discrètes.
Remarques : Lorsqu’on vous demande la loi du couple ( X, Y ) il faut toujours commencer par rappeler
X (Ω), Y (Ω) puis il faut donner la valeurs de P( X = xi , Y = y j ) où xi ∈ X (Ω) et y j ∈
Y ( Ω ).
P( X = xi , Y = y j ) = pi j , ∀(i, j) ∈ I × J
Exemple : Dans une succession de pile ou face pour laquelle la probabilité d’obtenir pile est p ∈]0; 1[
et la probabilité d’obtenir face est q = 1 − p, on note X le rang d’apparition du premier pile
et Y le rang d’apparition du deuxième pile. Déterminer la loi du couple ( X, Y ).
Solution :
• On a X (Ω) = N∗ et Y (Ω) = N \ {0, 1}. Soit i ∈ X (Ω) et j ∈ Y (Ω).
• Il est impossible que le deuxième pile arrive avant le premier donc si i > j on a :
P( X = i, Y = j) = 0
• Si i < j, on a ( X = i) ∩ (Y = j) = F1 ∩ · · · ∩ Fi−1 ∩ Pi ∩ Fi+1 ∩ · · · ∩ Fj−1 ∩ Pj et les lancers sont
indépendants donc on a : P( X = i, Y = j) = qi−1 × p × q j−i−1 × p = q j−2 p2
Exemple : Une urne contient 2 boules blanches, 3 boules rouges et 4 boules bleues. On extrait 3 boules
de l’urne. On note X le nombre de boules blanches parmi ces 3 boules et Y le nombre de
boules rouges. Déterminer la loi du couple ( X, Y ).
• Z (Ω) = {0; 1; 2; 3; 4; 6} et
Valeur de Z 0 1 2 3 4 6
51 2 3
Probabilité 0 0 0
84 7 28
Si on a calculé la loi de Z = g( X, Y ) alors on peut calculer l’espérance de façon classique mais si on n’a
pas déterminé clairement la loi de Z alors le théorème suivant peut aider...
de plus on a :
Proposition 5.8 .
→ E( XY ) = ∑ xyP( X = x, Y = y).
( x,y)∈ X (Ω)×Y (Ω)
→ Si X et Y sont indépendantes alors E( XY ) = E( X ) E(Y ). La réciproque est fausse. Ce n’est pas parce
que E( XY ) = E( X ) E(Y ) que les v.a.r.d sont indépendantes.
Preuve :
1/ Il suffit d’appliquer le théorème de transfert.
2/ Comme X et Y sont indépendantes :
E( XY ) = ∑ xi y j P( X = xi ) P(Y = y j ) = ∑ ( ∑ xi y j P( X = xi ) P(Y = y j ))
(i, j)∈ I × J i∈ I j∈ J
Corollaire : Si X et Y sont deux variables aléatoires réelles admettant un moment d’ordre 2, alors la
variable aléatoire X + Y admet aussi un moment d’ordre 2.
Interprétation :
◦ Ce nombre est un réel compris entre −1 et 1 qui compare les similarités entre les lois de X et de Y.
◦ Il est égal à 1 dans le cas où l’une des variables est fonction affine croissante de l’autre variable et il est
égal à −1 dans le cas où la fonction affine est décroissante.
◦ Les valeurs intermédiaires renseignent sur le degré de dépendance linéaire entre les deux variables.
Plus le coefficient est proche des valeurs extrêmes −1 et 1, plus la corrélation entre les variables est
forte ; on emploie simplement l’expression à « fortement corrélées à » pour qualifier les deux variables.
◦ Une corrélation égale à 0 signifie que les variables sont linéairement indépendantes.
Preuve :
. . . . . . . . . . . . . . . . . . . . . . . . Un bon exercice à faire . . . . . . . . . . . . . . . . . . . . . . . .
Preuve :
. . . . . . . . . . . . . . . . . . . . . . . . Un bon exercice à faire . . . . . . . . . . . . . . . . . . . . . . . .
Preuve :
. . . . . . . . . . . . . . . . . . . . . . . . Un bon exercice à faire . . . . . . . . . . . . . . . . . . . . . . . .
vv Objectifs vv
Ce chapitre introduit les propriétés des variables aléatoires à densité. Il a
pour objectifs :
û Introduire la notion de variables aléatoires à densité .
û Étudier les moments d’une variable aléatoire à densité.
û Étudier les lois usuelles.
Variables aléatoires à densité Notion de variable aléatoire à densité
Rappels :
Une variable aléatoire réelle (VAR) est une application X : Ω → R où (Ω, A, P) est un espace probabi-
lisé. Lorsque X (Ω) est un ensemble discret on dit que X est une VAR discrète.
Pour toutes les VAR (discrètes ou non) on définit la fonction de répartition de X, que l’on note FX , par
FX ( x) = P( X 6 x) pour tout réel x.
Remarque : La fonction f X n’est pas unique c’est pourquoi on dit que c’est une densité de X. En effet si
g est une fonction égale à f X sauf en un nombre fini de points alors g est aussi une densité
de X.
Le théorème suivant, nous permet de vérifier si une fonction f donnée est une densité d’une variable X.
(
e− x si x > 0
Exemple : Soit f la fonction définie sur R par f ( x) = . Montrer que c’est une densité
0 si x < 0
de probabilité.
Solution :
Comme l’exponentielle est positive, f est bien une fonction à valeurs positives ou nulles.
• Sur ] − ∞; 0[ f est la fonction nulle donc f est continue sur ] − ∞; 0[.
• Sur [0; +∞[, f est la composée des fonctions x → − x et t → et qui sont continues sur R, donc f
est continue sur [0; +∞[.
• Ainsi on a montré que f est continue sur R∗ .
Z +∞
Il nous faut maintenant vérifier la convergence de f ( x) dx et calculer la valeur de cette inté-
−∞
grale.
Z 0
• f est nulle sur ] − ∞; 0[ donc f ( x) dx est convergente et vaut 0.
−∞
Remarque : Pour montrer que deux variables à densité X et Y sont indépendantes il faut montrer que
pour tout x ∈ R et y ∈ R on a P (( X 6 x) ∩ (Y 6 y)) = P( X 6 x) × P(Y 6 y).
(
6x(1 − x) si x ∈ [0; 1]
Exemple : Soit f la fonction définie sur R par : f ( x) =
0 sinon
Montrer que f est une densité d’une variable aléatoire X. X admet-elle une espérance ? Si
oui, la calculer.
Solution :
• Comme x(1 − x) > 0 pour x ∈ [0; 1], f est bien une fonction positive.
De plus on vérifie facilement que f est continue sur R.
Z 0 Z +∞
Enfin on voit que f ( x) dx et f ( x) dx sont convergentes car f est nulle sur ] − ∞; 0] et
Z 1 −∞ 1
sur [1; +∞[ et f ( x) dx est convergente car f est continue sur [0; 1].
0
Z +∞
Donc f ( x) dx est convergente et :
−∞
Z +∞ Z 0 Z 1 Z +∞ Z 1
f ( x) dx = 0 dx + 6x(1 − x) dx + 0 dx = (6x − 6x2 ) dx = [3x2 − 2x3 ]10 = 1
−∞ −∞ 0 1 0
Donc f est bien une densité de probabilité.
Z 0 Z +∞
• La fonction x 7−→ | x f ( x)| est nulle sur ] − ∞; 0] et sur [1; +∞[ donc | x f ( x)| dx et | x f ( x)| dx
Z∞1
− 1
sont convergente. De plus x 7−→ | x f ( x)| est continue sur [0; 1] donc | x f ( x)| dx est aussi conver-
0
gente.
Z +∞
Par conséquent x f ( x) dx est absolument convergente et X admet donc une espérance. De
−∞
plus :
Z 0 Z 1 Z +∞ Z 1 1
2 3 1
E( X ) = 0 dx + 6x (1 − x) dx + 0 dx = 2 3
(6x − 6x ) dx = 2x − x4 3
=
−∞ 0 1 0 2 0 2
0 si x < 1
Exemple : Soit f la fonction définie sur R par f ( x) = 1 .
2
si x > 1
x
Montrer que f est une densité d’une variable aléatoire X. X admet-elle une espérance ? Si
oui, la calculer.
Solution :
• f est bien une fonction à valeurs positive
De plus f est continue sur R \ {1}.
Z 1
On voit que f ( x) dx est convergente car f est nulle sur ] − ∞; 1[.
−∞
Z +∞
1
Ainsi t f (t) dt est absolument convergente donc X admet une espérance et E( X ) = .
−∞ λ
Preuve :
Nous n’allons ici démontrer qu’un sens de l’équivalence :
Soit X suivant la loi E (λ ). Alors pour tout réels s et t positifs :
P(( X > s + t) ∩ ( X > s)) P( X > s + t)
P(X >s) ( X > s + t) = =
P( X > s) P( X > s)
Z +∞
∞
Or P( X > s) = λe−λx dx = [−e−λx ]+
s = e−λs et de même P( X > s + t) = e−λ(s+t) . Donc :
s
e−λ (s+t)
P(X >s) ( X > s + t) = = e−λt = P( X > t)
e−λs
v Loi normale
Z +∞
2 /2 √
Remarque : Pour vérifier que f est une densité de probabilité, utiliser e− x dx = 2π.
−∞
Voici la représentation graphique de la densité d’une loi normale centrée réduite :
Pour la fonction de répartition, nous ne sommes pas capable de l’exprimer avec de fonctions usuelles.
Il faudra cependant bien savoir utiliser la propriété que nous allons mettre ci-dessous et savoir utiliser le
tableau de valeurs approchées que nous verrons en exercice.
Preuve :
Tout repose ici sur le fait que la densité est paire :
Z −x Z −x
Φ(− x) = f (t) dt = lim f (t) dt
−∞ A→−∞ A
Z x
= lim f (−u) (−du) changement de variable u = −t
A→−∞ − A
Z −A Z +∞
= lim f (u) du = f (u) du = 1 − Φ( x)
A→−∞ x x
ex
Une densité de X est par exemple f ( x) = .
(1 + e x )2
Exercice .4 : (
0 si x < 0
Soit X une VAR dont la fonction de répartition F est définie par : F ( x) = − x2 /2
1−e si x > 0
Montrer que X est une variable à densité et déterminer une densité de X.
Solution :
1/ La fonction nulle est continue sur ] − ∞; 0[ et par produit de fonctions continues, la fonction x →
2
1 − e−x /2 est continue sur ]0; +∞[. Donc F est continue sur R∗ .
De plus lim F = 0 = lim F = F (0) donc F est en fait continue sur R.
0− 0+
2/ La fonction nulle est de classe C 1 sur ] − ∞; 0[ et par produit de fonctions de classe C 1 , la fonction
2
x → 1 − e−x /2 est de classe C 1 sur ]0; +∞[. Donc F est de classe C 1 sur R∗ .
X est donc une variable à densité.
Pour obtenir une densité il suffit de dériver( F là où F est dérivable.
0 si x < 0
Une densité de X est par exemple f ( x) = − x2 /2
.
xe si x > 0
(
0 si t < 0 0 si t < 1
1/ g(t) = 2/ h(t) = 4 ln t
4te−2t si t > 0 si t > 1
t3
Solution :
Z 0
1/ Comme t → t g(t) est nulle sur ] − ∞; 0[, l’intégrale t g(t) dt est absolument convergente et
−∞
vaut 0. Z +∞
Sur [0; +∞[, t → |t g(t)| est continue donc l’intégrale |t g(t)| dt ne pose problème qu’en +∞.
0
Soit A > 0, par intégration par parties :
Z A Z A h iA Z A Z A
2 −2t 2 −2t −2t 2 −2A
|t g(t)| dt = 4t e dt = −2t e + 4te dt = −2A e + 4te−2t dt
0 0 0 0 0
Z A
Dans l’exercice 1 on a calculé : 4te−2t dt = −2Ae−2A − e−2A + 1
0
Z A
Donc |t g(t)| dt = −2A2 e−2A − 2Ae−2A − e−2A + 1.
0
Z +∞
Or lim −2A2 e−2A − 2Ae−2A − e−2A + 1 = 1 donc l’intégrale t g(t) dt est absolument
A→+∞ 0
convergente et vaut 1.
Z +∞
En conclusion t g(t) dt est absolument convergente et vaut 1.
−∞
X admet donc une espérance et E( X ) = 1.
Z 1
2/ Comme t → t h(t) est nulle sur ] − ∞; 1[, l’intégrale t h(t) dt est absolument convergente et
−∞
vaut 0. Z +∞
Sur [1; +∞[, t → |t h(t)| est continue donc l’intégrale |t h(t)| dt ne pose problème qu’en +∞.
1
Z +∞
4 ln( A) 4
Soit A > 1, par intégration par parties : lim − − + 4 = 4 donc l’intégrale t h(t) dt
A→+∞ A A 1
est absolument convergente et vaut 4.
Z +∞
En conclusion |t h(t)| dt est convergente et vaut 4.
−∞
X admet donc une espérance et E( X ) = 4.
Exercice .6 :
4 ( 1 − x )1/3 si 0 6 x 6 1
On considère la fonction f définie par : f ( x) = 3
0 sinon
1/ Montrer que f est la densité d’une variable aléatoire Y.
2/ Déterminer la fonction de répartition F de la variable Y.
3/ Calculer l’espérance de la variable Y.
4/ Calculer la probabilité de l’événement (0, 488 < Y 6 1, 2)
Solution :
1/ (a) Pour x 6∈ [0; 1] on a f ( x) = 0 > 0 et si x ∈ [0; 1], (1 − x) > 0 donc f ( x) > 0.
f est bien une fonction à valeurs positives.
(b) f est bien continue sur ] − ∞; 0[ et sur ]1; +∞[ car f est la fonction nulle sur ces intervalles.
Sur ]0; 1[ , f est la composée de fonction continues donc f est continue.
f est donc continue sur R \ {0; 1}.
Z 0 Z +∞
(c) Les intégrales f ( x) dx et f ( x) dx sont convergentes car f est nulle sur ces intervalles
−∞ 1
et ces intégrales valent 0.
Z 1
Sur [0; 1] la fonction f est continue donc l’intégrale f ( x) dx est convergente. De plus :
0
Z 1 h i1
f ( x) dx = −(1 − x)4/3 = 1
0 0
Z +∞ Z +∞
Donc f ( x) dx est convergente et f ( x) dx = 1
−∞ −∞
f est bien une densité de probabilité.
Z x
2/ Par définition F ( x) = f (t) dt.
Z x −∞
• Si x < 0, F ( x) = 0 dt = 0.
−∞
Z 0 Z x Z x
4
• Si 0 6 x 6 1, F ( x) = f (t) dt + f (t) dt = (1 − t)1/3 dt = 1 − (1 − x)4/3 .
−∞ 0 0 3
Z 0 Z 1 Z x Z 1
4
• Si x > 1, F ( x) = f (t) dt + f (t) dt + f (t) dt = (1 − t)1/3 dt = 1.
−∞ 0 1 0 3
0
si x < 0
F ( x) = 1 − (1 − x)4/3 si 0 6 x 6 1
1 si x > 1
Convergences et
approximations
vv Objectifs vv
Ce chapitre introduit les notions suivantes :
û Inégalité de Bienaymé-Tchebychev .
û Convergence d’une suite de VAR.
û Approximation de variables aléatoires.
Convergences et approximations Des inégalités remarquables
Dans tout ce chapitre, les démonstrations seront faites dans le cas des variables discrètes et des variables
à densité.
Preuve :
• Cas d’une variable finie ou discrète : Comme xi > 0 pour tout i ∈ I ⊆ N ; on a :
E( X ) = ∑ P( X = xi ) xi > ∑ P( X = xi ) xi > a ∑ P( X = xi ) = aP( X > a)
i∈ I i∈ I i∈ I
xi > a xi > a
• Cas d’une variable continue à densité : Désignons par f la densité de X. Comme X ne prend que
Z +∞
des valeurs positives, f est identiquement nulle sur R− et on a donc E( X ) = t f (t)dt.
0
Z +∞ Z +∞ Z +∞
E( X ) = t f (t)dt > t f (t)dt > a f (t)dt = aP( X > a).
0 a a
Solution :
1/ La fréquence est égale au nombre de 1 obtenus divisé par le nombre total de lancers effectués donc
Xn
on a Fn = .
n
1 1
2/ On cherche n pour que P Fn − < > 0, 95.
6 100
1
3/ Nous souhaitons ici appliquer l’inégalité de Bienaymé-Tchebychev sur Fn avec ε = . Nous
100
avons besoin de E( Fn ) et de V ( Fn ).
1 n 5n
Xn suit une loi binomiale B n, donc E( Xn ) = et V ( Xn ) = .
6 6 36
1 5
On en déduit donc que E( Fn ) = et V ( Fn ) =
6 36n
L’inégalité de Bienaymé-Tchebychev nous dit que :
5.104 5.104
1 1 1 1
P Fn − > 6 ⇐⇒ P Fn − < > 1−
6 100 36n 6 100 36n
5.10 4
Il suffit donc de choisir n tel que 1 − > 0, 95 c’est-à-dire n > 27778.
36n
Preuve :
Utiliser l’inégalité de Jensen pour une fonction convexe
Proposition 7.3 .
Soit X une variable aléatoire réelle. Si la suite de fonctions ( f k )k converge simplement sur R vers une
fonction g, la suite de variables aléatoires réelles ( f k ( X ))k converge en probabilité vers g( X ).
Preuve :
1 n 1
On a E( X n ) = E( Xi ) = nm = m et comme les variables sont indépendantes,
n i∑
=1 n
1 n σ2
V ( X n ) = 2 ∑ V ( Xi ) = .
n i =1 n
σ2
D’après l’inégalité de Bienaymé-Tchebychev, 0 6 P | X n − m| > ε 6 2
nε
Donc par encadrement de limites, lim P | X n − m| > ε = 0
n→+∞
Exercice .2 :
Soit X une VAR à densité. Pour tout entier naturel non nul n, on pose Xn = e1/n X. Montrons que
( Xn )n∈N∗ converge en loi vers X.
Solution :
On note F la fonction de répartition de X et Fn la fonction de répartition de Xn .
Il faut ici montrer que pour tout réel x, lim Fn ( x) = F ( x). Pour cela on va exprimer Fn ( x) en fonction de
n→+∞
F ( x ).
Pour tout réel x, on a Fn ( x) = P( Xn 6 x) = P(e1/n X 6 x) = P( X 6 e−1/n x) = F (e−1/n x).
Or, pour tout réel x fixé, lim e−1/n x = x et comme X est une variable à densité, F est continue en x.
n→+∞
−1/n
Donc lim F (e x ) = F ( x ).
n→+∞
Ainsi, pour tout réel x, lim Fn ( x) = F ( x) donc ( Xn ) converge en loi vers X.
n→+∞
Proposition 7.4 .
Soit ( Xn ) une suit de VAR convergeant en loi vers la VAR X. Pour tous points a et b de continuité de
FX tels que a < b, on a :
lim P( a < Xn 6 b) = P( a < X 6 b)
n→+∞
Z 1
1 2 /2
lim P(0 6 Mn − m 6 σn ) = lim P(0 6 Mn∗ 6 1) = P(0 6 M∗ 6 1) = √ e− x dx
n→+∞ n→+∞ 2π 0
Exercice .11 :
Chaque année, M. FARESS effectue deux fois par jour, 5 jours par semaine et pendant 46 semaines, un
trajet en voiture dont la durée est une VAR X qui suit une loi d’espérance 45 min et d’écart-type 10 min.
On suppose que les durées des trajets sont mutuellement indépendantes. Quelle est la probabilité pour
que M. FARESS passe au moins 350 h dans sa voiture au cours de l’année ?
Solution :
Au cours de l’année M. FARESS effectue donc 2 × 5 × 46 = 460 trajets.
Notons Xi la VAR égale à la durée en minutes du iième trajet. L’énoncé nous dit que les VAR Xi sont
mutuellement indépendantes et que E( Xi ) = 45 et V ( Xi ) = 100.
460
Le temps que passe M.FARESS dans sa voiture en une année est donc Y = ∑ Xi et on cherche à
i =1
calculer P(Y > 21000).
La fait de voir une somme de VAR indépendantes suivants toutes la même loi de variance non nulle
nous fait penser au théorème de la limite centrée.
Comme ici 460 > 30 on peut approcher la loi de Y ∗ par la loi normale centrée réduite.
Y − 460 × 45
On a Y ∗ = √ donc
46000
21000 − 460 × 45
∗
P(Y > 21000) = P Y > √ ≈ P(Y ∗ > 1, 40) ≈ 1 − Φ(1, 40) ≈ 0, 0808
46000
Estimations
vv Objectifs vv
Ce chapitre introduit les notions suivantes :
û Estimateur - Estimation .
û Estimation de l’espérance.
û Intervalle de confiance.
Estimations Introduction
8.1. Introduction
Exemple : Si on cherche à calculer la taille moyenne d’un homme de 40 ans en France, il est impossible
de déterminer exactement la taille de tous les hommes français et d’en faire une moyenne.
Pour donner une valeur approchée de cette moyenne on prend un échantillon d’hommes,
par exemple 1000 hommes, on détermine leur taille puis on fait la moyenne. Avec un échan-
tillon assez grand on considère que l’on a obtenu une valeur approchée, « une estimation »,
de la taille moyenne d’un homme de 40 ans.
Exemple : On dispose d’une urne contenant des boules rouges et des boules blanches mais on ne
connaît pas la composition de l’urne. En 100 tirages avec remise on obtient 30 boules rouges
et 70 boules blanches. A combien peut-on estimer la proportion de boules rouges dans
l’urne ?
Mise en place de la théorie :
On considère une expérience aléatoire e et une variable aléatoire réelle X qui lui est liée. On ne connaît
pas la loi de X mais on sait qu’elle appartient à une famille de loi dépendant d’un paramètre θ réel qui
appartient à un ensemble Θ. (par exemple X suit une loi de poisson de paramètre λ inconnu mais on sait
que λ ∈ R+ )
Lorsqu’on réalise une fois l’expérience e, la valeur que prend X, souvent notée x, s’appelle une réalisation
de X.
Le but ici est de donner une valeur approchée de θ à l’aide de la donnée de n réalisations de X, que l’on
notera ( x1 , · · · , xn ). Le n-uplet ( x1 , · · · , xn ) s’appelle un n-échantillon de données.
Retour au second exemple : Prenons ici X la variable qui vaut 1 si on tire une boule rouge et 0 sinon.
Alors on sait que X suit une loi de Bernoulli de paramètre p où p est la probabilité de tirer une boule rouge,
c’est-à-dire que p est la proportion de boules rouges. Dans cette expérience on cherche à connaître la valeur
de p. On a donc ici θ = p et Θ =]0; 1[.
L’énoncé de cet exemple, nous dit que lors de 100 réalisations de la variable X, X a pris 30 fois la valeur 1
et 70 fois la valeur 0.
Nous allons voir deux types d’estimations : soit on cherchera une valeur approchée de θ soit nous cherche-
rons un intervalle dans lequel θ a une forte probabilité de se trouver.
A chaque fois que l’on réalise n fois l’expérience e, on obtient des échantillons de données différents. On
peut donc définir les variables aléatoires X1 , · · · , Xn définies de la façon suivante : à chaque réalisation de
n fois l’expérience E , Xi correspond à la valeur prise par X lors de la iième réalisation de E .
Tn = f ( X1 , . . . , Xn )
Théorème 8.1 .
Soit Tn un estimateur de θ admettant un moment d’ordre 2. Alors on a : r( Tn ) = V ( Tn ) + (b( Tn ))2 .
Preuve :
r( Tn ) = E([ Tn − θ ]2 ) = E( Tn2 − 2θTn + θ 2 )
= E( Tn2 ) − 2θE( Tn ) + θ 2 or E( Tn2 ) = V ( Tn ) + E( Tn )2
= V ( Tn ) + ( E( Tn ))2 − 2θE( Tn ) + θ 2
= V ( Tn ) + ( E( Tn ) − θ )2 = V ( Tn ) + (b( Tn ))2
Preuve :
1 n 1
On a E( Xn ) = ∑ E( Xi ) = × nm = m donc b( Xn ) = 0. Comme les Xi sont indépendantes
n i =1 n
1 n 1 V (X)
r( Xn ) = V ( Xn ) = 2 ∑ V ( Xi ) = 2 nV ( X ) = . Donc r( Xn ) → 0 lorsque n → +∞
n i =1 n n
vv Objectifs vv
Ce chapitre introduit des sujets ou extraits de certains concours :
û
û
û
Cours de Mathématiques
Mathématiques Spéciales
αβ
Ψ Ω
-T
a h a -
ba
a-
H i φ
Ay ϕ
ξ
Classes Préparatoires
aux
Grandes Écoles d’Ingénieurs