Cours Proba
Cours Proba
Part I
Exercice :
P (−1)n
la série est évidemment convergente ( évidemment est nullement un nouveau mode de convergence
n
)
1/ Montrer de deux façons diérentes que sa somme vaut :
+∞
X (−1)n
= − ln(2)
n=1
n
2/ On permute l'ordre des termes : par exmple deux termes d'indices impairs puis un d'indice pair etc..
1 1 1 1 1
la suite est donc −1, − , , − , − , , ...
3 2 5 7 4
Montrer que la série est encore convergente mais sa somme n'est plus la même.
1/ Une première façon de faire : associer une série entière à cette série numérique :
X (−1)n
.xn
n≥1
n
qui est de rayon de convergence égal à 1 et qui est en fait un développement usuel :
X (−1)n+1
∀x ∈ ]−1, 1[ , ln (1 + x) = .xn
n=1
n
Attention: le développement est valable sur l'inervalle ouvert ( c'est un résultat du cours ). L'est-il également
au point x=1 ? La réponse est : Oui, mais ce n'est pas un résultat du cours.
Nous allons donc prouver la continuité de la somme de la série entière sur le segment [0, 1], en appliquant
le théorème de continuité de la somme d'une série de fonctions.
(−1)n n
Chacune des fonctions : fn : x 7−→ .x est continue sur [0, 1] et la convergence y est uniforme :
n
xn
La suite étant décroissante et de limie nulle, on a la majoration usuelle dûe au critère des séries
n n
alternées :
xn+1 1
∀n ∈ N∗ , |Rn (x)| ≤ ≤
n+1 n+1
ce qui prouve bien la convergence uniforme sur [0, 1] .
La continuité ainsi prouvée montre alors que
+∞
X (−1)n
= − ln(2)
n=1
n
Une seconde façon de faire consiste à regrouper les termes d'indices pairs et ceux d'indices impairs dans
les somme partielles :
2n n n
X (−1)p X 1 X 1
S2n = = −
p=1
p k=1
2k k=1 2k − 1
Pn 1
En notant Hn = k=1 k , on a :
2n n n
X 1 X 1 X 1
H2n = = +
p=1
p k=1
2k k=1 2k − 1
S2n = Hn − H2n
n
X 1 1
= H2n − Hn
k=1
2k − 1 2
Hn = ln(n) + γ + o(1)
Il vient alors :
S2n = ln(n) + γ + o(1) − ln(2n) − γ + o(1) = − ln(2) + o(1)
et la la limite en découle.
2/ Considérons
n 2n
X 1 X 1
S3n = −
k=1
2k k=1 2k − 1
où on a pris conformément à l'énonce 2n termes d'indices impairs et n termes d'indices pairs.
On a donc
1 1 1 1
S3n = Hn − H4n − H2n = −H4n + H2n + Hn
2 2 2 2
1 1
= − (ln(4n) + γ) + (ln(2n) + γ) + (ln(n) + γ) + o(1)
2 2
3
= − . ln(2) + o(1)
2
qui a donc pour limite − 32 . ln(2).
1 1 1
Comme S3n+1 = S3n − 4n+1 et que S3n+2 = S3n −
4n+1
− 4n+3 , et sont donc convergentes de même limite
3
que S3n , il s'en suit que la série en question est bien convergente de somme valant − . ln(2) .
2
On voit donc, qu'en regroupant les termes de manière diérente ( en changeant l'ordre ) la série, bien
qu'elle reste convergente, a une somme diérente.
La famille n'est pas sommable !!!
2 Un théorème (MP)
Dans le programme ociel gure cinq théorèmes : dont deux sont admis et pour trois la démonstration n'est
pas exigible.
En voici un :
P
Théorème : Si une série un est absolument convergente , alors la famille (un /n ∈ N) est sommable.
et par conséquent la valeur de sa somme est invariante par permutation de l'ensemble des indices.
On voit alors le défaut de l'exemple étudié précédemment!
Preuve :
P
Soit σ une bijection de N dans N. Il s'agit de montrer que la série uσ(n) est convergente et que
+∞
X +∞
X
uσ(n) = un
n=0 n=0
P
On montre, en fait, que la série uσ(n) est absolument convergente.
On sait qu'une série à termes positifs est onvergente si et seulement si la suite de ses sommes partielles
est majorée.
n, Sn = nk=0 |uk | et Tn = nk=0 uσ(k)
P P
Notons, pour tout
Il existe c > 0 telle que ∀n ∈ N , Sn ≤ c
Notons, pour tout n, N (n) = max {σ(k)/k ∈ {0, 1, ..n}}
Pn PN (n)
On a alors Tn =
Pk=0 u σ(k) ≤ k=0 |uk | = TN (n) ≤ c
Par suite la série uσ(n) est absolument convergente.
Reste à prouver l'invariance de la somme.
Le Sujet des Mines PSI 2008 ( épreuve 2 ) comporte la dénition et résultat admis suivants ( et ce n'est ni
plus ni moins que le théorème de Fubini ( Programme MP )) :
Dénition :
Soit (a
Pm,n )(m,n)∈N
P 2 N2P
une suite double ( indexée par
2
( énoncé original Z ) de nombres complexes telle que la
P
série n∈N m∈N |a |
( respectivement
m,n P P m∈N n∈N |am,n | ) converge. P P
On admet alors que la série m∈N n∈N |a m,n | converge ( respectivement n∈N m∈N |am,n | ) converge
également. On dira que la série double
X
am,n
(m;n)∈N2
X
am,n
(m;n)∈N2
Voici la première question du sujet des Mines MP 2001, question qui a fait des ravages !
Montrer que la fonction x 7−→ exp (exp(x)) est développable en série entière sur R
Pour ceux qui ont pour réexe le résultat suivant ( qui n'est pas faux, et qui en toute logique ne gure (
et ne gurait pas à l'époque ) dans aucun programme ociel ) : une fonction est DSE(0) si et seulement si
∞
elle est C sur un voisinage de 0 et que le reste de sa série de Taylor est de limite nulle , il a été souhaité :
”Bon courage”
+∞
X 1 n
t
∀t ∈ R, e = t
n=0
n!
+∞ +∞ +∞ +∞
!
X 1 x n X 1 nx X 1 X 1 p p
exp (exp(x)) = (e ) = .e = nx
n=0
n! n=0
n! n=0
n! p=0
p!
+∞ +∞
!
X 1 X 1 p
exp (exp(x)) == n xp
p=0
p! n=0
n!
1 1 p p
an,p = . n .x
n! p!
P
Pour tout n∈ N , la série p |an,p |est convergente :
en eet, on a, pour x non nul ,
|an,p+1 | 1
= .n. |x|
|an,p | p+1
qui a pour limite 0 < 1, quand p tend vers l'inni , la règele de d'Alembert permet donc de conclure.
De plus
+∞ +∞
X 1 X 1 1
σn = |an,p | = . (n. |x|)p = en.|x|
p=0
n! p=0 p! n!
P
La série σn est elle même convergente ( encore une fois par la règle de d'Alembert )
Les hypothèses du théorème de Fubini sont donc bien vériées et la permutation des deux sommations est
licite.
Part II
Espaces probabilisés
5 Ensembles dénombrables
N −→ E
ϕ:
n 7−→ ϕ(n) = xn
Ceci veut dire que cet ensemble peut être décrit en extension :
E = {xn ; n ∈ N}
les éléments deE pouvant donc être énumérés : le premier , le second ....
Exemple : Z est dénombrable.
On peut écrire en extension Z = {0, −1, 1, −2, 2, ....} , en commençant par exemple par le zéro , puis un
terme négatif , puis un terme positif , etc ...
Cela donne, par exemple la bijection suivante :
N −→ E
n
ϕ: si n est pair
n 7−→ ϕ(n) = 2
− n+1
2
si n est impair
n(n + 1)
ϕ +k = (k − 1, n − k + 1)
2
n(n + 1)
+ k; 1 ≤ k ≤ n + 1
2
par :
n(n + 1)
ϕ +k = (xk−1 , yn−k+1 )
2
Extrait du programme ociel (PSI) : toute autre connaissance sur la dénombrabilité est hors programme
Et pour cause : aucune question n'a été repérée dans les sujets des 7 dernières années en PSI .
Une question ( la 48 ième ) dans un sujet de Centrale MP )
6 Espaces probabilisés :
∪n∈N An
appartient à A .
Les éléments de la tribu sont les évènements.
Les étudiants doivent savoir expliciter un évènement à partir d'autres évènements en utilisant la réunion,
l'intersection et le complémentaire
Autrement dit, une tribu doit contenir l'évènement certain ( qu'est l'univers Ω lui même ) ( et c'est
logique ) , être stable par passage au complémentaire ( pour envisager l'évènement contraire d'un évènement
) et stable par réunion dénombrable.
En combinant les axiomes ii/et iii/ , on voit alors qu'une tribu est également stable par intersection
dénombrable.
Il va sans dire que, naturellement ( quitte à rajouter des parties vides ) qu'une tribu est stable par réunion
et intersection nies.
La plus simple des tribus, quand l'univers est dénombrable , est l'ensemble P (Ω)lui même.
Exemple ( illustrant l'extrait du programme ociel ) :
On lance une pièce jusqu'à l'obtention d'un Pile.
∗
Un univers possible pour cette expérience est N ∪ {∞} : où l'enteir naturel non nul k désigne l'évènement
consistant l'obtention du Pile pour la première fois au k -ième lancer . L'évenement {∞}étant celui de ne
jamais obtenir de Pile , évènement tout à fait envisageable.
On note alors , pour tout entier naturel n , An , l'évènement Pile apparaît au delà du n -ième lancer
On a alors l'égalité suivante :
{∞} = ∩n∈N An
Extrait du programme ociel :
Cette partie chapitre : espaces probabilisés a pour objectif la mise en place du cadre général de la
théorie des probabilités permettant d'aborder l'étude de processus stochastiques à temps discret. Cette mise
en place se veut minimale. En particulier :
- la notion de tribu ne doit donner lieu à aucun développement théorique autre que sa dénition.
- la construction d'espaces probabilisés n'est pas un objectif du programme
En eet tous les sujets, sans exception, commencent par :
Soit (Ω, A, P ) un espace probabilisé ....
6.2 Probabilité :
Dénition :
Si Ω est un ensemble ( dit univers ) et A une tribu sur Ω , on appelle probabilité sur (Ω, A) toute application
P : A −→ [0, 1] telle que :
i/ P (Ω) = 1
ii/ Pour toute suite (An )n∈N d'évènements incompatibles,
+∞
X
P (∪n∈N An ) = P (An )
n=0
Rappelons que deux évènements sont dits incompatibles si leur intersection est vide.
Remarquer que cette dénition a pour conséquence la convergence de la série
X
P (An )
Continuité décroissante :
Si (An )n∈N est une suite décroissante d'évènements ( i.e. ∀n , An+1 ⊂ An ) , alors :
+∞
X n
X
P (∪n∈N An ) = P (∪n∈N Bn ) = P (Bn ) = lim P (Bk )
n−→+∞
n=0 k=0
Or ,
n
X
P (Bk ) = P (∪0≤k≤n Bk ) = P (An )
k=0
D'où le résultat.
Pour la continuité décroissante il sut de passer aux complémentaires et d'appliquer la continuité crois-
sante.
Un exemple d'utilisation :
Nous reprenons l'exemple ci-dessus ( lancer jusqu'à obtention de Pile ) et en particulier l'évènement noté
{∞} ( ne jamais obtenir Pile )
On a vu que
{∞} = ∩n∈N An
où An l'évènement Pile apparaît au delà du n -ième lancer
La suite (An )n∈N est décroissante.
Par conséquent, d'aprés la continuité décroissante des probabilités on a :
P (An ) = (1 − p)n
et dont la limite est nulle.
Conclusion : l'évènement {∞}, est de probabilité nulle.
Cet évènement est tout à fait envisageable ( il n'est pas impossible ) mais presque sûrement impossible.
( c'est du bla bla bla )
Proposition :
si (Ω, A, P ) est un espace probabilisé, alors :
i/ P (Ø) = 0
ii/ Si (Ak )0≤k≤n est une suite nie d'évènements incompatibles, alors
n
X
P (∪0≤k≤n Ak ) = P (Ak )
k=0
P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
En particulier
P (A ∪ B) ≤ P (A) + P (B)
et si (Ak )0≤k≤n est une suite nie d'évènements, alors
n
X
P (∪0≤k≤n Ak ) ≤ P (Ak )
k=0
P (A) ≤ P (B)
(A ⊂ B) =⇒ et
P (B \ A) = P (B) − P (A)
Preuve :
i/ On prend , pour tout entier n , An = Ø
On applique le second axiome des probabilités. Il a pour conséquence la convergence de la série de terme
général P (Ø ) , ce terme étant constant et de limite nulle , est donc nul.
ii/ (Ak )0≤k≤n , on dénit la suite pour les indices supérieurs à n , par
∀k > n, Ak = Ø
P (A ∪ B) = P (A \ B) + P (B)
et de même
P (A) = P (A \ B) + P (A ∩ B)
En combinant les deux égalités, on obtient le résultat.
Par conséquent
P (A ∪ B) ≤ P (A) + P (B)
Ce résultat se généralise, par récurrence, à une réunion nie ( pour l'instant )
iv/ et v/ en découlent.
+∞
X
P (∪n∈N An ) ≤ P (An )
n=0
( La série faisant gure de majorant pouvant trés bien diverger auquel cas sa somme est considérée comme
valant +∞ )
Preuve:
Posons , pour tout n , Bn = ∪0≤k≤n Ak .
La suite (Bn ) est croissante et on a :
∪n∈N An = ∪n∈N Bn
On a donc
P (∪n∈N An ) = P (∪n∈N Bn ) = lim P (Bn )
n−→+∞
Or
n
X
P (Bn ) = P (∪0≤k≤n Ak ) ≤ P (Ak )
k=0
En pratique
( Programme MP )
Si Ω = {an , n ∈ N} ( cas dénombrable ), on prend pour tribu P (Ω) et on dénit une probabilité en
dénissant les probabilités des singletons {an }( dit évènements élémentaires ) :
∀n ∈ N, P ({an }) =: pn
où (pn ) est une suite de réels positifs telle que la série associée soit convergente et de somme égale à 1 :
+∞
X
pn = 1
n=0
On assure ainsi le premier axiome :
+∞
X
P (Ω) = P (∪n∈N {an }) = pn = 1
n=0
On admet alors que le second axiome est valide. ( réunion dénombrable de réunions dénombrables et on
somme par paquets : c'est la notion de sommabilité, qui gure au programme MP , mais pas en PSI , encore
moins en PC ) ( raison pour laquelle le programme précise que la construction d'espaces probabilisés n'est
pas un objectif du programme , et pourtant .......)
7 Conditionnement et indépendance
Dénition :
Soit (Ω, A, P ) est un espace probabilisé.
Si B est un évènement de probabilité non nulle : P (B) > 0 , on dénit la probabilité sachant B ( dite
conditionnelle ) par : pour tout évènement A ,
P (A ∩ B)
PB (A) =
P (B)
On note également
PB (A) = P (A |B)
On montre :
Proposition : Avec les notations et hypothèses ci-dessus, l'application :
A −→ [0, 1]
PB :
A 7−→ PB (A)
1 1
PB (∪n∈N An ) = × P ((∪n∈N An ) ∩ B) = × P (∪n∈N (An ∩ B))
P (B) P (B)
Les évènements (An ∩ B)n∈N sont incompatibles :
pour tous n 6= m ,
(An ∩ B) ∩ (Am ∩ B) ⊂ An ∩ Am = Ø
Il s'en suit alors, en utilisant le second axiome des probabilités, que :
+∞
X
P (∪n∈N (An ∩ B)) = P (An ∩ B)
n=0
Par suite :
+∞ +∞
X P (An ∩ B) X
PB (∪n∈N An ) = = PB (An )
n=0
P (B) n=0
P (A ∩ B) = P (B) × PB (A)
( Ceci est une évidence )
et pour n évènements A1 , A2 , ...An on a :
P (A1 ∩ A2 ∩ ... ∩ An ) = P (A1 ) × PA1 (A2 ) × PA1 ∩A2 (A3 ) × .....PA1 ∩A2 ..∩An−1 (An )
Preuve :
Par récurrence sur n≥2
La formule étant vraie à l'ordre 2.
Soit n≥3 et supposons la formule établie à l'ordre n−1
On a :
A1 ∩ A2 ∩ ... ∩ An = B ∩ An
où B = A1 ∩ A2 ∩ ... ∩ An−1 .
On a donc ( par la formule à l'ordre 2 )
P (B) = P (A1 ∩ A2 ∩ ... ∩ An−1 ) = P (A1 ) × PA1 (A2 ) × .....PA1 ∩A2 ..∩An−2 (An−1 )
D'abord, sin > b , cette probabilité est nulle ( à chaque tirage une boule rouge est retirée et donc on peut
en tirer bau maximum )
Pour n ≤ b ,
b
La première de tirer une boule rouge au premier tirage vaut :
a+b
( le total des boules étant a+b )
b−1
Celle de tirer une boule rouge au second tirage est ( il y a une boule rouge en moins : celle remplacée
a+b
par une boule blanche suite au premier tirage )
( remarquer que le nombre total de boules présentes dans l'urne reste constant égal à a + b)
Ainsi de suite ...
De manière intuitive , la probabilité demandée vaut :
b b−1 b − (n − 1)
× × ... ×
a+b a+b a+b
( avant le nième tirage , il ne reste plus que b − (n − 1) boules rouges )
C'est exact , mais ......
Mais le jury attend une réponse plus mathématique ( digne d'un élève de Prépas, qui connaît bien son cours
et y pioche des résultats qu'il applique scrupuleusement et sans atermoiement ( le but étant de convaincre le
jury qu'il a le potentiel d'un futur ingénieur rigoureux, méthodique, cultivé et bien élevé ( yesma3 elklem
) ....
Voici une réponse possible et politiquement correcte :
On note , pour tout entier non nul , k , Ak l'évènement obtenir une boule rouge au k ième tirage
L'évènement étudié étant B = ∩1≤k≤n Ak
b b−1
On a alors P (A1 ) = , PA1 (A2 ) = et plus généralement
a+b a+b
b − (k − 1)
PA1 ∩A2 ..∩Ak−1 (Ak ) =
a+b
La formule des probabilités composées permet alors de conclure.
Dénition : système complet d'évènements
(Ω, A, P ) est un
Soit espace probabilisé.
Une famille (Ai )i∈I ( I un ensemble d'indices ni ou dénombrable ) constitue un système complet
d'évènements si :
i/ Pour tout i∈I , Ai 6= Ø
ii/ Les évènements sont deux à deux incompatibles
iii/ ∪i∈I Ai = Ω
En langage ensembliste, un système complet est une partition de Ω
Exemple concret :
Si l'univers Ωest l'ensemble des élèves
de Spé de l'Ipest et que
A1 = élève de P SI , A2 = élève de P cSI , A3 = élève de P C ∗
∗
A4 = élève de XM P , A5 = élève de M P ∗
alors vous convenez que {A1 , A2 , A3 , A4 , A5 } constitue un système complet d'évènements ?
Exemple sur un univers inni dénombrable :
On prend pour Ω , l'ensmble des entiers naturels supérieurs ou égaux à 2
On note {pn , n ∈ N} l'ensemble des nombres premiers , énuméré ainsi : p0 = 2, p1 = 3, p2 = 5, p3 = 7, .....
Pour tout entier naturel n , on note An l'évènement, pour un entier supérieur ou égal à 2 , avoir pn pour
plus petit facteur premier dans sa factorisation en produit de nombres premiers
La suite (An )n∈N constitue bien un système complet d'évènements.
Ci-dessous, on généralise la formule de même nom établie dans le cas d'un univers ni ( et donc pour un
système complet ni )
X
P (B ∩ An )
converge et on a :
+∞
X
P (B) = PAn (B) × P (An )
n=0
Preuve:
On a : B = B ∩ Ω = B ∩ (∪n∈N An ) = ∪n∈N (B ∩ An )
Les évènements B ∩ An étant deux à deux incompatibles ( pour tous i 6= j ,
(B ∩ Ai ) ∩ (B ∩ Aj ) ⊆ Ai ∩ Aj = Ø
)
On a donc, d'aprés le second axiome des probabilités, la série en question converge et
+∞
X +∞
X
P (B) = P (B ∩ An ) = PAn (B) × P (An )
n=0 n=0
Remarque : un évènement diérent du vide ( pas impossible ) An peut trés bien avoir une probabilité
nulle , de sorte que PAn (B) ne soit pas déni ( division par un terme nul )
On convient dans ce cas que le produit correspondant
et c'est on ne peut plus logique, vu que ce produit est censé remplacer la quantité
P (B ∩ An )
Remarque : La formule reste également valable dans le cas d'une suite d'évènements (An )n∈N , deux à deux
incompatibles tels que :
+∞
X
P (An ) = 1
n=0
Cette condition étant censée remplacer la condition iii/ dans la dénition d'un sytème complet d'évènements.
Pour cela il sut d'adjoindre l'évènement B = ∪n∈N An , ( complémentaire de la réunion des An ), pour
obtenir un système complet d'évènements. Le terme rajouté étant nul ( par la convention précédente ) et
donc superu , la formule restant alors valide.
Remarque 1 :
Cette formule ( des probabiltés totales ) est, en général, la clé de l'une des questions les plus ardues d'un
problème de concours comportant des probabilités, et pour cause , le système complet en question est souvent
non explicite et c'est au candidat de le trouver tout seul.
Pour de plus amples détails, Rendez-vous pris pour la préparation....
Remarque 2 : l'abréviation FPT n'est pas courante, ne l'utlisez pas !
Remarque 3 : Pour un système complet d'évènements le résultat suivant est une évidence :
+∞
X
P (An ) = 1
n=0
et pourrait servir ( pour ne pas dire , a déjà servi ) pour répondre à une question.
PA (B) × P (Ai )
PB (Ai ) = P+∞ i
n=0 PAn (B) × P (An )
En réalité, il n' ya strictement rien à prouver, puisque la somme présente au dénominateur n'est autre que
P (B) et que l'égalité n'est autre que
Cette quantité n'étant ni plus ni moins que P (Ai ∩ B) écrite de deux manières diérentes selon le condition-
nement.
De fait ceci n'est donc pas une nouveauté ( ça l'était peut être à l'époque où Mr Bayes a trouvé sa formule
)
Mais il a un intérêt majeur : celui d'inverser les causes et les eets !
Autrement dit, connaissant les probabilités de B conditionnées par un système complet d'évenements , on
souhaite obtenir la probabilité sachant que B est réalisé qu'il soit causé par Ai .
Et des exemples d'application foisonnent, notamment aux oraux.
Voici un exemple :
...........
Dénition :
Soit (Ω, A, P ) est un espace probabilisé.
Deux évènements A et B sont dits indépendants si
P (A ∩ B) = P (A) × P (B)
Part III
8 Généralités
X −1 ({xn }) = {ω ∈ Ω/X(ω) = xn } =: {X = xn }
P X −1 ({xn })
P ({X = xn }) =: P (X = xn )
et ce parle second axiome des probabilités ( suite d'évènements deux à deux incompatibles )
Or
∪n∈N X −1 ({xn }) = Ω
Par conséquent, on a bien
+∞
X
pn = 1
n=0
On rappelle que,
Conséquence :
Pour toute partie U incluse dans X (Ω) ,
X −1 (U )
est un évènement ( i.e. appartient à la tribu A )
Cet évènement est noté indiéremment :
X −1 (U ) =: (X ∈ U ) =: {X ∈ U }
( dit X prend ses valeurs dans U )
En eet, en notant encore X (Ω) = {xn /n ∈ N},
si U = {xi /i ∈ I} où I est une partie de N alors
X −1 (U ) = ∪i∈I X −1 ({xi })
+∞
X
pn = 1
n=0
∀n ∈ N, P (X = xn ) = pn
Preuve hors programme
Dénition : fonction de répartition
Soit (Ω, A, P ) est un espace probabilisé.
Soit X une variable aléatoire discrète sur (Ω, A) ( à valeurs réelles )
On appelle fonction de répartition de X la fonction :
R −→ [0, 1]
FX :
t 7−→ P (X ≤ t)
Cette fonction est parfaitement déni, puisque,
où 4 = {k ∈ N/xk ≤ t}
Comme, pour tout k , X −1 ({xk }) est un élément de la tribu , la réunion ci-dessus ( qui est nie ou
dénombrable ) est donc un élément de la tribu.
Proposition :
i/ la fonction de répartition FX est croissante sur R
ii/
lim FX (t) = 0
t−→−∞
iii/
lim FX (t) = 1
t−→+∞
Preuve :
i/ Si t ≤ t0 , alors
{ω ∈ Ω/X(w) ≤ t} ⊂ {ω ∈ Ω/X(w) ≤ t0 }
et par suite FX (t) ≤ FX (t0 )
ii/ Nous appliquons le théorème de caractérisation séquentielle d'une limite ( avec une variante monotone
) :
Soit (tn )n∈N une suite réelle décroissante de limite −∞
On souhaite montrer que
lim FX (tn ) = 0
n−→+∞
P (X = x, Y = y)
(X = x, Y = y) = (X = x) ∩ (Y = y)
et de même ,
∀y ∈ Y (Ω) ,
X
P (Y = y) = P (X = x, Y = y)
x∈X(Ω)
Preuve :
Notons Y (Ω) = {yn /n ∈ N} ( cas dénombrable ) ( les yn étant distincts ) ( le ca ni a été traité de façon
similaire en Sup , les problèmes de convegence en moins )
L'ensemble des évènements {Y = yn }n∈N est un système complet d'évènements.
D'prés la formule des probabilités totales :
+∞
X +∞
X
P (X = x) = P{Y =yn } (X = x) × P (Y = yn ) = P ({X = x} ∩ {Y = yn })
n=0 n=0
∀x ∈ X (Ω) , ∀y ∈ Y (Ω) , P (X = x, Y = y) = P (X = x) × P (Y = y)
On démontre alors que :
Théorème : Si X et Y sont deux variables aléatoires discrètes indépendantes sur un espace probabilisé
(Ω, A, P ) alors pour tous évènements A ⊂ X (Ω) et B ⊂ Y (Ω) , on a :
P (X ∈ A, Y ∈ B) = P (X ∈ A) × P (Y ∈ B)
Preuve ( hors programme en section PSI )
L'évènement
{X ∈ A, Y ∈ B} = ∪x∈A {X = x, Y ∈ B}
cette réunion étant disjointe ( évènements incompatibles) , nie ou dénombrable . Donc
X
P (X ∈ A, Y ∈ B) = P (X = x, Y ∈ B)
x∈A
P (X = x, Y = y) = P (X = x) × P (Y = y)
Et donc
!
X X
P (X ∈ A, Y ∈ B) = P (X = x) × P (Y ∈ B) = P (X = x) × P (Y ∈ B) = P (X ∈ A) × P (Y ∈ B)
x∈A x∈A
n
Y
∀ (x1 , x2 , ..xn ) ∈ X1 (Ω) × X2 (Ω) × ... × Xn (Ω) , P (X1 = x1 , X2 = x2 , ..., Xn = xn ) = P (Xk = xk )
k=1
On démontre alors que :
Théorème : Si X1 , ..Xn sont des variables mutuellement indépendantes sur un espace probabilisé (Ω, A, P )
alors pour tous évènements A1 ⊂ X1 (Ω) , A2 ⊂ X2 (Ω),...An ⊂ Xn (Ω) , on a :
n
Y
P (X1 ∈ A1 , X2 ∈ A2 , ..Xn ∈ An ) = P (Xk ∈ Ak )
k=1
Preuve, évidemment ...
9.4 Un exmple d'oral
Enoncé ( (Mines PC 2016 ) :
Soit (X, Y ) un couple de variables aléatoires à valeurs dans N∗ tel que :
1
∀(i, j) ∈ (N∗ )2 , P (X = i, Y = j) =
2i+j
1/ Déterminer les lois de X et de Y
2/ Les variables X et Y sont - elles indépendantes ?
+∞ +∞
∗
X 1 X 1 1 1 1 1
∀i ∈ N , P (X = i) = P (X = i, Y = j) = i j
= i. 1 =
j=1
2 j=1 2 2 21− 2
2i
1
∀j ∈ N∗ , P (Y = j) =
2j
2/ On a bien ,
1
∀(i, j) ∈ (N∗ )2 , P (X = i, Y = j) = = P (X = i) × P (Y = j)
2i+j
Donc X et Y sont indépendantes.
N'allez pas croire que tous les exercices d'oraux sont aussi faciles
et ne comprenez pas non plus qu'ils sont beaucoup plus ardus !!
Extrait du rapport du jury ( oral PC 2018 ) :
Concernant les probabilités :
Trés contrasté : les exercices ont été ou trés rapidement ou trés lentement traités
10.1 Dénition :
Dénition : Soit (Ω, A, P ) est un espace probabilisé.
Soit X une variable aléatoire discrète sur cet espace. X (Ω) ⊂ {xn n ∈ N}
X est dite d'espérance nie, si la série
X
xn P (X = xn )
est absolument convergente.
Si tel est le cas , on appelle espérance de X , notée E(X) le réel :
+∞
X
E(X) = xn P (X = xn )
n=0
On admet que cette somme ne dépend pas de l'ordre d'énumération ( c'est la notion de sommabilité pour la
section MP )
En fait, le cas ni a été traité en cours de Sup : les sommes en présence étant nies, l'espérance est dans
ce cas, de nature, nie.
Dénition : une variable aléatoire est dite centrée si elle est d'espérance nulle
+∞
X
E(X) = P (X ≥ n)
n=1
Preuve ( demandée à plusieurs reprises aussi bien à l'écrit qu'à l'oral ) :
Dans ca cas, X est d'espérance nie si la série
X
nP (X = n)
n≥1
Pn Pn
Sn = k=1 kP (X = k) et Tn = k=1 P (X ≥ k)
Remarquons que, pour tout k≥1 , on a :
P (X = k) = P (X ≥ k) − P (X ≥ k + 1)
On a alors
n
X n
X n
X
Sn = k (P (X ≥ k) − P (X ≥ k + 1)) = k.P (X ≥ k) − k.P (X ≥ k + 1)
k=1 k=1 k=1
n
X n+1
X n
X n+1
X
= k.P (X ≥ k) − (k − 1).P (X ≥ k) = k.P (X ≥ k) − (k − 1).P (X ≥ k)
k=1 k=2 k=1 k=1
n
X
= (k − (k − 1)).P (X ≥ k) − (nP (X ≥ n + 1))
k=1
n
X
= P (X ≥ k) − (nP (X ≥ n + 1))
k=1
+∞
X +∞
X +∞
X
0 ≤ nP (X ≥ n + 1) = n P (X = k) = nP (X = k) ≤ k.P (X = k)
k=n+1 k=n+1 k=n+1
Ce majorant n'est autre que le reste d'une série convergente : il est donc de limite nulle.
Ceci prouve que la suite (Tn ) est convergente et de même limite que la suite (Sn ) .
10.3 Thèorème du transfert
Assurément, l'un des résultats les plus utilisés
Théorème :
Soit (Ω, A, P ) est un espace probabilisé.
Soit X une variable aléatoire discrète sur cet espace. X (Ω) = {xn n ∈ N}
Soit f une application à valeurs réelles dénies sur X (Ω).
La variable aléatoiref (X) est d'espérance nie si et seulement si la série
X
f (xn ).P (X = xn )
Pour ce qui est de la somme X+Y , il y a encore un soupçon de sommabilté ( apanage des grosses
légumes )
Si X (Ω) = {xn n ∈ N} , Y (Ω) = {yk k ∈ N} alors,
X
(xn + yk ) P (X = xn , Y = yk )
(n,k)∈N×N
est sommable : En fait N×N est dénombrable , la série ainsi construite à partir de cette série doublement
indexée est absolument convergente et dans ce cas l'ordre dans le quel on somme ses termes n'altère aucuné-
ment le résultat nal , on a donc ( et là également c'est encore une application insoupçonnée du théorème du
transfert , la variable étant le couple (X, Y ) ( d'où l'usage de la loi conjointe ) et la fonction étant la somme :
X
E (X + Y ) = (xn + yk ) P (X = xn , Y = yk )
(n,k)∈N×N
X X
= xn .P (X = xn , Y = yk ) + yk .P (X = xn , Y = yk )
(n,k)∈N×N (n,k)∈N×N
+∞ +∞
! +∞ +∞
!
X X X X
= xn P (X = xn , Y = yk ) + yk P (X = xn , Y = yk )
n=0 k=0 k=0 n=0
+∞
X +∞
X
= xn (P (X = xn )) + yk (P (Y = yk )) = E(X) + E(Y )
n=0 k=0
E(X) ≥ 0
Preuve : !!
Proposition : croissance de l'Espérance
Si X et Y sont deux variables aléatoires d'Espérances nies sur un même espace probabilisé (Ω, A, P ) et
telles que
X≤Y
alors
E(X) ≤ E(Y )
Preuve : conséquence de la positivité et de la linéarité.
X
(xn × yk ) P (X = xn , Y = yk )
(n,k)∈N×N
Ce qu'on admet.
Par indépendance des deux variables, on a, pour tous n et k :
P (X = xn , Y = yk ) = P (X = xn ) × P (Y = yk )
+∞ +∞
! +∞
X X X
E (XY ) = xn .P (X = xn ) yk .P (Y = yk ) = xn .P (X = xn ) × E(Y ) = E(Y ) × E(X)
n=0 k=0 n=0
11 Variance d'une variable aléatoire
p p p 1 2
|xn P (X = xn )| = |xn | .P (X = xn ) = x2n . P (X = xn × P (X = xn ≤ xn P (X = xn ) + P (X = xn )
2
et ce en vertu de l'inégalité du collégien :
1 2
a + b2
ab ≤
2
Les deux termes apparaissant dans la majoration correspondant à ceux d'une série convergente, le résultat
en découle.
Dénition : Avec les notations ci-dessus.
2
Si X est d'espérance nie alors on peut dénir la quantité ci-dessous, dite variance de X :
V (X) = E X 2 − (E(X))2
On a alors :
Proposition-dénition :
2
Si X est d'espérance nie alors
V (X) = E (X − E(X))2 ≥ 0
Par linéarité de l'espérance , cette variable admet une espérance nie qui vaut :
Propriétés de la variance :
Si X est une variable aléatoire admettant une variance, alors pour toute constante b , X+b admet une
variance
V (X + b) = V (X)
et pour tout réel λ , il en est de même de la variable λX et on a
V (λX) = λ2 V (X)
Preuve : Le fait que les variances soit nies est immédiat.
1 2
xn + yk2 .P (X = xn , Y = yn )
|xn .yk | .P (X = xn , Y = yn ) ≤
2
La famille X
x2n .P (X = xn , Y = yn )
n,k
est sommable :
∀n , la série
X
x2n .P (X = xn , Y = yn )
k
+∞
X
σn = x2n . P (X = xn , Y = yn ) = x2n .P (X = xn )
k=0
X
yn2 .P (X = xn , Y = yn )
n,k
Pour l'égalité, on a :
(X − E(X)) . (Y − E(Y )) = XY − mY − µX + mµ
et ce en notant m = E(X) et µ = E(Y ).
La linéarité de l'espérance paermet alors de conclure.
Proposition :
Pour deux variables alaéatoires X et Y ayant des variances nies, X +Y admet une variance nie et on a :
V (X + Y ) = V (X) + V (Y ) + 2cov(X, Y )
Preuve:
(X + Y )2 = X 2 + Y 2 + 2XY
admet bien une espérance nie ( d'aprés ce qui précède )
On a ( mêmes notations que ci-dessus ) et par linéarité de l'espérance :
Proposition :
Soit Soit (Ω, A, P ) est un espace probabilisé.
Notons E l'espace vectoriel des variables aléatoires réelles dénies sur cet espace et admettant une variance
nie
L'application :
E × E −→ R
(X, Y ) 7−→ Cov(X, Y )
est bilnéaire symétrique positive
Preuve :
La symétrie est évidente
La linéarité par rapport à l'une des variables découle de la linéarité de l'espérance.
D'où la bilinéarité.
Pour la positivité, remarquons que
−1 ≤ ρ(X, Y ) ≤ 1
Généralisation à n variables
Proposition :
Si X1 , X2 , ..Xn sont des variables aléatoires réelles dénies sur un espace probabilisé (Ω, A, P ) et admettant
chacune une variance nie , alors leur somme X1 + X2 + .. + Xn admet une variance nie et on a :
n
X X
V (X1 + X2 + .. + Xn ) = V (Xk ) + 2 cov(Xi , Xj )
k=1 1≤i<j≤n
Formule qui est à rapprocher de l'identité remarquable du collégien en herbe :
n
X X
2
(a1 + a2 + .. + an ) = a2k + 2 ai .aj
k=1 1≤i<j≤n
V (X + Y ) = V (X) + V (Y )
Plus généralement, si X1 , X2 , ..Xn sont des variables aléatoires réelles dénies admettant chacune une vari-
ance nie , et si ces variables sont deux à deux indépendantes alors
n
X
V (X1 + X2 + .. + Xn ) = V (Xk )
k=1
Preuve :
Utiliser les expressions précédentes ( incluant la covariance ) et observer que si deux variables sont in-
dépendantes alors leur covariance est nulle ( et ce du fait que, dans ce cas , E(XY ) = E(X)E(Y ) )
a si X(ω) ≥ a
Y (ω) =
0 si X(ω) < a
( D'aucuns notent Y = 1[a,+∞[ .X )
Remarquons alors que, d'une part, Y est d'espérance nie ( ne prenant que deux valeurs ) et d'autre part
Y ≤X
ce qui, par croissance de l'espérance donne :
E(Y ) ≤ E(X)
Or
E(Y ) = 0 × P (Y = 0) + aP (Y = a) = aP (Y = a)
Remarquons alors que l'évènement {Y = a} n'est autre que l'évènement {X ≥ a}.
On a donc :
a.P (X ≥ a) ≤ E(X)
l'inégalité s'en déduit.
12.2 Inégalité de Bienaymé-Tchebychev
Attention, il s'agit de deux personnes distinctes! ce n'est donc pas Bienaymé Tchebychev ( cousin lointain de
Benyamin Tchevchenko ?)
Théorème :
Soit (Ω, A, P ) un espace probabilisé.
Soit X une variable aléatoire dénie sur cet espace.
( Une hypothèse ) :
Si X admet une variance nie
Alors ∀ε > 0 ,
V (X)
P (|X − E(X)| ≥ ε) ≤
ε2
Preuve :
C'est une conséquence directe de l'inégalité de Markov.
Nous apprenons ici une façon ecace quand à l'emploi de cette inégalité ( ce qui est trés fréquent aux
concours ).
L'évènement dont on estime la probabilité est souvent trompeur :
Pour savoir, à quelle variable on applique l'inégalité de Markov. il sut , en général , de bien regarder en
priorité le majorant et y déceler l'espérance d'une variable ( positive )
2
Ici V (X) qui n'est autre que E (X − E(X)) : on tient notre variable
Y = (X − E(X))2
qui est bien positive et qui admet bien une espérance nie.
Il sut alors de ré-écrire l'évènement étudié gràce à cette variable :
2 2
Ici, l'évènement {|X − E(X)| ≥ ε}n'est autre que (X − E(X)) ≥ ε c'est à dire {Y ≥ ε2 }
On a donc
E(Y ) V (X)
P (|X − E(X)| ≥ ε) = P Y ≥ ε2 ≤ 2
=
ε ε2
Une application :
Exemple :
Une variable aléatoire de variance nulle est presque sûrement constante
Preuve : Encore une belle application, surtout, de la continuité monotone des probabilités !
1
Notons, pour tout entier naturel non nul An = |X − E(X)| ≥
n
La suite (An )n∈N∗ est croissante et a pour réunion l'évènement
1
0 ≤ P (An ) = P |X − E(X)| ≥ ≤ .n2 .V (X) = 0
n
Il s'en suit que A est de probabilité nulle et donc son évènement contraire {|X − E(X)| = 0} ou encore
{X = E(X)} est de probabilité égale à 1 :
X est donc presque sûrement constante ( égale à son espérance )
13 Lois usuelles
X (Ω) = {0, 1}
avec
P (X = 1) = p
et donc forcément P (X = 0) = 1 − p =: q
Interprétation : Cette loi modélise une expérience à deux issues possibles : succés ou échec
La valeur 1 étant conventionnellement attribué au succés ( et 0 à l'échec : tout à fait logique )
Le succés peut être interprété comme étant la réalisation d'un évènement A et l'échec sa non réalisation ,
auquel cas la variable X n'est autre que la fonction indicatrice de A :
Ω −→ [0, 1]
X = 1A : 1 si ω ∈ A
ω 7−→
0 si ω ∈ /A
Proposition :
Si Une variable aléatoire X suit une loi de Bernoulli de paramètre p ∈ [0, 1], alors elle est naturellemnt
d'espérance et de vraiance nies et on a :
X y B(n, p)
si
X (Ω) = {0, 1, ..n}
avec pour tout entier k appartenant à {0, 1, ..n}
n
P (X = k) = pk (1 − p)n−k
k
Interprétation :
Une telle variable compte le nombre de succés lors de la répitition de n variables de Bernoulli indépendantes.
Lors d'un tirage d'une boule dans une urne comportant deux types de boules ( couleurs diérentes ) , ce
tirage étant répété n fois de manière indépendante et avec remise de la boule tirée. La variable comptant le
nombre de boules tirées d'une
couleur
choisie suit alors une loi binomiale.
n
Le coécient du binôme , qui est le nombre de combinaisons de k éléments parmi n indique les
k
tirages couronnés de succés.
La loi binomiale est donc caractéristique des tirages avec remise.
Remarque: la binomiale B(1, p) n'est autre qu'une Bernoulli de paramètre p
Proposition :
Soit X une variable aléatoire suivant une loi binomiale B(n, p)
X admet une espérance et une variance nie ( l'univers étant ni ) et on a :
n n n
X X X n
E(X) = k.P (X = k) = k.P (X = k) = k. pk (1 − p)n−k
k
k=0 k=1 k=1
n n−1
X n! X n!
= pk (1 − p)n−k = pk+1 (1 − p)n−1−k
k=1
(k − 1)!(n − k) k=0
k!(n − 1 − k)
n−1 n−1
X (n − 1)! k n−1−k
X n−1
= np p (1 − p) = np. pk (1 − p)n−1−k
k!(n − 1 − k) k
k=0 k=0
= np (p + (1 − p))n−1 = np
Pour la variance, on calcule E(X(X − 1)) de préférence ( c'est souvent le cas et il y a une raison dans l'âme
de Jacob, à découvrir !) ( on applique au passage le théorème du transfert , ici bien valide , toutes les sommes
étant nies donc absolument convergentes)
n n n
X X X n
E(X(X − 1)) = k(k − 1).P (X = k) = k(k − 1).P (X = k) = k(k − 1). pk (1 − p)n−k
k
k=0 k=2 k=2
n n−2
X n! X n!
= pk (1 − p)n−k = pk+2 (1 − p)n−2−k
k=2
(k − 2)!(n − k) k=0
k!(n − 2 − k)
n−2 n−2
2
X (n − 2)! k n−2−k 2
X n−2
= n(n − 1)p p (1 − p) = n(n − 1)p . pk (1 − p)n−2−k
k!(n − 2 − k) k
k=0 k=0
XΩ = {0, 1, ..n}
et de même,
n−1 k−1 n−1−(k−1) n−1
=p× p (1 − p) + (1 − p) × pk (1 − p)n−1−k
k−1 k
k n−k n−1 n−1 k n−k n
= p (1 − p) × + = p (1 − p) ×
k−1 k k
et ce gràce à la formule de Pascal.
Les deux cas particuliers k=0 et k=n occasionnement un terme nul dans la somme :
pour k=0 ,
P ({X = 0} ∩ {Xn = 1}) = 0
et donc
P (X = 0) = P ({X = 0} ∩ {Xn = 0}) = P ({Y = 0} ∩ {Xn = 0})
n
X
X= Xi
i=1
Donc, par linéarité de l'espérance ( condition non assujettie à l'indépendance mutuelle des variables )
n
X
E(X) = E(Xi ) = n.p
i=1
n
X
V (X) = V (Xi ) = n.p(1 − p)
i=1
Proposition : si X suit la loi géométrique de paramètre p alors , elle admet une espérance et une variance
nies et on a :
1
E(X) =
p
et
(1 − p)
V (X) =
p2
Preuve :
Pour montrer que X est d'espérance nie il faut et il sut de montre que la série de terme général
uk = k.P (X = k)
vk = k 2 .P (X = k)
+∞
X +∞
X +∞
X
k−1
E (X(X − 1)) = k(k − 1).P (X = k) = p. k(k − 1).(1 − p) = p(1 − p) k(k − 1).(1 − p)k−2
k=1 k=2 k=2
P+∞
Remarquons alors que, la fonction dénie sur ]−1, 1[ par : x 7−→
P+∞ k k=2 k(k − 1).xk−2 n'est que la dérivée
2
seconde de la série géométrique : x 7−→ k=0 x et vaut donc (1−x)3
Par suite,
2 2(1 − p)
E(X(X − 1)) = p(1 − p). 3
=
(1 − (1 − p)) p2
Il s'en suit que
2(1 − p) 1 1 2 − 2p + p − 1 1−p
V (X) = E(X(X − 1)) + E(X) − (E(X))2 = 2
+ − 2 = 2
=
p p p p p2
+∞ +∞
X X pq k
P (X > k) = P (∪n=k+1 {X = n}) = P (X = n) = p. q n−1 = = qk
n=k+1 n=k+1
1−q
On a alors :
q n+k
= = qk
qn
D'où l'égalité annoncée.
Condition susante :
Soit X une variable aléatoire telle que X (Ω) = N∗ et :
Dénition : pour λ > 0 , une variable aléatoire X suit la loi de Poisson de paramètre λ ( notation : X y P(λ)
) si X (Ω) = N et
λn −λ
∀n ∈ N, P (X = n) = .e
n!
Le facteur e−λ étant nécessaire pou s'assurer que la somme des probabilités soit égale à 1 .
La croissance rapide de la factorielle ( (1000)! est un nombre qui se termine par 249 zéros !! ) fait que
cette probabilité décroit rapidement.
Cette loi est censée modéliser les phénomènes de plus en plus rares , typiquement le nombre de clients
dans une le d'attente d'un Grand magasin : voir une le de 1000 clients est plutôt improbable.
Sachant que zéro clients à une caisse est possible ( caissière de mauvaise humeur ) , l'image de l'univers
comporte donc une probabilité non nulle pour n=0 ( contrairement à la géométrique )
Proposition : si X suit la loi de Poisson de paramètre λ alors , elle admet une espérance et une variance
nies et on a :
E(X) = λ
et
V (X) = λ
( λ est en même temps le paramètre, l'espérance et la variance !!! Que demande le peuple ? )
Preuve :
En notant, pour tout entier naturel n ,
λn −λ
un = n.P (X = n) = n. .e
n!
|un+1 | λ
on montre que cette série est absolument convergente ( règle de d'Alembert, le quotient
|un |
= n
étant de
limite 0<1 )
X est donc d'espérance nie et on a :
+∞ +∞ +∞ +∞ n
X Xλn −λ −λ
X λn−1 −λ
X λ
E(X) = n.P (X = n) = n. .e = λe = λe =λ
n=0 n=1
n! n=1
(n − 1)! n=0
n!
λn −λ
n2 .P (X = n) = n2 . .e
n!
est absolument convergente ( et donc, par le théorème du transfert X2 est d'espérance nie )
On calcule alors, comme d'habitude, l'espérance de X(X − 1) :
+∞ +∞
X
−λ
X λn
E (X(X − 1)) = n(n − 1).P (X = n) = e n(n − 1).
n=0 n=2
n!
+∞ +∞ n
−λ
X λn 2 −λ
X λ
=e = λ .e = λ2
n=2
(n − 2)! n=0
n!
D'où
V (X) = E (X(X − 1)) + E(X) − (E(X))2 = λ2 + λ − λ2 = λ
14 Fonctions génératrices
Dénition :
Soit (Ω, A, P ) un espace probabilisé.
Soit X une variable aléatoire dénie sur cet espace.
On suppose que X (Ω) ⊂ N
On appelle fonction génératrice de la variable X , la fonction dénie par :
+∞
X
GX (t) = P (X = n).tn
n=0
an tn
P
C'est donc la somme de la série entière où an est la suite dénie par :
an = P (X = n)
Preuve:
Pour t ∈ ]−R, R[ , la série entière
X
P (X = n).tn
est absolument convergente ( propriété des séries entières sur son intervalle ouvert de convergence )
X
Il s'en suit, d'aprés le théorème du transfert, que la variable aléatoire t admet une espérance nie et que
+∞
X
E tX = P (X = n).tn = GX (t)
n=0
Théorème :
La loi d'une variable aléatoire X à valeurs dans N est caractérisée par sa fonction génératrice GX
Ce qui veut dire que la loi de la variable X est entièrement connue du moment qu'on connaît sa fonction
génératrice :
an t n
P
Cours sur les série entières : si est une série entière de rayon de convergence R > 0 , alors en notant
f sa somme sur ]−R, R[ , f est de classe C ∞ sur ]−R, R[ , ses dérivées successives s'obtenant par dérivation
terme à terme et ona
f (n) (0)
∀n ∈ N, an =
n!
Dans le cas présent ,
(n)
G (0)
∀n ∈ N, P (X = n) = X
n!
2
V (X) = (GX ”(1)) + G0X (1) − (G0X (1))
Preuves : les deux preuves sont non exigibles ( en sections PSI et PC ) ( elles sont exigibles en MP )
Preuve :
Le cas facile : si le rayon de convergence R de la série entière dénissant la fonction génératrice est tel que
:
R>1
alors le point t = 1 appartient à l'intervalle ouvert de convergence ]−R, R[ et sur lequel la somme est
indénément dérivable et converge absolument ( ainsi que toutes ses dérivées ) et les deux résultats sont
acquis.
Le cas limite est quand
R=1
Les résultats à prouver sont alors conséquences de l'exercice classique suivant sur les séries entières :
Exercice :
an tn
P
Soit une série entière de rayon de convergence R = 1, et telle que :
∀n ∈ N, an ≥ 0
Si
P
an converge
P+∞ n
Alors la fonction f : t 7−→ n=0 an t est dénie et continue sur [0, 1]
En particulier f admet une limite nie en 1 :
+∞
X
lim f (t) = f (1) = an
t−→1−
n=0
Si
P
an diverge
alors
lim f (t) = +∞
t−→1−
Preuve :
P
Cas où la série an converge.
En notant, pour tout n∈N t ∈ [0, 1] , fn (t) = an tn
, pour tout
La série converge simplement sur [0, 1] , chacune des fonctions fn est continue et la convergence est uniforme
sur [0, 1] ( ell est même normale , vu que kfn k = an , dont la série converge )
P
Cas où la série an diverge.
La fonction f étant croissante sur [0, 1[, l'alternative classique se présente : ou bien elle est majorée et
dans ce cas elle admet une limite nie ou bien elle n'est pas majorée et dans ce cas elle est de limite innie.
On suppose alors qu'elle est majorée :
il existe C>0 telle que ∀t ∈ [0, 1[ , f (t) ≤ C
On a alors pour tout entier n ,
n
X +∞
X
k
∀t ∈ [0, 1[ , Sn (t) = ak t ≤ ak tk = f (t) ≤ C
k=0 k=0
n
X
ak ≤ C
k=0
et ce pour tout n .
La série à termes positifs seriat donc convergente ( somme partielle majorée )
Ce qui est absurde.
Revenons à la preuve des deux résultats ci-dessus :
On a pour tout t ∈ [0, 1[ ,
+∞
X
GX (t) = P (X = n)tn
n=0
+∞
X
G0X (t) = nP (X = n)tn−1
n=1
et
+∞
X
GX ”(t) = n(n − 1)P (X = n)tn−2
n=2
Proposition :
Si X y B(p) ( Bernoulli de paramètre p ∈ ]0, 1[ ) alors
elle a pour fonction génératrice
GX (t) = q + pt
pour tout t∈R . ( avec q =1−p )
Loi binomiale
Proposition :
Si X y B(n, p) ( Binomiale de paramètres p ∈ ]0, 1[ , et n ∈ N∗ , n ≥ 2) alors
elle a pour fonction génératrice
GX (t) = (q + pt)n
pour tout t∈R.
Pour tout t ∈ R ,
n n
X n X n
GX (t) = k n−k k
.p q t = .(pt)k q n−k = (q + pt)n
k k
k=0 k=0
+∞ +∞
X
n−1 n
X 1
GX (t) = pq t = pt × (qt)n = pt
n=1 n=0
1 − qt
Les variables X et Y étant indépendantes, il en est de même des variables etX et etY
Il s'en suit que l'espérance de leur produit est le produit des espérances :
On peut également donner une démonstration directe faisant intervenir le produit de Cauchy des deux séries
génératrices ( l'occasion pour montrer vos capacités en la matière, n'est ce pas les talibans ? )
Si X (Ω) ⊂ N et Y (Ω) ⊂ N alors X + Y (Ω) ⊂ N et on a, pour tout entier n :
{X + Y = n} = ∪nk=0 {X = k, Y = n − k}
Cette réunion étant disjointe on a donc :
n
X
P (X + Y = n) = P (X = k, Y = n − k)
k=0
n
X
= P (X = k) × P (Y = n − k)
k=0
cn t n
P
qui n'est autre que le terme générique d'indice n auquel est associé la série entière , produit de Cauchy
an tn et
P P n
des deux séries entières bn t
On sait alors que pour t telle que |t| < min (RX , RY ) ,
+∞ +∞
! +∞
!
X X X
cn tn = an t n × bn t n
n=0 n=0 n=0
GX+Y (t) = GX (t) × Gy (t) = e−λ eλt × e−µ eµt = e−(λ+µ) e(λ+µ)t
Où l'on reconnaît une variable de loi de Poisson de paramètre λ+µ : La fonction génératrice caractérisant
la loi de la variable , c'est donc eectivement le cas :
X +Y suit donc une loi de Poisson de paramètre λ+µ
Résultat on ne peut plus attendu : nous mélangeons deux les d'attente ayant respectivement λ et µ
comme nombre moyen de clients. Si les deux les sont indépendantes ( pas de bousculade en en faisant une
seule le !! ce qui est loin d'être évident , surtout le premier jour de soldes ) on obtient une seule le où le
nombre de moyen de clients est la somme λ+µ .
lim n.pn = λ
n−→+∞
k−1
n n! 1 Y
P (Xn = k) = pkn (1 n−k
− pn ) = .pkn (1 − pn )n−k = (n − j) .pkn (1 − pn )n (1 − pn )−k
k k!(n − k)! k! j=0
k−1
1 −k n
Y
= × (1 − pn ) × (1 − pn ) × (npn − jpn )
k! j=0
Examinons alors chacun de ces termes et remarquons tout de suite que l'hypothèse faite sur pn ( à savoir :
limn−→+∞ n.pn = λ a pour conséquence : pn ∼ nλ et donc en particulier de limite nulle
1
est une constante
k!
(1 − pn )−k a pour limite 1 ( la puissance est constante )
Q k−1 k
j=0 (npn − jpn ) a pour limite λ
n
Reste alors à examiner le terme (1 − pn ) ( puissance qui varie )
(1 − pn )n = exp (n ln (1 − pn ))
λ λ
Comme pn ∼n
, on a :ln (1 − pn ) ∼ − et donc n ln (1 − pn ) a pour limite
n
−λ
−λ
Par continuité de l'exponentielle, ce terme a pour limite e
D'où le résultat.
Remarque : une bonne raison qui explique le choix de l'hypothèse
lim n.pn = λ
n−→+∞
est le fait que la quantité n.pn représente l'espérance de la variable Xn et λ est l'espérance de la variable vers
la quelle on espère que la suite converge ...
m = E(X1 ) et σ = σ(X1 ), on a :
1
∀ε > 0, lim P Sn − m ≥ ε =0
n−→+∞ n
Preuve:
1
Pour tout n, la variable S admet un moment d'ordre 2 et on a :
n n
n
1 1X 1
E Sn = E(Xk ) = n.m = m
n n k=1 n
Et !
n n
1 1 X 1 X
V Sn = 2V Xk = . V (Xk )
n n k=1
n2 k=1
et ce du fait de l'indépendance mutuelle des variables.
On a donc
1 1 1
V 2
.n.V (X1 ) = σ 2
Sn =
n n n
D'aprés l'inégalité de Bienaymé-Tchebychev , on a alors :∀ε > 0,
V n1 Sn
σ2
1 1
P Sn − E Sn ≥ ε ≤ =
n n ε2 n.ε2
qui est de limite nulle.
Ce résultat est le dada des instituts de sondages !
16 Compléments Classiques
Théorème : Toute fonction continue sur un segment à valeurs dans K ( = R ou C ) est limite uniforme sur
ce segment d'une suite de fonctions polynomiales.
Ce qui revient à prouver que :
ε
(|x − y| ≤ θ) =⇒ |f (x) − f (y)| ≤ c. = ε
c
Nous reproduisons alors ici une partie du sujet des Mines MP 2015 :
Enoncé :
Soit n en entier strictement positif, x ∈ [0, 1] et f : [0, 1] −→ Rune fonction continue. On note X1 , X2 , ..Xn
des variables aléatoires mutuellement indépendantes et distribuées selon la loi de Bernoulli de paramètre
x.On note également Sn = X1 , +X + .. + Xn , Zn = Snn et Bn (f )(x) = E(f (Zn ).
1/ Rappeler, sans démonstration, la loi de Sn . En déduire, avec démonstration, les valeurs de l'espérance et
de la variance de Sn en fonction de n et de x .
2/ En utilisant l'inégalité de Bienaymé-Tchebychev, montrer que pour tout α > 0:
X n 1
xk (1 − x)n−k ≤
k 4nα2
0≤k≤n/| n
k
−x|≥α
3/ Montrer que :
n
X n k n−k k
Bn (f )(x) − f (x) = x (1 − x) f − f (x)
k n
k=0
et en déduire que la suite (Bn (f ))n∈N converge uniformément vers f sur [0, 1]
On pourra utiliser le résultat de la question précédente ainsi que le théorème de Heine.
Réponse:
1/ On sait que, la somme de n variables aléatoires indépendantes suivant chacune une loi de Bernoulli de
même paramètre x ∈ [0, 1] , suit une loi binomiale de paramètres (n, x):
Sn y B (n, x)
On a donc Sn (Ω) = {0, 1, ..n} et pour tout k ∈ {0, 1, ..n},
n
P (Sn = k) = xk (1 − x)n−k
k
Rappelons que, pour une variable suivant une loi de Bernoulli de paramètre x , on a
X (Ω) = {0, 1} avec P (X = 0) = 1 − x et P (X = 1) = x
et donc E(X) = 0 × (1 − x) + 1 × x = x
2 2 2
Et E(X ) = 0 × (1 − x) + 1 × x = x
2 2 2
et par suite V (X) = E(X ) − (E(X)) = x − x = x(1 − x)
n
X
E (Sn ) = E(Xk ) = nE(X1 ) = n.x
k=1
n
! n
X X
V (Sn ) = V Xk = V (Xk ) = nV (X1 ) = nx(1 − x)
k=1 k=1
x(1−x)
E(Zn ) = n1 .nx = x et V (X) = 1
n2
.nx(1 − x) = n
On peut dés lors appliquer l'inégalité de Bienaymé Tchebychev :
Pour tout α>0
V (Zn ) x(1 − x)
P (|Zn − E(Zn )| ≥ α) ≤ 2
≤
α n.α2
1
Une simple étude de variations montre que la fonction x 7−→ x(1 − x) atteint
son maximum en x0 =
2
, ca
1
maximum valant donc . ( D'où le majorant nal )
4
Reste alors à exprimer la probabilité dans le membre de gauche.
Sn
L'évèement {|Zn − E(Zn )| ≥ α} = − x ≥ α est la réunion disjointe des évènements ∪ {Sn = k} /k ∈ {0, 1
n
Il a donc por probabilité :
X
P (|Zn − E(Zn )| ≥ α) = P (Sn = k)
{k∈{0,1,..n}/| |≥α}
k
n
−x
X n
= xk (1 − x)n−k
k
{k∈{0,1,..n}/| nk −x|≥α}
3/ On a, par le théorème du transfert ( valide dans ce cas car l'univers est ni ) :
n n
Sn X k X k n
Bn (f )(x) = E(f (Zn )) = E(f ( )) = f P (Sn = k) = f . xk (1 − x)n−k
n n n k
k=0 k=0
Pn n
Et d'autre part, f (x) = f (x).1 = f (x). k=0 xk (1 − x)n−k
k
( la somme des probabilités valant 1 )
D'où :
n
X k n
Bn (f )(x) − f (x) = f − f (x) . xk (1 − x)n−k
n k
k=0
La fonction f étant continue sur le segment [0, 1] , elle y est uniformément continue ( théorème de Heine )
Soit ε>0
La continuité uniforme de f sur [0, 1] entraîne l'existence de α>0 tel que :
ε
∀y, t ∈ [0, 1] , (|y − t| ≤ α) =⇒ |f (y) − f (t)| ≤
2
En particulier , ∀x ∈ [0, 1], ∀n ∈ N∗ , ∀k ∈ {0, 1, ..n} / nk − x < α, on a :
k ε
f ( ) − f (x) ≤
n 2
X k n
f − f (x) . xk (1 − x)n−k
n k
{k∈{0,1,..n}/| nk −x|<α}
X k n
≤ f − f (x) . xk (1 − x)n−k
n k
{k∈{0,1,..n}/| nk −x|<α}
n
ε X n n−k ε X n ε
≤ × k
x (1 − x) ≤ × xk (1 − x)n−k =
2 k 2 k=0 k 2
{k∈{0,1,..n}/| nk −x|<α}
Reste alors à contrôler la somme portant sur les indices restants et c'est là qu'on utilise l'inégalité de
Bienaymé-Tchebychev :
X k n
f − f (x) . xk (1 − x)n−k
n k
{k∈{0,1,..n}/| nk −x|≥α}
X k n
≤ f − f (x) . xk (1 − x)n−k
n k
{k∈{0,1,..n}/| nk −x|≥α}
X n 1
≤ 2 kf k∞ × xk (1 − x)n−k ≤ 2 kf k∞ ×
k 4nα2
{k∈{0,1,..n}/| nk −x|≥α}
Ce terme étant de limite nulle quand n tend vers l'inni , il existe un rang n0 tel que
1 ε
∀n ≥ n0 , 2 kf k∞ × 2
≤
4nα 2
En dénitive,
ε ε
∀n ≥ n0 , ∀x ∈ [0, 1] , |Bn (f )(x) − f (x)| ≤ + =ε
2 2
Ce qui prouve bien la convergence uniforme sur le segment [0, 1] de la suite de fonctions polynomiales (Bn (f ))
vers la la fonction f
16.2 Matrices stochastiques
On dénit dans ce paragraphe les matrices stochastiques ( qui comme leur nom l'indique interviennent dans
les problèmes de probabilités ) et on en donne quelques propriétés élémentaires ( loin de nous l'idée d'être
exhaustif )( un bon sujet sur ce thème : Centrale MP 2016 , coriace !)
∀(i, j) ∈ N2
Pnai,j ≥ 0 (1)
∀i ∈ {1, ..n} j=1 ai,j = 1 (2)
Autrement dit, tous ses coécients sont positifs et la somme sur chacune des lignes vaut 1
Remarque : Une matrice est dit bi-stochastique, si elle est stochastique et de plus la somme sur chacune
des colonnes vaut 1 ( ou encore si elle est stochastique ainsi que sa transposée )
Quel rapport avec les probas ? : des réels de somme égale à 1 , ça vous dit ?
Sinon, partientez avant de lire le paragraphe suivant.
Exercice :
Montrer que la condition (2) de la dénition ci-desssus équivaut à :
AU = U
1
1
.
où U est le vecteur de Rn dont toutes les coordonnées valent 1 . ( U = .. )
.
..
1
Il sut de calculer, la i-ème coordonnée du vacteur AU :
pour tout i appartenant à {1, ..n} ,
n
X
(AU )i = ai,j
j=1
n
X
(AB)i,j = ai,k bk,j ≥ 0
k=1
(AB)U = A (BU ) = AU = U
Donc AB est bien stochastique.
Pour tout λ ∈ [0, 1] , λA + (1 − λ)B est à coécients positifs :
Donc MU = U
Par suite la limite M est bien stochastique
Ceci prouve que l'ensemble est fermé.
Une matrice stochastique A de Mn (R) admet 1 pour valeur propre et toutes ses valeurs propres complexes
sont de module majoré par 1
Avec les notations précédentes, AU = U et comme U n'est pas le vecteur nul, ceci montre que 1 est une
valeur propre de A.
x1
x2
Soit λ une valeur propre complexe de A et X = ∈ Cn \ {0}un vecteur propre associé à λ
xn
L'équation AX = λX donne, pour tout i ∈ {1, ..n} ,
n
X
λxi = ai,j xj
j=1
n
X
|λ| . |xi | ≤ ai,j . |xj |
j=1
n
!
X
≤ ai,j . kXk∞ = kXk∞
j=1
La matrice de Mn (R) de terme générique pi,j pour est appelée matrice de transition du système.
La ligne d'indice i , comporte donc la loi conditionnelle sachant qu'à un 'instant donné il est dans l'état i
.
De ce fait, les termes de cette ligne sont positifs et de somme égale à 1
La matrice M est donc stochastique.
A tout instant k , on dénit une variable aléatoire notée Xk donnant l'état où se trouve le système à
l'instant k . ( c'est cette suite de variables (Xk )k∈N qui est appelée chaine de Markov ).
Pour tout entier k , l'ensemble des évènements {Xk = 1} , {Xk = 2} , .. {Xk = n} est un système complet
d'évènements.
D'aprés la formule des probabilités totales , pour tout i compris entre 1 et n
n
X n
X
P (Xk+1 = i) = PXk =j (Xk+1 = i) × P (Xk = j) = pj,i × P (Xk = j)
j=1 j=1
P (Xk = 1)
P (Xk = 2)
.
.
En notant Uk = . la colonne donnant la loi de la variable Xk , on a donc, d'aprés l'égalité
.
.
.
P (Xk = n)
ci-dessus ,
Uk+1 =t (M ) .Uk
t
où (M ) est la transposée de la matrice de transition.
( Certains sujets dénissent la ligne Lk transposée de la colonne Uk , de sorte que pour tout k ,
Lk+1 = Lk .M
)
En tout état de cause, pour déterminer la loi de Xk , nous vaons besoin de calculer les puissances de la
matrice M ( ou de sa transposée ) et vous voyez donc venir...la réduction des endomorphismes.
Un exemple ( d'aprés Mr Lavau )
Exercice :
On lance une pièce équilibrée jusqu'à obtenir deux faces.
On peut envisager trois états possibles :
1 état initial ( ou état suivant un tirage de pile )
2 état suivant l'état 1 aprés tirage de face
3 état nal , aprés tirage successif de deux faces
La matrice de transition de ce système est la matrice suivante :
1 1
2 2
0
1
M = 2
0 21
0 0 1
A l'instant initial, le système est certainement à l'état 1
1
Donc U0 = 0 .
0
Le polynôme caractéristique de M est :
1 −1
X− 0
−1
2 2
−1 2 1 1
χM (X) = 2
X 2
= (X − 1) X − X −
2 4
0 0 X −1
√ √
1+ 5 1− 5 1
qui a pour racines 1, λ =
4
et β =
4
. ( relations λ+β = 2
et λβ = − 14 )
n
Pour calculer M , on diagonalise M
1
− λ 12 0 β 12 0
2
M − λI = 12 −λ 12 = 12 −λ 12
0 0 1 0 0 1
βx + 12 y = 0
1 1
x − λy + z = 0
2 2
z = 0
2λ
0
z=0,y=1 et x = 2λ : e1 = 1 est un vecteur propre associé à λ
0
2λ
De même e01 = 1 est un vecteur propre associé à β
0
1
e03 = 1 est évidemment un vecteur propre associé à 1
1
2λ 2β 1
Matrice de passage : P = 1 1 1 dont le déterminant vaut 2 (λ − β)
0 0 1
On a alors
1 −2β −2λ
1
P −1 = −1 2λ 2β
2 (λ − β)
0 0 2 (λ − β)
n
λ 0 0 λ 0 0
M = P DP −1 avec D = 0 β 0 et donc M n = P Dn P −1 avec Dn = 0 β n 0
0 0 1 0 0 1
Examinons la situation quand n tend vers l'inni.
n n
Comme |λ| < 1 et |β| < 1 , les suites (λ ) et (β ) sont de limite nulle.
t −1
Par continuité de l'application A 7−→ U0 .P AP ( linéaire sur un evn de dimension nie ) on a :
0 0 0 2λ 2β 1 0 0 0
1
lim M n = P 0 0 0 P −1 = 1 1 1 × 0 0 0
n−→+∞ 2 (λ − β)
0 0 1 0 0 1 0 0 2 (λ − β)
2λ 2β 1 0 0 0 0 0 1
= 1 1 1 × 0 0 0 = 0 0 1
0 0 1 0 0 1 0 0 1
t
En multipliant par U0 ( et par continuité également ) on obtient comme limite de Un
0 0 1
lim Un = (1, 0, 0) × 0 0 1 = (0, 0, 1)
n−→+∞
0 0 1
Ce qui veut dire, à la limite on atteint presque sûrement l'état nal.