Probabilite
Probabilite
Probabilité 2
Dr Oumarou ASSO
Porto-Novo, Bénin
Table des matières
1 Généralités 1
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 L’espace probabilisé (Ω, A, P) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.3 Construction d’espaces probabilisés . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Dénombrement, modèle d’urne . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2 Conditionnement et indépendance 7
2.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2 Indépendance des événements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
3 Variables aléatoires 13
3.1 Définition et loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Fonction de répartition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Variables aléatoires discrètes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.4 Variables aléatoires réelles à densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
i
Dr ASSO [email protected] ii Probabilité 2
Chapitre no 1
Généralités
1.1 Introduction
Une expérience (ou phénomène) aléatoire consiste en une expérience pour laquelle toutes les issues
possibles sont connues, mais où interviennent de nombreux facteurs, dont nous ne connaissons ou
maîtrisons qu’une petite partie. Dans ce cas, l’issue n’est pas prévisible avec certitude.
La théorie des probabilités consiste en l’étude de ces expériences aléatoires.
Exemple 1.1. 1. le résultat d’un jeu de hasard (pile ou face, jet de dé, roulette etc.) ;
2. durée de vie d’un atome radioactif, d’un individu, d’une ampoule ;
3. les instants de passage d’un bus à un arrêt donné ;
4. la promenade d’un ivrogne dans la rue ;
5. la trajectoire d’une poussière à la surface de l’eau etc.
Les applications de la théorie des probabilités sont nombreuses : base de la statistique, outil
puissant en finance, dans les assurances, théorie des jeux. Elle permet également de modéliser de
nombreux phénomènes complexes en biologie, médecine, sciences humaines, climatologie. Elle s’est
aussi révélée utile dans de nombreux domaines des mathématiques pures. Mais surtout, elle a acquis
une place importante au sein des mathématiques en tant que discipline à part entière, de part son
intérêt intrinsèque.
1
1.2.1 Espace des états
Définition 1.1. L’espace des états appelé aussi univers, noté Ω, est l’ensemble des résultats
possibles de l’expérience.
Exercice 1.1. Déterminer un espace des états possible dans les expériences suivantes.
1. Lancer d’une pièce de monnaie.
2. Deux lancers successifs d’une même pièce de monnaie.
3. Lancer d’un dé.
4. Deux lancers successifs d’un même dé, et on s’intéresse à la somme des nombres obtenus.
5. Lancer d’un même dé indéfiniment.
6. Durée de vie d’un individu.
7. Promenade d’un ivrogne dans une rue (un pas en avant, un pas en arrière).
8. Trajectoire d’une poussière à la surface de l’eau pendant un intervalle de temps [0, T ].
1.2.2 Événements
Définition 1.2. • Un événement est une propriété dont on peut dire si elle est réalisée ou
non, une fois l’issue de l’expérience connue. À chaque événement correspond un sous-ensemble
de l’espace des états Ω.
• Un singleton, c’est-à-dire un événement réduit à un seul élément de Ω, est appelé un
événement élémentaire, sinon on parle d’événement composite.
• On note un événement par une lettre majuscule A, B, C... et l’ensemble de tous les événe-
ments de Ω par A.
Exercice 1.2. Cet exercice est la suite de l’Exercice 1.1. On reprend la numérotation déjà utilisée.
Décrire les événements suivants comme des sous-ensembles de l’espace des états Ω.
2. “Le premier jet donne pile”.
4. “La somme des résultats obtenus est égale à 4”.
5. “Le premier 1 est obtenu au N-ième lancer”.
6. “L’individu atteint au moins 50 ans”.
7. “L’ivrogne avance au N -ième pas”.
Théorème 1.1. Les opérations sur les événements satisfont aux règles suivantes. Pour tous
événements A, B, C, on a
— commutativité : A ∪ B = B ∪ A ;
— associativité : (A ∪ B) ∪ C = A ∪ (B ∪ C) ;
— distributivité : (A ∪ B) ∩ C = (A ∩ C) ∪ (B ∩ C) ;
— lois de De Morgan : (A ∪ B)c = Ac ∩ B c , et (A ∩ B)c = (Ac ∪ B c ).
1.2.3 Tribu
L’ensemble des événements A associés à une expérience aléatoire est donc un sous-ensemble des
parties de Ω, A ⊂ P(Ω). Il semblerait naturel de prendre A = P(Ω), mais il y a alors des exemples
où il est impossible d’associer à chaque événement une probabilité de façon cohérente.
Dans ces cas-là, il est donc nécessaire de se restreindre à un sous-ensemble strict de P(Ω) contenant
les événements “intéressants”.
L’ensemble des événements que l’on considère en probabilité doivent satisfaire à quelques pro-
priétés naturelles, ils doivent former une tribu, dont voici la définition.
Définition 1.3. Un ensemble A de parties de Ω est une tribu, ou σ-algèbre, s’il satisfait aux
conditions suivantes :
1. Ω ∈ A ;
2. ∀ A ∈ P(Ω), A ∈ A =⇒ Ac ∈ A ;
3. A est stable par réunion finie ou dénombrable.
Définition 1.4.
L’ensemble des événements associé à une expérience est la tribu A choisie sur Ω.
Remarque 1.1. Dans le cas où l’espace des états est fini ou dénombrable, puisque A = P(Ω), un
événement est donc simplement n’importe quel sous-ensemble de Ω. On retrouve bien la définition
donnée dans l’enseignement secondaire.
1.2.4 Probabilité
Nous souhaitons maintenant associer à chacun des événements une probabilité, qui mesure la
vraisemblance que l’on accorde a priori à l’événement avant la réalisation de l’expérience. C’est une
des données du modèle, que l’on peut comprendre intuitivement de différentes manières, en voici
deux.
Approche utilisant les symétries. On considère un dé non-pipé. Il est alors naturel de supposer
que chacune des issues possibles ait la même probabilité égale à 1/6. Il faut cependant être prudent
avec cette approche. En effet, supposons que nous souhaitions déterminer la probabilité
Définition 1.5. Étant donnés un espace d’états Ω et une tribu d’événements A, une probabilité
P sur (Ω, A), est une application de A dans [0, 1], possédant les propriétés suivantes.
1. L’événement certain est de probabilité 1 : P(Ω) = 1.
2. Axiome de σ-additivité : pour toute famille dénombrable (An )n ≥ 0 d’événements de A,
deux-à-deux disjoints, on a
Définition 1.6.
Une probabilité P sur (Ω, P(Ω)), est une application de P(Ω) dans [0, 1], possédant les pro-
priétés suivantes.
1. L’événement certain est de probabilité 1 : P(Ω) = 1.
2. Axiome d’additivité : pour tous A ∈ P(Ω), B ∈ P(Ω), tels que A et B sont disjoints, on a
Proposition 1.2. • Une probabilité sur (Ω, P(Ω)) est caractérisée par sa valeur sur les singletons
{ω}, pour tout ω ∈ Ω.
• Réciproquement, à toute famille (pω )ω ∈ Ω telle que :
1. pour tout ω ∈ Ω, 0 ≤ pω ≤ 1,
X
2. pω = 1
ω∈Ω
on peut associer une unique probabilité P sur (Ω, P(Ω)) définie par :
P ({ω}) = pω . (1.3)
Définition 1.7.
Une probabilité P sur (A, Ω) est dite uniforme, si P({ω}) ne dépend pas de ω ∈ Ω.
On dit alors que l’on est en situation d’équiprobabilité.
Conditionnement et indépendance
Card(S)
P(S) = .
Card(Ω)
Si maintenant on choisit un individu avec l’information supplémentaire qu’il s’agit d’une femme,
tout se passe comme si l’univers considéré est F , et que l’on a partitionné F (et non plus Ω) en S ∩ F
et S c ∩ F . Ainsi la probabilité que l’individu choisi soit fumeur, étant donné l’information que c’est
une femme, est égale à :
Card(S ∩ F ) Card(S ∩ F )/Card(Ω)
=
Card(F ) Card(F )/Card(Ω)
quantité encore égale, avec les notations précédentes, à
P(S ∩ F )
P(F )
Définition 2.1. Soit (Ω, A, P) un espace probabilisé, et B un événement tel que P(B) > 0. Pour
tout A ∈ A, on définit la probabilité conditionnelle de A sachant B, notée PB (A), par :
P(A ∩ B)
PB (A) = . (2.1)
P(B)
7
Proposition 2.1. Sous les hypothèses de la définition ci-dessus, l’application PB est une proba-
bilité sur (Ω, A), ainsi (Ω, A, PB ) est un espace probabilisé.
Remarque 2.1. On utilise aussi la notation P(A|B). Mais attention, cette dernière n’est pas en
vigueur dans les lycées. Elle favorise par ailleurs de nombreuses erreurs. La notation PB (A) met en
valeur le fait que PB soit une probabilité sur (Ω, A).
Exemple 2.1. On considère deux lancers successifs d’un même dé. Sachant que le premier jet donne
3, on souhaite calculer la probabilité que la somme soit strictement supérieure à 6.
Supposons que l’on ait choisi l’univers Ω = {(i, j) : i ∈ {1, · · · , 6}, j ∈ {1, · · · , 6}}, que l’on munit
de la tribu A = P(Ω). On est alors en situation d’équiprobabilité, et on munit Ω de la probabilité
uniforme, notée P. Ainsi, pour tout événement A de A,
Card(A) Card(A)
P(A) = = .
Card(Ω) 36
Soit B l’événement “le premier jet donne 3” ; B est le sous-ensemble {(3, j) : j ∈ {1, · · · , 6}} de A,
son cardinal est égal à 6, d’où P(B) = 6
36
= 1
6
> 0. La probabilité P(B) étant strictement positive, on
peut conditionner par l’événement B. Soit A l’événement “la somme des dés est strictement supérieure
à 6” ; A est le sous-ensemble {(i, j) ∈ Ω : i + j > 6} de A, et A ∩ B = {(3, 4), (3, 5), (3, 6)}, d’où :
P(A∩B)
P(A ∩ B) = 3
36
= 1
12
. On conclut que : PB (A) = P(B)
= 12 .
Définition 2.2. Soit I une partie finie ou dénombrable de N. Une famille (Bi )i∈I d’événements
de Ω forme un système complet d’événements de Ω, si
[
∀ i 6= j, Bi ∩ Bj = ∅, et Bi = Ω. (2.3)
i∈I
X n
X
P(A) = P(A ∩ Bi ) = PBi (A)P(Bi ).
i∈I i=1
• Formule de Bayes.
Soient A ∈ A et B ∈ A, tels que 0 < P(A) < 1 et P(B) > 0, alors :
PA (B)P(A)
PB (A) = . (2.5)
PA (B)P(A) + PA (B)P(A)
Exercice 2.1.
Un sondage est effectué dans une société comprenant 40% de cadres et 60% d’ouvriers. On
sait que 20% des cadres et 10% des ouvriers de cette société savent parler anglais. On interroge
une personne “au hasard”. Quelle est la probabilité que ce soit :
• un cadre sachant parler anglais ?
• un ouvrier sachant parler anglais ?
• une personne sachant parler anglais ?
• L’individu interrogé sait parler anglais. Quelle est la probabilité que ce soit un ouvrier ?
1. Quelle est la probabilité que les deux premières boules tirées soient noires ?
2. Que la deuxième boule tirée soit noire ?
Exercice 2.3. Le test de dépistage d’un certain virus n’est pas infaillible :
• 1 fois sur 100, il est positif, alors que l’individu n’est pas contaminé,
• 2 fois sur 100, il est négatif alors que l’individu est contaminé.
D’autre part, on sait que sur la population totale, la fraction de porteurs est approximativement
de 1/1000.
1. Étant donné que le test est positif, quelle est la probabilité que l’individu ne soit pas porteur
du virus ?
Remarque 2.2.
Exercice 2.4.
Une urne contient trois boules blanches et deux boules noires. On tire successivement et “au
hasard” trois boules dans cette urne, en respectant le protocole suivant : on remet la boule dans
l’urne si elle est noire, on ne la remet pas si elle est blanche.
1. Quelle est la probabilité de n’obtenir aucune boule blanche ?
2. Quelle est la probabilité d’obtenir trois boules blanches ?
3. Quelle est la probabilité d’obtenir exactement une boule blanche ?
1 2 1
P(A) = , P(B) = , P(A ∩ B) = P({1, 2}) = .
2 3 3
Ainsi, comme P(A ∩ B) = P(A)P(B), on déduit que les événements A et B sont indépendants.
Remarque 2.3. 1. L’indépendance n’a rien à voir avec le fait que les événements soient disjoints
ou non. Dans l’exemple ci-dessus, les événements sont indépendants, mais non disjoints (A ∩
B 6= ∅).
2. Si A et B sont deux événements de probabilité non nulle, alors :
Le fait d’avoir une information supplémentaire, à savoir que B est réalisé, ne modifie pas la
probabilité de A (de même pour B lorsqu’on sait que A est réalisé) ce qui justifie la terminologie
d’indépendance. Ces critères ne sont cependant pas utilisés comme définition car ils nécessitent
l’hypothèse supplémentaire, P(A) > 0 et P(B) > 0.
Théorème 2.2. Si les événements A et B sont indépendants, il en est de même des événements
Ac et B, A et B c , Ac et B c .
• Les événements A1 , · · · , An sont dits deux-à-deux indépendants, si pour tout i ∈ {1, · · · , n},
j ∈ {1, · · · , n} , tels que i 6= j, on a :
Exemple 2.3. Soit Ω = {1, 2, 3, 4} muni de la tribu A = P(Ω) et de la probabilité uniforme, notée
P. On considère les événements A = {1, 2}, B = {2, 3}, C = {1, 3}.
Variables aléatoires
— La terminologie de variable aléatoire peut être trompeuse, car il s’agit en fait d’une fonction
de Ω dans E.
— Afin de pouvoir définir une probabilité de manière cohérente, il faut supposer de plus que pour
une classe importante de parties B de E, l’ensemble {ω ∈ Ω : X(ω) ∈ B} appartient à A.
Formellement, on munit E d’une tribu E. Une variable aléatoire X est alors une application de
(Ω, A) dans (E, E) telle que :
∀ B ∈ E, {ω ∈ Ω : X(ω) ∈ B} ∈ A. (3.1)
{X ∈ B} est l’événement “X prend une valeur appartenant à B”. Attention, X −1 (B) désigne
l’image réciproque de la partie B par l’application X. Cela ne sous-entend nullement que X
est bijective !
Exemple 3.1.
1. On considère deux lancers successifs d’un même dé, et on note S la variable aléatoire corres-
pondant à la somme des valeurs obtenues, ainsi S prend ses valeurs dans {2, 3, · · · , 12}.
13
2. Soit (Ω, A, P) un espace probabilisé, et A ∈ A un événement. Alors l’indicatrice de A, notée IA ,
est la variable aléatoire définie sur Ω par :
1 si ω ∈ A,
∀ ω ∈ Ω, IA (ω) = (3.3)
0 sinon.
Ainsi l’indicatrice de A prend ses valeurs dans {0, 1}. En probabilité, il est important de bien
savoir manipuler cette notation. En particulier l’indicatrice satisfait aux conditions suivantes.
Si A et B sont deux événements de A, alors :
Définition 3.1. Soient (Ω, A, P) un espace probabilisé et X une variable aléatoire définie sur
Ω, à valeurs dans E.
On définit la loi de probabilité de X, notée PX de la manière suivante. Pour tout sous-
ensemble B de E tel que {X ∈ B} ∈ A :
Proposition 3.1.
— Dans le cas où X est une variable aléatoire discrète, X(Ω) = {xj : j ∈ J}, où J est une
partie non-vide, finie ou dénombrable de N, alors la loi de probabilité de X est caractérisée
par la donnée :
∀ j ∈ J, PX ({xj }).
Exemple 3.2. 1. Choisissons comme univers Ω = {1, · · · , 6}2 , que l’on munit de la tribu A =
P(Ω), et de la probabilité uniforme, notée P. Ainsi pour tout sous-ensemble A de P(Ω),
Card(A)
P(A) = .
Card(Ω)
Étant donné que S prend ses valeurs dans {2, · · · , 12}, pour déterminer la loi de probabilité PS
2. Étant donné que l’indicatrice de A prend ses valeurs dans {0, 1}, il suffit de déterminer, pour
i ∈ {0, 1}, PIA ({i}) :
Définition 3.2. Soit X une variable aléatoire de loi PX à valeurs dans R (ou une partie de R).
On appelle fonction de répartition de la loi PX ou encore, par abus, fonction de répartition
de X, l’application FX définie sur R par :
Proposition 3.3. Toute application définie de R dans [0, 1] qui possède les propriétés 2, 3, 4,
est la fonction de répartition d’une unique loi de probabilité sur R.
Proposition 3.4. Soit (Ω, A, P) un espace probabilisé, et X une variable aléatoire sur Ω de
fonction de répartition FX , alors :
• P(X > x) = 1 − FX (x),
Pour la suite de la théorie, nous allons traiter trois cas séparément, selon que la variable aléatoire
soit discrète (finie ou infinie) ou continue et à densité. Ceci pourrait être unifié en utilisant la théorie
de la mesure, mais nous amènerait en dehors du programme.
3.3.1 Définition
Soit (Ω, A, P) un espace probabilisé.
Définition 3.3. Une variable aléatoire X définie sur Ω est dite discrète si elle prend ses valeurs
dans un ensemble discret : X(Ω) = {xj : j ∈ J} ⊂ R, où J est une partie non-vide finie ou
dénombrable de N.
Remarque 3.1. Lorsque Ω est fini, toute application définie sur Ω est une variable aléatoire discrète.
Proposition 3.5. Si X est une variable aléatoire discrète définie sur Ω, alors la loi de probabilité
de X est caractérisée par la donnée de la famille {(xj , PX ({xj })), j ∈ J}, où :
1
∀ j ∈ {1, · · · , n}, PX ({xj }) = .
n
Exemple 3.3. On lance une pièce équilibrée. Soit Ω = {P, F } que l’on munit de la probabilité
uniforme p. On définit la variable aléatoire X : Ω → {−1, 1}, par X({P }) = 1, X({F }) = −1. Ainsi,
la loi de probabilité de X est :
1 1
pX ({1}) = p({X = 1}) = p({P }) = , pX ({−1}) = p({X = −1}) = p({F }) =
2 2
Exemple 3.4.
On jette un dé équilibré une fois. On appelle “succès” l’événement A “obtenir un nombre plus
grand ou égal à 2”. On choisit comme univers Ω = {1, · · · , 6}, alors p(A) = p({2, 3, 4, 5, 6}) = 5
6
et
IA suit une loi de Bernoulli de paramètre 5/6.
Soit X la variable aléatoire qui compte le nombre de succès dans un schéma de Bernoulli, alors X
suit une loi binomiale de paramètres n et p.
θk
∀ k ∈ N, PX ({k}) = e−θ . (3.11)
k!
Exercice 3.2. Une urne contient n boules numérotées de 1 à n, n ≥ 3. On tire 3 boules d’un
seul coup. Soit X la variable aléatoire égale à 1 si on a tiré la boule numéro 1, égale à 0 dans le
cas contraire. Donner la loi de la variable aléatoire X.
Exercice 3.3. On lance deux dés équilibrés. On note le plus grand des numéros obtenus.
Déterminer la loi de la variable aléatoire X.
Exercice 3.5. On lance un dé à 6 faces non truqué, indéfiniment. Soit X la variable aléatoire
égale au temps passé jusqu’à ce que le premier 1 soit obtenu.
1. Déterminer la loi de la variable aléatoire X.
2. Reconnaître la loi de X.
Théorème 3.1. Soit (Ω, A, P) un espace probabilisé et soit X une variable aléatoire discrète
réelle définie sur Ω. Alors la fonction de répartition FX de la loi PX , vérifie :
X
1. FX (x) = PX ({y}) ;
{y∈X(Ω): y≤x}
2. si x et y sont deux points consécutifs de X(Ω), alors FX est constante sur [x, y[ ;
3. la hauteur du saut en x ∈ X(Ω) est donnée par PX ({x}).
Exercice 3.6.
Calculer la fonction de répartition de :
1. la loi uniforme sur {1, · · · , n},
2. la loi de Bernoulli de paramètre p,
3. la loi binomiale de paramètres 4 et 12 ,
4. la loi géométrique de paramètre p.
3.3.8 Espérance
L’espérance d’une variable aléatoire représente sa moyenne pondérée par la probabilité de chacune
des issues. Lors d’un jeu de hasard par exemple, elle permet de déterminer si le jeu est équitable ou
non.
• Cas où l’univers est fini.
Soit (Ω, A, P) un espace probabilisé. Supposons l’univers Ω fini : Ω = {ω1 , · · · , ωn }.
n
X
E(X) = X(ωi )P({ωi }) (3.12)
i=1
Théorème 3.2.
2. (Monotonie). Si X et Y sont deux variables aléatoires définies sur Ω telle que X ≤ Y , alors
E(X) ≤ E(Y ). En particulier, |E(X)| ≤ E(|X|).
3. Si X est une variable aléatoire constante, X ≡ a, alors E(X) = a.
4. (Théorème de transfert). Notons {x1 , · · · , xm } l’ensemble des valeurs prises par la variable
aléatoire réelle X, et soit f une application définie sur X(Ω), alors :
m
X
E(f (X)) = f (xk )PX ({xk }). (3.14)
k=1
Définition 3.5. • La variable aléatoire X et dite de carré intégrable, si X 2 admet une espérance.
• La quantité E(X 2 ) est alors bien définie et est appelée moment d’ordre 2 de X.
Théorème 3.3. Si X est une variable aléatoire discrète de carré intégrable, alors :
Remarque 3.3.
Proposition 3.6. Soit X une variable aléatoire discrète de carré intégrable, alors :
1. V ar(X) ≥ 0,
2. ∀ a ∈ R, V ar(X + a) = V ar(X),
3. ∀ a ∈ R, V ar(aX) = a2 V ar(X),
4. V ar(X) = E(X 2 ) − E(X)2 ,
5. V ar(X) = 0 ⇐⇒ ∀ j ∈ J tel que PX ({xj }) > 0, xj = E[X].
Remarque 3.4.
D’après le théorème de transfert, la variable aléatoire X n est intégrable si et seulement si la série
de terme général |xj |n PX ({xj }) converge.
Exercice 3.7. Calculer, si elle existe, la variance de chacune des lois discrètes classiques.
E[|X|n ]
∀ a > 0, P(|X| ≥ a) ≤ (3.19)
an
V ar(X)
∀ a > 0, P[|X − E(X)| ≥ a] ≤ . (3.20)
a2
3.4.1 Définitions
Soit (Ω, A, P) un espace probabilisé et soit X une variable aléatoire définie sur Ω à valeurs dans
R.
Définition 3.9.
• La variable aléatoire X est dite à densité, s’il existe une fonction réelle positive p n’ayant
qu’un nombre fini de points de discontinuité, telle que la fonction de répartition de la loi de
probabilité de X s’écrit : Z t
∀ t ∈ R, FX (t) = p(x)dx. (3.21)
−∞
Remarque 3.5.
Remarque 3.6. Les propriétés énoncées pour l’espérance (linéarité, monotonie, etc.), la définition
de la variance, l’inégalité de Markov, Bienaymé-Tchébychev, restent valables dans le cas des variables
aléatoires à densité.
Définition 3.12.
• Une variable aléatoire réelle X suit une loi de Gauss ou loi normale centrée réduite si elle
admet pour densité l’application pX définie sur R par :
1 x2
∀ x ∈ R, pX (x) = √ e− 2 . (3.25)
2π
1 (x−m)2
∀ x ∈ R, pX (x) = √ e− 2σ 2 . (3.26)
2πσ 2
Remarque 3.7.
1. La loi normale centrée réduite a une grande importance en théorie des probabilités, car elle
apparaît comme limite dans certains théorèmes, comme le théorème central limite.
2. Nous avons montré que si X suit une loi normale N (0, 1), alors Y = σX + m suit une suit une
loi N (m, σ 2 ). De manière analogue, si Y suit une loi N (m, σ 2 ), alors X = Y −m
σ
suit une loi
N (0, 1).
3. La fonction de répartition de X ne se calcule pas à l’aide des fonctions usuelles. Si on note Π
la fonction de répartition de la loi gaussienne centrée réduite, des tables donnent des valeurs
approchées de Π(t) pour t > 0 (voir à la fin de cette première partie).
En remarquant que : Π(t) + Π(−t) = 1 on peut en déduire des valeurs approchées de Π(t) pour
les valeurs négatives de t.
Définition 3.13.
• Soit I = [a, b] un intervalle de R, où a < b. La variable aléatoire X suit la loi uniforme
sur I si elle est à valeurs dans I et pour tout intervalle J inclus dans I, la probabilité que X
appartienne à J est proportionnelle à la longueur de J.
• La variable aléatoire X suit la loi uniforme sur l’intervalle I = [a, b] si et seulement si elle
admet pour densité l’application pX définie par :
1
∀ x ∈ R, pX (x) = I[a,b] (x). (3.27)
b−a