Probabailité
Probabailité
UCAO/IEG
Licence 1
2
TABLE DES MATIÈRES 3
2.3.1 Estimation des coefficients saisonniers du modèle additif . . . . . . . . 23
2.3.2 Estimation des coefficients saisonniers du modèle multiplicatif . . . . . 23
2.4 Désaisonnalisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.5 Prévisions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.6 Approche générale de la modélisation d’une série chronologique . . . . . . . . . 24
2.7 Exemple : Modèle additif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.8 Lissage exponentiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.8.1 Lissage exponentiel simple . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.8.2 Lissage exponentiel double . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.8.3 Méthodes de Holt-Winters . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
[Link] Méthode non saisonnière ou méthode de Holt . . . . . . . . . 32
[Link] Méthode saisonnière additive . . . . . . . . . . . . . . . . . . . 33
[Link] Méthode saisonnière multiplicative . . . . . . . . . . . . . . . . 33
[Link] Lissage et prévision de la concentration en co2 . . . . . . . . . 33
[Link] Lissage et prévision du CAC40 . . . . . . . . . . . . . . . . . . 33
3 Analyse combinatoire 34
3.1 Principe multiplicatif . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2 Arrangements . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.1 Arrangements sans répétitions . . . . . . . . . . . . . . . . . . . . . . . . 34
3.2.2 Arrangements avec répétitions . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3 Combinaisons . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.1 Combinaisons sans répétitions . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3.2 Combinaisons avec répétitions . . . . . . . . . . . . . . . . . . . . . . . . 35
4 Espace probabilisé 37
4.1 Univers des possibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.2 Evénements, Tribu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.3 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.4 Conditionnement et indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4.1 Probabilité conditionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4.2 Indépendance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
1.1 Introduction
La question centrale de ce chapitre est relative aux statistiques bivariées (deux variables).
Comment juger de l’intensité de la dépendance statistique esntre deux variables ?
Répondre statistiquement à cette question dépend de la nature des deux variables étu-
diées. Trois combinaisons sont possibles :
— Deux variables qualitatives :
— Une variable qualitative et une variable quantitative :
— Deux variables quantitatives
L’analyse dans ce cas n’est plus univariée mais bien bivariée. On analyse de manière simul-
tanée les caractéristiques des individus suivant deux variables.
1.2 Généralités
ni j
fi j = .
n
4
1.2. GÉNÉRALITÉS 5
HH Y Y
H
Y2 ··· Yj ··· Yl
X HH 1
X1 n 11 n 12 ··· n1 j ··· n 1l
X2 n 21 n 22 ··· n2 j ··· n 2l
.. .. .. .. .. .. ..
. . . . . . .
Xi n i1 n i2 ··· ni j ··· n il
.. .. .. .. .. .. ..
. . . . . . .
Xk n k1 n k2 ··· nk j ··· n kl
Exemple 1.2.3. Une variable quantitative continue et une variable qualitative : Répartition
d’un groupe de 50 personnes réparties par âge et par genre, tous âgés de moins de 45 ans.
PPGenre Homme
PP
Femme
Age PP
P
P
[0, 18[ 10 20
[18, 45[ 5 15
k
X
n• j = ni j.
i =1
6 CHAPITRE 1. STATISTIQUES À DEUX VARIABLES
La fréquence de la modalité Y j est donnée par
n• j
f• j = .
n
Nous avons
X l
k X k
X l
X
n= ni j = n i• = n• j
i =1 j =1 i =1 j =1
X l
k X k
X l
X
fi j = f i• = f • j = 1.
i =1 j =1 i =1 j =1
HH Y
HH Y1 Y2 ··· Yj ··· Yl Total
X H
X1 n 11 n 12 ··· n1 j ··· n 1l n 1•
X2 n 21 n 22 ··· n2 j ··· n 2l n 2•
.. .. .. .. .. .. .. ..
. . . . . . . .
Xi n i1 n i2 ··· ni j ··· n il n i•
.. .. .. .. .. .. .. ..
. . . . . . . .
Xk n k1 n k2 ··· nk j ··· n kl n k•
Total n •1 n •2 ··· n• j ··· n •l n
HH Y
HH Y1 Y2 ··· Yj ··· Yl Total
X H
X1 f 11 f 12 ··· f1 j ··· f 1l f 1•
X2 f 21 f 22 ··· f2 j ··· f 2l f 2•
.. .. .. .. .. .. .. ..
. . . . . . . .
Xi f i1 f i2 ··· fi j ··· f il f i•
.. .. .. .. .. .. .. ..
. . . . . . . .
Xk f k1 f k2 ··· fk j ··· f kl f k•
Total f •1 f •2 ··· f• j ··· f •l 1
1.2.4 Indépendance
On dit que les caractères X et Y sont satistiquement indépendants dans l’ensemble des
n individus considérés si toutes les distributions conditionnelles de X sont identiques à la
distribution marginale en X .
Puisque
ni j
ni j n fi j
f i⧸ j = = n• j = ,
n• j f• j
n
alors
f i j = f • j × f i⧸ j = f i• × f j⧸ i .
8 CHAPITRE 1. STATISTIQUES À DEUX VARIABLES
Ainsi, nous obtenons
n i• n• j 2
³ ´
3 ni j −
2 X n
χ2 =
X
n i• n• j
i =1 j =1 n
µ¡ n i• n •1 ¢2 ¡ n n ¢2 ¡ n n ¢2 ¶
2
X n i1 − n n i2 − i•n •2 n i3 − i•n •3
= n i• n •1 + n i• n •2 + n i• n •3
i =1 n n n
n 1• n •1 ¢2 n 1• n •2 ¢2 n 1• n •3 ¢2 ¢2 ¢2 ¢2
n 21 − n2•nn•1 n 22 − n2•nn•2 n 23 − n2•nn•3
¡ ¡ ¡ ¡ ¡ ¡
n 11 − n n 12 − n n 13 − n
= n 1• n •1 + n 1• n •2 + n 1• n •3 + n 2• n • 1 + n 2• n •2 + n 2• n • 3
n n n n n n
On sait que :
X et Y sont indépendants ⇐⇒ f i j = f i• × f • j i = 1, . . . , k, j = 1, . . . , l.
1.3.3 Exercices
[Link] Exercice 1
Nous voulons étudier la liaison entre le type de musique X et l’âge Y . X a trois modalités
(chansons, jazz, classique) et Y a quatre modalités (jeunes, adulte femme, adulte homme,
vieux). Voici le tableau de contingence :
HH Y Jeunes
H
Adulte femme Adulte homme Vieux Total
X HH
Chansons 69 172 133 27 401
Jazz 41 84 118 11 254
Classique 18 127 157 43 345
Total 128 383 408 81 1000
Nous avons
n i• n• j 2
³ ´
4 ni j −
3 X n
χ2 =
X
n i• n• j = 52.9138.
i =1 j =1 n
[Link] Exercice 2
Un site internet reçoit 113 457 visiteurs durant un mois. On désigne par X le navigateur
internet utilisé et Y le système d’exploitation utilisé.
10 CHAPITRE 1. STATISTIQUES À DEUX VARIABLES
HH Y
H
Windows Mac Linux
X HH
Chrome 14103 1186 427
Firefox 30853 4392 3234
Internet explorer 47389 23 0
Safari 668 6416 0
Autres 2974 40 1752
1. Identifier la population, sa taille ainsi que les variables étudiées en précisant leur type.
2. Quelle est la proportion de visiteurs sous Windows ?
3. Quelle proportion de visiteurs utilisent le navigateur Safari ?
4. Parmi les utilisateurs de Mac, quelle proportion utilise Chrome ?
5. Parmi les utilisateurs de Safari, quelle proportion est sous Windows ?
6. Représenter graphiquement la distribution des proportions par Navigateur pour chaque
système d’exploitation. Les variables X et Y sont-elles indépendantes ?
1X n
Cov( X , Y ) = ( X i − X n )(Yi − Y n )
n i=1
1X n
= X i Yi − X n Y n .
n i=1
1.4. LIAISON ENTRE DEUX CARACTÈRES QUANTITATIFS 11
La covariance est un indice symétrique, c’est à dire, Cov( X , Y ) = Cov(Y , X ) et peut prendre
toute valeur (négative, nulle ou positive).
Le coefficient de correlation linéaire entre les caractères X et Y est défini par
Cov( X , Y )
rXY =
σ X σY
Nous avons :
1. −1 ≤ r X Y ≤ 1.
2. Si r X Y > 0 alors les deux variables évoluent dans le même sens.
3. Si r X Y < 0 alors les deux variables n’évoluent pas dans le même sens.
4. | r X Y | = 1 ⇐⇒ les n points ( X i , Yi ) sont alignés.
5. r X Y = 0 ⇐⇒ Pas de liaison linéaire, mais possibilité d’une liaison d’un autre type.
6. X et Y indépendantes=⇒ r X Y = 0.
Remarque 1.4.1. • La covariance dépend des unités de mesure dans lesquelles sont ex-
primées X et Y . Le coefficient de corrélation est un indice de liaison sans unité.
• La covariance et le coefficient de corrélation ne permettent de mettre en évidence
qu’une relation linéaire entre X et Y .
• Si deux variables sont statistiquement indépendantes (aucun lien), la corrélation est
nulle, mais l’inverse est faux : il peut exister un lien autre que linéaire entre elles.
12 CHAPITRE 1. STATISTIQUES À DEUX VARIABLES
1.4.3 Regression linéaire
Si | r X Y | ≃ 1, on peut supposer que X est cause de Y . Il est naturel de chercher, dans un
ensemble donné de fonctions, la fonction de X approchant Y ”le mieux possible” au sens d’un
certain critère. On dit que l’on fait la regression de Y sur X . Si l’on choisit pour ensemble de
fonctions celui des fonctions affines du type (aX + b), on parle de regression linéaire. C’est le
choix que l’on fait le plus fréquemment dans la pratique, le critère le plus usuel étant celui
des moindres carrés.
Le critère des moindres carrés. Il consiste à minimiser la quantité
n
[Yi − (aX i + b)]2 .
X
S (a, b) =
i =1
100
y *i
90
ei
yi
poids
80
70
60
taille
La droite d’équation y = ax + b est appelée droite de régression de Y sur X . Elle passe par
le point ( X n , Y n ).
2.0
1.8
1.6
1.4
20 30 40 50 60 70
Age
Les points sont rangés le long d’une droite. On peut donc supposer l’existence d’une
relation linéaire entre l’age et le taux de cholesterol.
2. Le coefficient de corrélation est donné par :
10
X
x i yi − 12 x12 y12
i =1
rXY = v v ≈ 0.95
u 10 u 10
uX uX
t x2 − 12( x )2 t yi2 − 12( y12 )2
i 12
i =1 i =1
Le coefficient de corrélation est positif. Ce qui signifie que l’age et le taux de choles-
terol évolue dans le même sens. De plus ils sont fortement corrélés ; ce qui confirme
la relation linéaire entre l’age et le taux de cholesterol.
3. Estimation des paramètres
P10
i =1 x i yi − 12 x12 y12
a= P 10 2
= 0.03
2
i =1 x i − 12( x12 )
14 CHAPITRE 1. STATISTIQUES À DEUX VARIABLES
b = y12 − âx12 = 0.92
1X n
Yn = n i• Y i .
n i=1
On définit :
- la variance intra-groupe
1X k
Vintra = n i• σ2i
n i=1
avec
n i•
1 X
σ2i = (Yi j − Y i )2
n i• j=1
- la variance inter-groupe
1X k
Vinter = n i• (Y i − Y n )2
n i=1
σ2 = Vintra + Vinter .
- η2X |Y = 0 ⇒ Vinter = 0 ⇒ Y i = Y n . Ce qui signifie que les moyennes de Y sont les mêmes
dans toutes les modalités de X . En moyenne, les données ne diffèrent pas selon qu’elles
se trouvent dans telle ou telle modalité de X .
1.5. CARACTÈRE QUANTITATIF ET CARACTÈRE QUALITATIF 15
- η2X |Y= 1 ⇒ Vintra = 0 ⇒ Yi j = Y i . Les données diffèrent d’un groupe à l’autre mais à
l’interieur même de chaque groupe, il n’y a aucune variabilité.
Remarque 1.5.1. Si η2X |Y est proche de 1, c’est que le caractère X explique une grande partie
de la variabilité des données alors que si sa valeur est proche de 0, elle n’en explique que
très peu.
1.5.2 Exemple
Liaison entre le sexe (caractère X ) et le salaire (caractère Y ).
Le caractère X admet deux modalités : femme et homme.
30Y F + 20Y H
Y= = 1818.36
30 + 20
La variance inter-groupe est :
1
½ ³ ´2 ³ ´2 ¾
Vinter = nF Y F − Y + nH Y H − Y = 27809.32
50
On peut considérer que le caractère sexe explique environ 58% de la variabilité des salaires
observés.
Chapitre
2.1 Présentation
2.1.1 Définitions
On s’intéresse à l’évolution au cours du temps d’un phénomène, dans le but de décrire,
expliquer puis prévoir ce phénomène. On dispose ainsi d’observations à des dates diffé-
rentes, c’est à dire d’une suite de valeurs numériques indicées par le temps appelée série
chronologique (chronique ou série temporelle). Les séries chronologiques sont présentes dans
de nombreux domaines d’application (démographie,économie, écologie, finance, médecine,
informatique. . .)
Exemple 2.1.1. • Température maximale journalière
• Chiffre d’affaire trimestriel d’une entreprise
• Indice mensuel des prix à la consommation
• Consommation mensuelle d’électicité.
Soit ( X t , t ∈ T) une série chronologique ; l’ensemble T est appelé espace des temps. Nous
avons en général T ⊆ N ou T ⊆ Z.
On donne deux dimensions au temps :
- le mois, unité de référence correspondant aux dates d’observation ; le mois peut être
le mois véritable mais également le trimestre, le semestre, etc.
- l’année composée d’un nombre p de mois ; le nombre p est appelé période ; par
exemple, p = 4 pour les observations trimestrielles, p = 12 pour les observations men-
suelles.
Soit X t l’observation d’une grandeur X à la date t. Si les observations sont faites sur n
années, et chaque année contenant p mois, on notera X i j l’observation du mois j de l’année
i . Nous avons
X i j = X t avec t = ( i − 1) p + j.
Le mois t est le j -ème mois de la i -ème année. Si T = {1, . . . , T } alors le nombre total d’obser-
vations est T = np. Nous avons donc deux façons de présenter unesérie chronologique sous
forme de tableau :
t 1 2 ... T
Xt X1 X2 ... XT
16
2.1. PRÉSENTATION 17
XXX
XXX Mois mois 1 mois 2 ... mois j ... mois p
Années XXX
X
année 1 X 11 X 12 ... X1 j ... X1p
année 2 X 21 X 22 ... Xij ... X2p
..
.
année i X i1 X i2 ... Xij ... Xip
..
.
année n X n1 X n2 ... Xnj ... X np
Exemple 2.1.2. Chiffre d’affaires trimestriel d’une entreprise (en millions de francs)
t 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
Xt 2 8 6 12,5 5 10.5 9 15 7 12 10,5 17 8.5 14.5 12 19
XXX
XXX Mois Trimestre 1 Trimestre 2 Trimestre 3 Trimestre 4
Années XXX
X
1976 2 8 6 12.5
1977 5 10.5 9 15
1978 7 12 10.5 17
1979 8.5 14.5 12 19
Exemple 2.1.3. Chiffre d’affaires trimestriel d’une entreprise (en millions de francs)
XXX
XXX Mois Trimestre 1 Trimestre 2 Trimestre 3 Trimestre 4
Années XXX
X
2000 5,5 6,3 16,9 32,4
2001 23,1 17,5 37,8 62,7
2002 40,6 28,7 58,7 93,3
2003 58,5 39,9 79,5 123,1
Remarque 2.1.1. Ces trois composantes ne sont pas toujours simultanément présentes dans
une série chronologique. Certaines séries n’ont pas de tendance, d’autres n’ont aucune com-
posante saisonnière. D’autres n’ont pas de composantes résiduelle.
S t = S t+ p = S t+2 p = . . . ;
X t = T t + S t + εt .
Principe de conservation des aires :
p
X
S j = 0.
j =1
X t = T t × (1 + S t ) × (1 + ε t ).
Principe de conservation des aires :
p
X
S j = 0.
j =1
X t = T t × S t + εt .
Principe de conservation des aires :
p
X
S j = p.
j =1
X t = T t × S t × εt .
Principe de conservation des aires :
p
X
S j = p.
j =1
20 CHAPITRE 2. ANALYSE DESCRIPTIVE D’UNE SÉRIE CHRONOLOGIQUE
Dans la suite, lorsque nous parlerons de modèle multiplicatif nous considérons la forme :
X t = T t × (1 + S t ) × (1 + ε t ).
On utilise le graphe de la série et la droite passant par les minima et celle passant par
les maxima. Si ces deux droites sont parallèles, le modèle est additif. Si les deux droites ne
sont pas parallèles, le modèle est multiplicatif.
On utilise le graphique des courbes superposées. Si les différentes courbes sont parallèles,
le modèle est additif. Sinon le modèle est multiplicatif.
2.2. ESTIMATION DE LA TENDANCE 21
[Link] Méthode du tableau de Buys et Ballot
Exemple 2.1.4. Nous allons une application de la méthode de Buys-Ballot avec le tableau
suivant :
XX
XXX Mois
XXX Trimestre 1 Trimestre 2 Trimestre 3 Trimestre 4
Années XX
1976 2 8 6 12.5
1977 5 10.5 9 15
1978 7 12 10.5 17
1979 8.5 14.5 12 19
Moyenne x 5.625 11.25 9.375 15.875
Ecart-type σ 2.43349 2.358495 2.21853 2.40767
Le principe de cette technique est de construire une nouvelle série en calculant des
moyennes arithmétiques successives de longueur p fixée à partir des données originales. Les
moyennes mobiles de longueur égale à la période p permettent d’éliminer ou d’amortir les
composantes saisonnière et résiduelle. On procède ainsi au lissage de la courbe pour mettre
en évidence la tendance générale.
Remarque 2.2.1. La tendance à la date t peut être estimée par la moyenne mobile centrée à
la date t de longueur la période p si
- la tendance présente une faible courbure
- les variations saisonnières sont périodiques de période p et ont une influence nulle
sur l’année
- les variations résiduelles sont de faible amplitude.
Remarque 2.2.2. Les moyennes mobiles peuvent être influencées par les valeurs extrêmes.
Dans ce cas, on pourrait calculer les médianes mobiles de même ordre. Les moyennes mobiles
donnent une meilleure estimation que les moindres carrés.
Nous obtenons
cov( t, X )
a= b = X̄ − a t̄
var ( t)
2.3. VARIATIONS SAISONNIÈRES 23
où
1 XT 1 XT
cov( t, X ) = tX t − t̄ X̄ var ( t) = t2 − t̄2
T t=1 T t=1
1 XT 1 XT
X̄ = Xt t̄ = t.
T t=1 T t=1
Remarque 2.2.3. La droite des moindres carrés ajuste au mieux au sens des moindres carrés
(c’est celle qui passe le plus près de l’ensemble des points), mais elle ne modélise pas toujours
bien la tendance.
On peut utiliser la méthode des moindres carrés afin d’ajuster le nuage de points ( t, X t )
à un polynôme de degré choisi. L’observation du graphe de la série donne une idée du degré
du polynôme (selon la forme de la courbe).
′ ′
5. Estimer S j par Se j = S j − M pour respecter le principe de conservation des aires.
′
Sj
5. Estimer S j par Se j = ′ − 1.
M
24 CHAPITRE 2. ANALYSE DESCRIPTIVE D’UNE SÉRIE CHRONOLOGIQUE
2.4 Désaisonnalisation
Désaisonnaliser une série chronologique, c’est éliminer la composante saisonnière sans
modifier les autres composantes. On appelle observation corrigée des variations saisonnières
ou observation désaisonnalisés, la valeur X i∗j cdobtenue en éliminant l’effet saisonnier sur
la valeur X i j . On la notera X t∗ . La désaisonnalisation permet de comparer des observations
dont les variations saisonnières sont différentes.
• Modèle additif : X i∗j = X i j − Se j
Xij
• Modèle multiplicatif : X i∗j =
1 + Se j
2.5 Prévisions
• Modèle additif : la prévision est :
h i
p
X i j = a ( i − 1) p + j + b + Se j .
Nous avions montré par les méthodes précédentes que le modèle est additif.
X i j − Mi j
26 CHAPITRE 2. ANALYSE DESCRIPTIVE D’UNE SÉRIE CHRONOLOGIQUE
′ 1³ ´
S1 = − 3.875 − 3.9375 − 4.3125 = −4.042
3
′ 1³ ´
S 2 = 0.9375 + 0.625 + 1.25 = 0.935
3
′ 1³ ´
S3 = − 1.5 − 1.125 − 1.3125 = −1.3125
3
′ 1³ ´
S 4 = 4.3125 + 4.4375 + 4.6875 = 4.479
3
Comme
′ ′ ′ ′
S 1 + S 2 + S 3 + S 4 = 0.0595 ̸= 0,
le principe de conservation des aires n’est pas respectée. Nous passons à l’étape sui-
vante.
′ ′ ′ ′
Les coefficients Se1 , Se2 , Se3 et Se4 respectent leprincipe de conservation des aires.
′
Interprétation des coefficients saisonniers : Se1 = −4.057335 signifie qu’en moyenne
on a une baisse de 4.042 millions au trimestre 1 par rapport à l’ensemble de l’année ;
′
S 4 = 4.479 signifie qu’en moyenne on a une hausse de 4.463625 millions au trimestre
4 par rapport à l’ensemble de l’année.
4. Séries désaisonnalisée :
′
X i∗j = X i j − Se j .
28 CHAPITRE 2. ANALYSE DESCRIPTIVE D’UNE SÉRIE CHRONOLOGIQUE
XXX
XXX Mois Trimestre 1 Trimestre 2 Trimestre 3 Trimestre 4
Années XX
XX
2000 17.475 21.075
2001 25.0875 31.4875 37.4625 41.05
2002 45.0625 51.5 57.5625 61.2
2003 65.2 71.525
Xij
• Tableau des Mi j
2.7. EXEMPLE: MODÈLE ADDITIF 29
XXX
XXX Mois Trimestre 1 Trimestre 2 Trimestre 3 Trimestre 4
Années XXX
X
2000 0.96709585 1.53736655
2001 0.92077728 0.5557761 1.00900901 1.5274056
2002 0.90097087 0.55728155 1.01976113 1.5245098
2003 0.89723926 0.55784691
S ′j 0.9063291367 0.5569681867 0.9986219967 1.52976065
• Moyenne des S ′j
$seasonal
Qtr1 Qtr2 Qtr3 Qtr4
2000 0.9082182 0.5581291 1.0007035 1.5329492
2001 0.9082182 0.5581291 1.0007035 1.5329492
2002 0.9082182 0.5581291 1.0007035 1.5329492
2003 0.9082182 0.5581291 1.0007035 1.5329492
$trend
Qtr1 Qtr2 Qtr3 Qtr4
2000 NA NA 17.4750 21.0750
2001 25.0875 31.4875 37.4625 41.0500
2002 45.0625 51.5000 57.5625 61.2000
2003 65.2000 71.5250 NA NA
$random
Qtr1 Qtr2 Qtr3 Qtr4
2000 NA NA 0.9664160 1.0028816
2001 1.0138282 0.9957841 1.0082997 0.9963837
2002 0.9920202 0.9984815 1.0190443 0.9944947
30 CHAPITRE 2. ANALYSE DESCRIPTIVE D’UNE SÉRIE CHRONOLOGIQUE
2003 0.9879115 0.9994944 NA NA
$figure
[1] 0.9082182 0.5581291 1.0007035 1.5329492
$type
[1] "multiplicative"
attr(,"class")
[1] "[Link]"
[1] -0.0917817612 -0.4418709007 0.0007034661 0.5329491958
S 1 = −0.0917817612 signifie que le chiffre d’affaire du trimestre 1 baisse de 9.18%
par rapport à l’ensemble de l’année ; S 4 = 0.5329491958 signifie que le chiffre
d’affaire du trimestre 4 connaı̂t une hausse de 53.29% par rapport à l’ensemble
de l’année.
> plot(C)
Time
Remarque 2.8.1. Pour certains logiciels permettant de faire du lissage exponentiel, la constante
de lissage n’est pas α mais β = 1 − α.
X̂ T = X̂ T −1 + (1 − α)( X T − X̂ T −1 ) (2.8.1)
La formule (2.8.1) montre que la prévision X̂ T s’interprète comme la prévision faite à l’instant
précédent corrigée par un terme proportionnel à l’erreur de prévision correspondante. On
obtient aussi une formule de mise à jour, que l’on peut initialiser par exemple par X̂ 1 = X 1
(noter que comme 0 < α < 1, le valeur initiale aura peu d’influence lorsque T est grand). Pour
utiliser cette équation de récurrence, on peut prendre X̂ 1 = X 1 ou la moyenne de la série.
X 1 a moins d’influence sur la prévision lorsque la série est longue. Considérons le problème
suivant :
TX
−1
min α j ( X T − j − C )2 .
C j =0
La solution est
TX
−1
b = 1−α
C α j X t− j .
1 − α j=0
T
La valeur Cb correpond à peu près à X b T lorsque T est grand. Elle s’interprète comme la
constante qui approxime le mieux la série au voisinage de T (les α j pondèrent l’importance
de la T − j -ième observation). Il est donc préférable de ne pas appliquer cette méthode lorsque
la série présente une tendance non constante ou d’importantes fluctuations (de sorte qu’une
approximation localement constante soit peu réaliste).
Choix de la constante α :
TX
−1 h tX
−1 i2
α
b = arg min X t+1 − (1 − α) α j X t− j .
α
t=1 j =0
32 CHAPITRE 2. ANALYSE DESCRIPTIVE D’UNE SÉRIE CHRONOLOGIQUE
2.8.2 Lissage exponentiel double
Une façon de généraliser le lissage exponentiel simple est de supposer que la série s’ap-
proche localement par une fonction affine du temps (au lieu d’une fonction constante). On
suppose alors que X T +h ≈ A + Bh pour h petit. Pour une constante de lissage α, il s’agit
alors de résoudre le problème :
TX
−1
min α j ( X T − j − ( A j + B))2 .
A,B j =0
B
b(T ) = 2S 1 (T ) − S 2 (T )
b(T ) = 1 − α (S 1 (T ) − S 2 (T ))
A
α
avec
TX
−1
S 1 (T ) = (1 − α) α j X T− j
j =0
TX
−1
S 2 (T ) = (1 − α) α j S 1 (T − j )
j =0
X
b T ( h) = A
b (T ) h + B
b(T ).
X
b T ( h) = A
b (T ) h + B
b(T ).
avec 0 < α < 1 et 0 < γ < 1. Les valeurs initiales  (2) = X 2 et B̂(2) = X 2 − X 1 . L’introduction
de deux constantes rend la méthode plus souple que le lissage exponentiel double. Les deux
paramètres α et γ peuvent être choisis en minimisant la somme des carrés des erreurs de
prévision, comme pour le lissage exponentiel simple ou double. L’initialisation des formules
récursives de mise à jour est identique à celle pour le lissage exponentiel double.
2.8. LISSAGE EXPONENTIEL 33
[Link] Méthode saisonnière additive
On suppose que X t+h ≈ B + Ah + S t+h où S t est un facteur saisonnier de période p. Les
formules de mise à jour sont les suivantes et dépendent de trois paramètres 0 < α, γ, δ < 1.
Les formules de mise à jour sont :
saisonnalité Ŝ T = (1 − δ)[ X T − B
b(T )] + δSbT − p
avec 0 < α < 1, 0 < γ < 1 et 0 < δ < 1. Les prévisions à l’horizon h sont données par :
TX
−1 h i2
Le choix des trois paramètres α, γ, δ se fait en général en minimisant b t ( h) .
X t+1 − X
t=1
3 Analyse combinatoire
L’analyse combinatoire est un important outil dans de nombreuses branches des mathé-
matiques, notamment dans la théorie des probabilités et en statistique.
3.2 Arrangements
Définition 3.2.1. Un arrangement de p éléments choisis parmi n éléments est une disposition
ordonnée de p de ces n éléments.
Exemple 3.2.1. Le nombre d’arrangements sans répétitions que l’on peut faire avec deux
éléments choisis parmi trois éléments a, b, c est A 23 = 6. Ces 6 arrangements sont : (a,b),
(b,a), (a,c), (c,a), (b,c), et (c,b).
34
3.3. COMBINAISONS 35
Exemple 3.2.2. Le nombre de permutations de 3 éléments a, b, c est P3 = 3! = 6. Ces 6
permutations sont : (a,b,c), (a,c,b), (b,a,c), (b,c,a), (c,a,b), et (c,b,a).
Exemple 3.2.3. Tirage sans remise : Une urne U contient n boules numérotés de 1 à n. On
tire successivement p boules de U sans les remettre dans l’urne. Il y a A np tirages différents
possibles.
Exemple 3.2.4. Le nombre d’arrangements avec répétitions que l’on peut faire avec deux
éléments choisis parmi trois éléments a, b, c est 32 = 9. Ces 9 arrangements sont : (a, a),
(a, b), ( b, a), (a, c), ( c, a), ( b, b), ( b, c), ( c, b) et ( c, c).
Exemple 3.2.5. Tirage avec remise : Une urne U contient n boules numérotés de 1 à n. On
tire successivement p boules de U en remettant chaque fois dans l’urne la boule qu’on vient
de tirer. Le nombre de tirages possibles est donc n p .
3.3 Combinaisons
Définition 3.3.1. Une combinaison de p éléments choisis parmi n éléments est une disposition
non ordonnée de p de ces n éléments.
Exemple 3.3.1. Le nombre de combinaisons sans répétitions que l’on peut faire avec deux
éléments choisis parmi trois éléments a, b, c est C32 = 3. Ces 3 combinaisons sans répétitions
sont : (a, b), (a, c), et ( b, c).
Exemple 3.3.3. Le nombre de combinaisons avec répétitions que l’on peut faire avec deux
éléments choisis parmi trois éléments a, b, c est K 32 = C42 = 6. Ces 6 combinaisons sont :
(a, a), (a, b), (a, c), ( b, b), ( b, c) et ( c, c)
Exemple 3.3.4. Soit E = {R, V , B}. Alors (B, B, R, V , V ) est une combinaison avec répétition
de 5 éléments de E.
Exemple 3.3.5. On veut ranger 3 pantalons dans 2 tiroirs. Quel est le nombre de possibilités ?
Exemple 3.3.6. On souhaite répartir p chiffons dans n tiroirs. On note les tiroirs t1 , . . . , t n .
A une répartition, on associe le mot t1 , . . . , t1 , t2 , . . . , t2 , . . . , t n , . . . , t n , où chaque t i est répété
autant de fois que le nombre de chiffons rangés dans le tiroir. On obtient une combinaison
avec répétitions.
Chapitre
4 Espace probabilisé
L’objet des probabilités est de modéliser des phénomènes aléatoires et de prédire avec
certitude leur évolution ou les conséquences qu’ils peuvent engendrer.
Définition 4.1.2. L’univers des possibles (ou univers), noté Ω est défini par l’ensemble de
tous les résultats possibles qui peuvent être obtenus au cours d’une expérience aléatoire.
Exemple 4.1.1. Voici quelques expériences aléatoires et les univers des possibles correspon-
dants :
1. On lance une pièce. On a Ω = {pile, face}.
2. On jette un dé. On a Ω = {1, 2, 3, 4, 5, 6}.
3. On jette deux dés. On a
4. Un bus est censé passer toutes les 30 minutes à l’école de police pour se rendre à Faya.
Un passager arrive à l’arrêt de bus. On cherche à modéliser son temps d’attente. A
priori, on peut supposer que ce temps d’attente est dans l’intervalle Ω = [0, 30].
37
38 CHAPITRE 4. ESPACE PROBABILISÉ
Définition 4.2.2. Un événement constitué d’un seul élément est un événement élémentaire
(ou singleton).
Exemple 4.2.1. On considère une expérience aléatoire correspondant au lancer d’un dé à 6
faces. L’univers est alors Ω = {1, 2, 3, 4, 5, 6}. L’événement ” nombre pair ”, noté A, correspond
au sous-ensemble de l’ univers Ω défini par A = {2, 4, 6}.
Définition 4.2.7. Deux événements A et B sont disjoints s’ils n’ont pas d’élément en com-
mun, c’est à dire, A ∩ B = ; . Ces deux événements sont donc incompatibles : la réalisation
simultanée de ces événements est impossible.
Définition 4.2.9. Soit A ⊂ P (Ω). On dit que A est une tribu sur Ω si les trois conditions
suivantes sont vérifiées :
• Ω∈A
• si A ∈ A alors Ā ∈ A (stabilité par passage au complémentaire)
• si ( A i ) i∈ I est une famille dénombrable d’éléments de A alors A i ∈ A . (stabilité par
[
i∈ I
réunion dénombrable)
Remarque 4.2.1. La tribu A sur Ω représente l’ensemble de tous les évènements suceptibles
de se produire au cours de l’expérience aléatoire E . Lorsque l’ensemble Ω est fini ou dénom-
brable, on choisira pour A l’ensemble de toutes les parties de Ω, c’est-à-dire, A = P (Ω).
Le couple (Ω, A ) est appelé espace probabilisable. Pour compléter la description d’un
phénomène aléatoire, il nous reste à introduire la notion de mesure de probabilité.
4.3 Probabilité
Pour une expérience aléatoire donnée, une fois déterminé le couple (Ω, A ) qui représente
l’univers Ω associé à cette expérience et la tribu des évènements A , on définit une application
de A à valeurs dans [0, 1] qui à chaque évènement associe sa probabilité, c’est à dire la chance
de réalisation de cet évènement.
4.4. CONDITIONNEMENT ET INDÉPENDANCE 39
Définition 4.3.1. On appelle probabilité sur (Ω, A ) une application P : A → [0, 1] telle que :
(i) P(Ω) = 1
(ii) si ( A i ) i∈ I est une famille dénombrable d’éléments de A deux à deux disjoints ou
incompatibles (i.e. ∀ i ̸= j, A i ∩ A j = ;) alors
à !
P P( A i ).
[ X
Ai =
i∈ I i∈ I
La probabilité P est dite discrète dès que l’espace Ω est fini ou infini dénombrable. La tribu
associée est alors généralement P (Ω). Une probabilité sur un ensemble dénombrable est
complètement déterminée par P({ω}) pour tout ω ∈ Ω. En effet, pour tout A ⊂ Ω :
P( A ) = P({ω}).
X
ω∈ A
Définition 4.3.2. On suppose que Ω est un ensemble fini. On dit que l’on se trouve dans un
cas d’équiprobabilité si tous les évènements élémentaires ont la même probabilité.
P( A ∩ B )
P( A | B ) = .
P( B )
n
P( A i ) = P( A 0 ) × P( A 1 | A 0 ) × P( A 2 | A 0 ∩ A 1 ) × . . . × P( A n | A 0 ∩ A 1 ∩ . . . ∩ A n−1 ).
\
i =0
P( A 0 ∩ A 1 ) = P( A 0 ) × P( A 1 | A 0 ).
Pour n = 2, on a
P( A 0 ∩ A 1 ∩ A 2 ) = P( A 0 ) × P( A 1 | A 0 ) × P( A 2 | A 0 ∩ A 1 ).
Définition 4.4.2. Une famille finie d’évènements ( A i )1≤ i≤n deux à deux incompatibles tels
n
A i = Ω est appelée système complet d’évènements.
[
que
i =1
Exemple 4.4.2. Une urne contient des boules blanches et nores, marquées ou non. On suppose
que parmi les boules marquées, il y a 30% de boules blanches et parmi les non marquées 60%.
Par ailleurs, on sait que 80% des boules sont marquées. Quelle est la probabilité de tirer une
boule blanche ?
Solution. On note
B =”la boule est blanche”
M =”la boule est marquée”
On a
P(B i )P( A |B i )
P( B i | A ) = n
.
P (B k )P( A |B k )
X
k=1
Exemple 4.4.3. Le quart d’une population est vacciné contre le choléra. Au cours d’une
épidémie, on constate qu’il y a parmi les malades un vacciné pour 4 nonvaccinés, et qu’il
y a un malade sur 12 parmi les vaccinés. Quelle est la probabilité qu’un non-vacciné tombe
malade ?
4.4. CONDITIONNEMENT ET INDÉPENDANCE 41
4.4.2 Indépendance
Définition 4.4.3. Soient A et B deux évènements. On dit que A et B sont indépendants si
P( A ∩ B) = P( A )P(B).
Si A est tel que P( A ) > 0, l’indépendance de A et B s’écrit encore P(B| A ) = P(B) et on retrouve
la notion intuitive d’indépendance : le fait que A se soit réalisé ne change rien quant à la
probabilité que B se réalise.
Le fait que les événements A 1 , . . . , A n sont indépendants deux à deux indépendants entraı̂ne
qu’ils sont indépendants deux à deux. La ré ciproque est fausse.
Exercice 4.4.1. On lance une pièce deux fois de suite. Soit A l’événement ”obtenir face au
premier jet”, B l’événement ”obtenir face au deuxième jet” et C l’ evénement ”obtenir deux
résultats différents. Momtrer que les évènements A, B, C sont deux à deux indépendants,
mais la famille { A, B, C } n’est pas indépendamte.
Chapitre
5.1 Généralités
Soit (Ω, A , P) un espace probabilisé. La variable aléatoire X traduit une situation liée à
l’expérience aléatoire modélisée par l’espace probabilisé (Ω, A , P).
Définition 5.1.1. Une variable aléatoire X réelle est une application définie sur Ω à valeurs
dans R telle que pour tout x ∈ R,
n o
X −1 (] − ∞, x]) = ω ∈ Ω : X (ω) ≤ x ∈ A .
Étant donnés un espace probabilisé (Ω, A , P) et une variable aléatoire réelle X , on peut
construire de façon naturelle une probabilité sur X (Ω), l’ensemble des valeurs prises par la
fonction X . Cette probabilité est appelée loi de la variable aléatoire X et est notée P X .
La loi de probabilité d’une variable aléatoire réelle discrète X est déterminée par :
1. X (Ω)
2. P X ({ x}) = P( X = x), pour tout x ∈ X (Ω)
La probabilité d’un évènement A est donnée par
P X ( A ) = P( X ∈ A ) = P( X = x ) .
X
x∈ A
42
5.3. FONCTION DE RÉPARTITION 43
F ( x ) = P( X ≤ x ) .
Proposition 5.3.1. On a :
P( X = x ) = F ( x + ) − F ( x − ) = F ( x ) − F ( x − )
où
F ( x+ ) = lim F ( t).
t→ x,t> x
F ( x− ) = lim F ( t).
t→ x,t< x
P( X = t) ∀ x ∈ R..
X
F ( x) =
t≤ x
Exemple 5.3.1. On lance deux dés non pipés. L’univers associé à cette expérience est
Ω = {( i, j ) : 1 ≤ i, j ≤ 6}.
1
P({ω}) = .
36
x 2 3 4 5 6 7 8 9 10 11 12
px 1/36 2/36 3/36 4/36 5/36 6/36 5/36 4/36 3/36 2/36 1/36
44 CHAPITRE 5. VARIABLES ALÉATOIRES DISCRÈTES
1.0
0.8
0.6
0.4
0.2
0.0
0 1 2 3 4 5 6 7
P(X = t)
X
F(x) =
t≤ x
0 si x<2
1/36 si 2 ≤ x < 3
3/36 si 3 ≤ x < 4
6/36
si 4 ≤ x < 5
10/36 si 5 ≤ x < 6
15/36 si 6 ≤ x < 7
=
21/36 si 7 ≤ x < 8
26/36 si 8 ≤ x < 9
30/36 si 9 ≤ x < 10
33/36 si 10 ≤ x < 11
35/36 si 11 ≤ x < 12
1 si x ≥ 12
5.4.1 Espérance
Soit X et Y deux variables aléatoires réelle discrètes.
5.5. VARIANCE, ÉCART-TYPE 45
Définition 5.4.1. On appelle espérance de X , le nombre réel
E[ X ] = xP( X = x).
X
x ∈ X (Ω )
E( g( X )) = g( x)P( X = x).
X
x ∈ X (Ω )
E[ cX + Y ] = cE[ X ] + E[Y ].
E[ X ] ≤ E[Y ].
Proposition 5.4.3. Soit X une variable aléatoire discrète positive. Alors, pour tout ε > 0,
nous avons
E( X )
P( X > ε) ≤ .
ε
L’espérance de X est la moyenne pondérée des valeurs que X peut prendre, les poids étant
les probabilités que ces valeurs soient prises. C’est un indicateur de localisation. Néanmoins,
la connaissance de l’espérance seule donne peu de renseignements sur X . Ainsi, elle s’accom-
pagne de la variance qui caractérise la dispersion de X autour de sa moyenne E( X ).
Définition 5.5.2. Soit X une variable aléatoire qui admet des moments d’ordre deux i.e.
E[ X 2 ] < +∞. On appelle variance de X la quantité
var ( X )
P (| X − E[ X ]| > ε) ≤ .
ε2
46 CHAPITRE 5. VARIABLES ALÉATOIRES DISCRÈTES
Proposition 5.6.1. Soient X et Y deux variable aléatoires discrètes admettant des moments
d’ordre 1. Alors la variable aléatoire X Y admet un moment d’ordre 1. De plus, si X et Y
sont indépendantes alors
E( X Y ) = E( X )E(Y ).
Définition 5.6.2. Soient X et Y deux variable aléatoires discrètes admettant des moments
d’ordre 1. On appelle covariance entre X et X , la quqntité
Cov( X , Y ) = E( X Y ) − E( X )E(Y ).
V ar ( X + Y ) = V ar ( X ) + V ar (Y ).
Y = aX + b a, b ∈ R.
N +1
E( X ) =
2
et
N2 − 1
var ( X ) = .
12
Exemple 6.1.1. Soit X le résultat d’un lancer de dé non truqué : alors ∀ i ∈ X (Ω) = {1, 2, 3, 4, 5, 6},
P ( X = i ) = 16 ; X suit la loi uniforme U 6 .
E( X ) = p
Cette variable modélise l’issue d’une expérience où l’on ne s’intéresse qu’au ”succès” ou à
l’”echec” de l’expérience.
Exemple 6.2.1. Lancer d’une pièce de monnaie (pile ou face), qualité d’un produit (bon ou
defectueux), sondage elctoral (pour ou contre).
47
48 CHAPITRE 6. QUELQUES LOIS DE PROBABILITÉS DISCRÈTES
suit la loi binomiale B (n, p).
(
X (Ω) = {0, . . . , n}
X ,→ B ( n, p) ⇐⇒
P ( X = k) = C nk p k (1 − p)n−k , ∀ k ∈ X (Ω)
E ( X ) = np
Cette loi modélise une succession de ”succès” et d’”échecs”, p étant la probabilité du succès.
E ( X ) = np.
1
E( X ) =
p
1− p
var ( X ) = .
p2
Exemple 6.5.1. On effectue des lancers indépendants d’une pièce, dont la probabilité d’obtenir
face est p, jusqu’à l’obtention d’un ”face”. On note X la v.a.r égale au nombre de lancers
nécessaires. On dit également que X est le temps d’attente du premier ”face”.
6.6. LOI DE POISSON 49
E ( X ) = var ( X ) = λ.