Introduction aux Chaînes de Markov
Introduction aux Chaînes de Markov
Chaînes de Markov
LAKHEL El Hassan
Chaîne de Markov
Les chaînes de Markov constituent l’exemple le plus simple des processus stochastiques, lorsque
dans une suite de v. a., on abandonne l’hypothèse d’indépendance. Il s’agit d’un processus à
temps discret ; d’où le nom de chaîne . Soit E un espace fini ou dénombrable dans lequel les v.
a. vont prendre leurs valeurs ; l’espace E s’appelle l’espace d’états.
La définition suivante exprime qu’une chaîne de Markov est un processus stochastique sans
mémoire.
Définition
Une suite (Xn )n∈N de variables aléatoires à valeurs dans E est une chaîne de Markov sur E si,
pour tout entier strictement positif n et pour toute suite x0 , x1 , ..., xn d’éléments de E pour
laquelle P(Xn = xn , Xn−1 = xn−1 , ..., X1 = x1 , X0 = x0 ) ̸= 0, nous avons :
Remarque
Cette propriété s’appelle propriété de Markov. Elle traduit le fait que le futur ne dépend du passé
que de l’information la plus récente que l’on possède au sujet du processus.
Définition
Une chaîne de Markov X = (Xk )k∈N est dite homogène (dans le temps) si la probabilité
suivante ne dépend pas de n
Remarque
- Une chaîne est homogène si les changements d’états ne dépend que de l’état, et pas de la
date.
Ainsi, la probabilité de passer de l’état i à l’état j entre les instants t = 0 et t = 1, ou
encore entre t = 100 et t = 101 est la même : elle vaut
Définition
On appelle matrice de transition d’une chaîne de Markov homogène la matrice
G = (Gij )i,j∈E d’éléments
Proposition
La matrice G est une matrice stochastique, c’est-à-dire une matrice dont les éléments vérifient
les deux propriétés :
1. Gij ≥ 0 ∀(i, j) ∈ E 2 ;
P
2. ∀i ∈ E j∈E
Gij = 1.
Exercice
Démontrer cette proposition.
Preuve.
Le premier point découle trivialement du fait que les Gij sont des probabilités et le second de
l’égalité : X
Gij = P(Xn+1 ∈ E /Xn = i) = 1
j∈E
Exercice
Modéliser cette situation à l’aide d’une chaîne de Markov.
Exemple 1 (solution)
On peut modèliser la situation précédente avec une chaîne de Markov à valeurs dans
E = {0, 1},
avec matrice de transition
1−p p
G= .
q 1−q
On modifie l’exemple précédent en supposant qu’on peut mettre un appel en attente. Les appels
arrivent et la ligne se libère comme avant. Si un appel arrive pendant que la ligne est occupée et
si le système n’est pas saturé, l’appel est mis en attente. Si un appel arrive alors qu’il y a déjà
un en attente, il est perdu.
Exercice
Modéliser la nouvelle situation à l’aide d’une chaîne de Markov.
Exemple 2 (solution)
Cette fois l’espace E = {0, 1, 2}. On a
De même
G20 = 0, G21 = q, G22 = 1 − q.
Proposition
Soit X = (Xk )k∈N une chaîne de Markov de matrice de transition G. Pour n ∈ N, on note
G n = G × G × ... × G .
| {z }
n fois
La probabilité de transition en n étapes de l’état i à l’état j est donnée par :
(n)
P(Xn = j|X0 = i) = Gij .
(n)
où Gij désigne l’élément d’indices (i, j) de la matrice G n .
Autrement dit, la matrice de transition en n étapes est égale à la puissance nieme de la matrice
de transition en une étape.
Remarque
Par commodité, on a noté
(n)
Gij = (G n )ij .
Exercice
Démontrer la proposition. (Ind. Raisonner par récurrence).
Preuve.
La formule est triviale pour n = 0 puisque G 0 = I. Elle est également vraie pour n = 1.
Supposons maintenant qu’elle soit vraie jusqu’au rang n. L’homogénéité de la chaîne nous
permet alors d’écrire, pour tout (i, j) ∈ E 2 :
(n+1) P
Gij = P(Xn+1 = j/X0 = i) = k∈E
P(Xn+1 = j, Xn = k/X0 = i)
P P (n)
= k∈E
P(Xn+1 = j/Xn = k)P(Xn = k/X0 = i) = k∈E
Gkj Gik .
Nous allons montrer que la connaissance des probabilités de transition du système , pour des
durées n et m, permet de calculer les probabilités de transition sur une durée m + n :
Equation de Chapman-Kolmogorov
Proposition
Soit (Xk )k∈N une chaîne de Markov d’espace détats E . ∀i, j ∈ E , ∀n, m ∈ N, on a
X
P(Xn+m = j|X0 = i) = P(Xm = j|X0 = k) × P(Xn = k|X0 = i).
k∈E
Exercice
Démontrer cette proposition.
Preuve.
Cela découle directement des propriétés du produit matriciel.
Proposition
Pour tout entier n positif, la matrice de transition en n étapes G (n) est également une matrice
stochastique.
Exercice
Démontrer la proposition.
Preuve. Soit n ∈ N. Les éléments de la matrice G (n) sont positifs puisqu’il s’agit de probabilités
et on a de plus :
X (n)
X
Gij = P(Xn = j/X0 = i) = P(Xn ∈ E /X0 = i) = 1.
j∈E j∈E
Exercice
Soit X = (Xk )k∈N une chaîne de Markov de matrice de transition G. Soit n ≥ 0 , r ≥ 1 deux
entiers. Montrer que
Le graphe de transition
Définition
Lorsque le nombre d’états n’est pas trop grand, il est possible de représenter l’évolution de la
chaîne de markov à l’aide du graphe de transition : Les états forment les sommets tandis
qu’une flèche qui joint l’état i à l’état j si pij > 0.
Remarque
Utilité d’un graphe :
(i) On voit directement si le système peut passer d’un état à un autre (dans un temps fini).
(ii) On étudie plus facilement les propriétés des états du système.
(iii) On classifie plus facilement les états du système.
Exercice
1. Faire le graphe associé à la chaîne de Markov d’espace d’états E = {0, 1, 2} et dont la
matrice de transition en une étape est :
1 1 1
!
2 4 4
1 1
P= 2
0 2
1 1
0 2 2
Exercices
où 0 < p < 1.
2 Donner la matrice de transition et dessiner le graphe de cette chaîne de Markov.
Définition. Si p = 1 − p = 12 , (Xn )n≥0 s’appelle la marche aléatoire simple sur Z.
Solution de l’exercice
1 La chaîne (Xn )n≥0 est à valeurs dans E = Z . Pour tout x0 , ..., xn+1 ∈ Z , on a :
Ainsi (Xn )n≥0 est une chaîne de Markov. De plus, on a montré que pour tout (x , y ) ∈ Z 2
la suite (Yn )n≥0 étant identiquement distribuée. Cette quantité ne dépend pas de n et la chaîne
est donc homogène.
LAKHEL El Hassan Chaînes de Markov Université Cadi Ayyad 19 / 49
Graphe associé à une chaîne de Markov homogène
2. La matrice de transition G = Gij est de taille infinie. Les lignes et les colonnes sont
indexées par Z et on a
Ainsi, pour tout i ∈ Z , la i-ième ligne a pour seuls coefficients non nuls :
G(i, i − 1) = 1 − p et G(i, i + 1) = p.
Dans ce paragraphe, nous donnons une caractérisation d’une chaîne de Markov et étudions sont
évolution dans le temps.
On introduit la fonction de masse de la v. a. discrète X0 ,
PX0 : E −→ [0, 1]
(0)
k −→ πk = P(X0 = k).
(0)
On définit le vecteur ligne π (0) = (πk )k∈E .
Proposition
Soit X = (Xn )n∈N une chaîne de Markov homogène de matrice de transition G. Posons, pour
tout entier n ∈ N, et k ∈ E ,
(n)
πk = P(Xn = k).
(n)
Alors, le vecteur π (n) = (πk )k∈E est obtenu en effectuant le produit du vecteur ligne π (0) par la
matrice G n .
Autrement dit :
Exercice
Démontrer cette proposition.
Remarque
(n)
- π (n) = (πk )k∈E = (P(Xn = k))k∈E : le vecteur des probabilités des états du système à
l’instant n est appelé régime du système à l’instant n. C’est un vecteur stochastique.
- L’équation (∗) signifie que la situation du système càd les probabilités des états est
entierement déterminée par π (0) et G.
Cette dernière égalité représente le produit du vecteur π (0) par la iieme colonne de G n .
Exercice
Montrer que
π (n) = π (n−1) G.
Exercice
Montrer que
π (n) = π (n−1) G.
On a
(n)
πk P n = k, ∪j∈E Xn−1 = j)
= P(X
= j∈E
P(Xn = k, Xn−1 = j)
Gjk πjn−1 .
P P
= j∈E
P(Xn = k/Xn−1 = j)P(Xn−1 = j) = j∈E
Donc
π (n) = π (n−1) G.
Proposition
Soit X = (Xn )n∈N une chaîne de Markov homogène sur un espace d’états E , de matrice de
transition G et de loi initiale π (0) . Pour tout entier n et tout (n + 1)−uplet (x0 , ..., xn ) ∈ E n+1 ,
on a
(0)
P(X0 = x0 , ..., Xn = xn ) = πx0 Gx0 ,x1 Gx1 ,x2 ...Gxn−1 ,xn
Remarque
La matrice de transition en une étape et le vecteur π (0) déterminent la loi de la chaîne de
Markov homogène.
Exercice
Démontrer cette proposition.
(0)
P(X0 = x0 ) = πx0 .
= P(Xn+1 = xn+1 /Xn = xn , Xn−1 = xn−1 , ..., X0 = x0 ).P(Xn = xn , Xn−1 = xn−1 , ..., X0 = x0 )
(0)
= Gxn ,xn+1 πx0 Gx0 ,x1 Gx1 ,x2 ...Gxn−1 ,xn (d’après l’ H. R.)
Exercice
Soit (Xn )n∈N une chaîne de markov homogène sur l’ensemble {1, 2}, de distribution initiale
µ0 = ( 51 , 45 ) et de matrice de transition
2 1
P= 3 3
1 5
6 6
Solution :
5 4
On a P(X0 = 2, X1 = 2) = P(X1 = 2/X0 = 2).P(X0 = 2) = 6
× 5
= 23 .
On a le régime du système à l’instant 1 est donné par
Donc
1 20 22
P(X1 = 2) = + = .
15 30 30
2
3 10
P(X0 = 2|X1 = 2) = 22 = 11
.
30
Les états d’une chaîne de Markov se répartissent en classe que l’on définit à l’aide de sa matrice
de transition.
Définition
On dit que l’état j est accessible à partir de l’état i et on note i −→ j, si la probabilité de passer
de i à j est non nulle :
(n)
∃n ∈ N, Gij > 0.
Remarque
(0)
étant donné que l’on inclut n = 0 dans la définition et que Gii = 1 > 0. Tout état est
accessible à partir de lui-même.
Définition
On dit que les états i et j communiquent et on note i ←→ j, si chacun d’eux est accessible à
partir de l’autre.
Proposition
La relation de communication entre deux états est une relation d’équivalence.
Définition
On dit que les états i et j communiquent et on note i ←→ j, si chacun d’eux est accessible à
partir de l’autre.
Proposition
La relation de communication entre deux états est une relation d’équivalence.
Preuve. (réflexive) tout état communique avec lui même, (symétrique) par définition et
(transitive) d’après les équations de Chapman-Kolmogorov :
(m+n) (m) (n)
Gik ≥ Gij Gjk > 0, pour tous les m, n ≥ 0.
Remarque
1 On a vu que tout état d’une chaîne de Markov communique avec lui même, puisque l’on a
(0) (n)
Gii = 1. En revanche, s’il existe n > 0, tel Gii > 0, alors l’état i est dit état de retour et
état de non retour dans le cas contraire.
2 Si i ←→ j, on dit que les états i et j sont dans la même classe.
Définition
1 Un état j ∈ E tel que, lorsque la chaîne est issue de ce point, elle y retourne en un temps
fini avec une probabilité strictement positive, s’appelle un état récurrent (sinon l’état est
dit transitoire).
2 Une classe d’équivalence est dite récurrente, resp. transiente, si un de ses sommets est
récurrent, resp. transient.
3 Une classe est dite récurrente si elle est impossible de la quetter. Si une classe récurrente
est constituée d’un seul état, cet état est dit absorbant.
4 Une classe est dite transitoire s’il est possible d’en sortir.
5 L’espace des états SXn d’une chaîne de Markov se décompose comme suit :
SXn = D ∪ C1 ∪ C2 ∪ C3 ...
Considérons la chaîne de Markov dont l’ensemble des états est E = {0, 1, 2, 3}, la matrice de
transition : 1 1
2 2
0 0
1 12 0 0
G = 21 1 1 1
4 4 4 4
0 0 0 1
Considérons la chaîne de Markov dont l’ensemble des états est E = {0, 1, 2, 3}, la matrice de
transition : 1 1
2 2
0 0
1 12 0 0
G = 21 1 1 1
4 4 4 4
0 0 0 1
La chaîne comporte trois classe {0, 1}, {2} et {3}. Les états {0, 1} et {3} sont récurrentes, la
classe {2} est transitoire. La classe {3} est absorbante.
Définition
Une chaîne de Markov pour laquelle il n’existe qu’une seule classe (forcément récurrente) est
dite irréductible.
Exemples
Considérons la chaîe de Markov dont l’ensemble des états est E = {0, 1, 2}, la matrice de
transition :
1 1
!
2 2
0
1 1 1
G= 2 4 4
0 13 2
3
La chaîne comporte une seule classe ; tous les états communiquent : c’est une chaîne irréductible.
Exercice
L’observation du développement d’un organisme animal au cours du temps fait apparaitre
l’ensemble des états suivants : juvenile, maturité, sénescence et décès, que nous noterons
respectivement j, m, s et d, avec des probabilités de passage d’un état vers un autre données par
la matrice suivante :
0.2 0.2 0 0.6
0 0.55 0.15 0.3
T =
0 0 0.1 0.9
0 0 0 1
Exercice
Déterminer quelles sont les chaînes irréductibles parmi les exemples précédents : Chaîne à deux
états et file d’attete simple.
Solution :
1 Un examen du schéma en points et flèches montre que la chaîne n’est pas irréductible : en
effet, on ne peux pas passer de l’état de maturité à l’état juvenile. De plus l’état décès est
absorbant.
2 Sur le schéma en points et flèches, on voit facilement que, partant de l’état m, on atteint
l’état s en deux étapes de deux façons exactement : soit on reste en m pendant la première
étape puis on va en s durant la seconde, soit on y va durant la première et on reste en s
durant la seconde. Il n’y a pas d’autres possibilités. Cela conduit au calcul suivant :
Périodicité
Définition
Soit i ∈ E , on appelle d période de l’état i le plus grand commun diviseur de tous les n ∈ N∗
(n)
pour les quels Gii > 0. i.e.
(n)
d = pgcd{n ∈ N∗ t.q. Gii > 0}.
Si d = 1 on dira que l’état i est apériodique. La chaîne est dite est apériodique si tous ses états
sont apériodiques.
Remarque
n désigne le nombre d’étapes pour le retour à l’état i.
Une C.S. d’apériodicité est que le graphe possède une boucle dans un sommet i : alors
(1)
Gii = Gii > 0 et pgcd{1, ...} = 1. Ainsi, une chaîne irréductible est apériodique s’il y a
au moins un élément positif sur la diagonale de la matrice de transition G.
La chaîne donnée par l’exemple de la page 31 est apériodique :
(1) 1
G11 = >0 =⇒ pgcd{1, ...} = 1.
4
Exemples
Soit
1 1
!
0 2 2
1 1
G= 2
0 2
1 1
2 2
0
Exemples
Soit
1 1
!
0 2 2
1 1
G= 2
0 2
1 1
2 2
0
1 1
G01 × G12 × G20 = > 0. et G01 × G10 = > 0.
8 4
Et
(2) (3)
G00 > 0 et G00 > 0.
Donc
pgcd{2, 3, ..} = 1.
Dans ce paragraphe, on se limite aux chaînes finies c’est-à-dire ayant un nombre fini N d’états. Nous avons vu que
π (n) = π (0) G n où π (n) est la distribution de probabilité à l’instant n.
Question
A quelle conditions sur la matrice G, cette distribution π (n) a-t-elle une limite π lorsque n tend vers l’infini ?
Ceci conduit à :
Définition
On appelle loi invariante ou loi stationnaire de la chaîne de Markov homogène X toute loi π qui vérifie
π = πG.
Remarque
Pour justifier la terminologie, on voit que si π est une probabilité invariante et si l’état initial de la chaîne X0 suit la loi
π, alors Xn suit également la loi π pour tout n (puisque la loi de Xn est π (n) = πG n = π).
Ceci signifie que la loi de la v. a. r. Xn pour tout n est la fonction de masse π.
Les probabilités invariantes représentent les états d’équilibre du système.
le vecteur colonne π est un vecteur propre de G t pour la valeur propre 1.
• Le calcul des probabilités stationnaires se réduit à la résolution d’un système linéaire. Il est
souvent très grand .
P
i∈E
πi = 1
π = πG avec
πi ≥ 0 ∀i ∈ E ,
Remarque
Il est important dans un premier temps de souligner que si la chaîne de Markov n’est pas
irréductible, il peut y avoir plusieurs lois stationnaires. Par exemple
1 0
G=
0 1
La chaîne de Markov possède 2 classes {0} et {1}. Le système à résoudre pour obtenir Les πj est
π = πG et π1 + π2 = 1
On trouve
• Le calcul des probabilités stationnaires se réduit à la résolution d’un système linéaire. Il est
souvent très grand .
P
i∈E
πi = 1
π = πG avec
πi ≥ 0 ∀i ∈ E ,
Remarque
Il est important dans un premier temps de souligner que si la chaîne de Markov n’est pas
irréductible, il peut y avoir plusieurs lois stationnaires. Par exemple
1 0
G=
0 1
La chaîne de Markov possède 2 classes {0} et {1}. Le système à résoudre pour obtenir Les πj est
π = πG et π1 + π2 = 1
On trouve
π = (1 − λ, λ)
pour tout λ ∈ [0, 1].
Question
A quelles conditions sur G la loi invariante est unique, i.e. l’équation
π = πG
La réponse à cette question peut-être abordée par la structure spectrale (valeurs propres et
vecteurs propres) spéciale de la matrice de transition G.
Ergodicité
Définition
Lorsque la chaîne est irréductible et apériodique on dit que la chaîne est ergodique.
Remarque
L’ergodicité caractérise les systèmes qui possèdent un régime stationnaire indépendamment du
régime initial π (0) .
∃!π t.q. π = lim π n ∀π (0) .
n−→∞
Théorème
Soit (Xn )n∈N est une chaîne homogène ergodique de matrice de transition G, alors
1. Il existe une unique loi invariante π ; i.e. π = πG.
2. ∀(i, k) ∈ E 2 limn−→+∞ (G n )ik = πk ,
3. Quelle que soit la loi de X0 , la suite de v. a. r. (Xn )n∈N converge en loi vers la loi de
probabilité invariante π :
lim π (n) = π
n∞
P(Xn = k) = πk ∀k ∈ E .
Remarque
1. Ce résultat exprime qu’au bout d’un certain temps, le système se stabilise dans un régime
d’équilibre appelé " régime stationnaire" et que la probabilité d’être dans l’état k en
régime stationnaire est donnée par πk ,
2. Le point 2) implique que la matrice G ∗ = limn−→∞ G n a toutes ses lignes identiques et
égales au vecteur π.
on a
N−1
1 X X
f (Xn )) →p.s.
N→∞
= Eπ (f ) = f (e)π(e).
N
n=0 e∈E
Interprétation : La moyenne empirique des valeurs de f (Xk ) le long d’une trajectoire de la chaîne
converge presque sûrement vers l’espérance de f sous la distribution stationnaire π.
E = {ensoleillé, pluvieux}.
n
π(ensoleillé) 0.8π(ensoleillé) + 0.4π(pluvieux) = π(ensoleillé),
π= ,
π(pluvieux) 0.2π(ensoleillé) + 0.6π(pluvieux) = π(pluvieux).
2. Résolution :
2 1
π(ensoleillé) = , π(pluvieux) = .
3 3
3. Moyenne temporelle : On prend f = Iensoleillé , ce qui donne : Si f (ensoleillé) = 1 et f (pluvieux) = 0, alors :
n−1
1 2
X
f (Xk ) → Eπ [f ] = π(ensoleillé) = .
n 3
LAKHEL El Hassan k=0 Chaînes de Markov Université Cadi Ayyad 42 / 49
Applications
Exercice
On modélise le fonctionnement d’une machine. Pour simplifier, on considérera qu’on observe la machine à chaque heure et
qu’elle a trois états possibles : 1 (bon état), 2 (mauvais état) et 3 (en panne). Le passage d’un état donné à l’état une heure
après se fait de la façon suivante :
quand la machine est en bon état, il y a 9 chances sur 10 qu’elle le reste, et 1 chance sur 10 qu’elle devienne en mauvais état ;
quand elle est en mauvais état, il y a 3 chances sur 5 qu’elle le reste, 1 chance sur 5 pour qu’elle tombe en panne, et 1 chance
sur 5 pour qu’un technicien s’en aperçoive et la répare. La réparation remet la machine en bon état.
quand la machine tombe en panne, un technicien vient immédiatement la réparer. Une heure après, elle redémarre en bon état.
On note Xn l’état de la machine au bout de n heures.
1 Dessiner le graphe de la chaîne de Markov représentant les états de la machine, et écrire sa matrice de transition.
2 Ce matin, la machine a démarré en bon état. Quelle est la probabilité que trois heures après elle soit en bon état ?
3 La chaîne est-elle irréductible ? Est-elle apériodique ?
4 A-t-elle une probabilité invariante ? Si oui, laquelle ?
5 Quelle est la probabilité qu’à un moment quelconque, longtemps après la mise en service de la machine, elle soit en bon
état ?
6 En moyenne sur une longue période, quelle proportion du temps est perdue pour cause de panne ?
Indication :
E = {1 Bon, 2 mauvais, 3 panne}
Ce matin, la machine a démarré en bon état signifie que la loi de X0 est µ0 = (1, 0, 0).
Solution
1 (Xn ) est une chaîne de Markov homogène de graphe et de matrice
9 1
10 10
0
G = 2 6 2
10 10 10
1 0 0
µ0 = (1, 0, 0).
La probabiliteé que trois heures après la machine soit en bon eétat est P(X3 = 1) = 1000 797 .
3 La chaîne est irréductible (tout état est accessible à partir des autres) donc tous les états ont la même période, qui vaut
1 car G11 > 0 par exemple. La chaîne est donc apériodique.
Solution (suite)
La chaîne est ergodique sur un espace d’état fini, il existe une loi invariante uniqie π, elle doit satisfaire les conditions
π = πG π 1 + π2 + π3 = 1 et πi ≥ 0 i = 1, 2, 3.
1 .
En moyenne sur une longue période, la proportion du temps perdue pour cause de panne est de 26
Exercice
(Chaîne à deux états)
Considérons l’état d’une ligne de téléphone Xn = 0 si la ligne est libre à l’instant n, et Xn = 1 si la ligne est occupée. Supposons
que sur chaque intervalle de temps, il y a une probabilité p qu’un appel arrive (un appel au plus). Si la ligne est déjà occupée,
l’appel est perdu. Supposons également que si la ligne est occupée au temps n, il y a une probabilité q qu’elle se libère au temps
n + 1.
On peut modèliser une chaîne de Markov à valeurs dans
E = {0, 1},
1−p p
G = (Gij )0≤i,j≤1 = , 0 < p, q < 1.
q 1−q
Solution :
1 Les états 0 et 1 communiquent, la chaîne est irréductible, de plus elle
(1)
est apériodique i.e. d = 1 puisque G00 > 0 . Donc la chaîne est
ergodique.
2 L’équation πG = π s’écrit sous la forme d’un système :
(
(1 − p)π0 + qπ1 = π0
pπ0 + (1 − q)π1 = π1
Exercice
Montrer que la matrice stochastique :
0.2 0.2 0.3 0.3
0 0.1 0.8 0.1
G =
0.1 0 0.2 0.7
0.6 0.2 0.1 0.1
Solution :
Rappelons que pour une chaîne de Markov ergodique on a la matrice
G ∗ = limn→∞ G n
est une matrice dont toutes les lignes sont identiques, chacune étant égale
au vecteur ligne π.
La chaîne est ergodique : d’abord elle est irréductible, de plus elle est
(1)
apériodique i.e. d = 1 puisque G00 > 0 .
Il suffit de calculer π = (π0 , π1 , π2 , π3 ) solution du système :
(
πG = π
π0 + π1 + π2 + π3 = 1.
On trouve
457 220 458 533
π0 = , π1 = , π2 = , π3 = .
1668 1668 1668 1668