Théorie de l'information et entropie
Théorie de l'information et entropie
& %
' $
& %
1
' $
Lemme 1. La fonction f (p) = − log b p est la seule qui soit à la fois positive,
continue sur ]0, 1], et qui vérifie f (p1 · p2) = f (p1) + f (p2).
& %
3
' $
h(A)
PSfrag replacements
P (A)
0
0 1/b 0.5 1
& %
4
' $
Exemple 1. Dans le cas d’une source binaire {0, 1} telle que P (0) = P (1) = 0.5,
l’information propre associée à chaque symbole binaire, ou bit au sens informatique
du terme, vaut h 12 = log 2, soit 1 bit ou Shannon.
& %
5
' $
& %
6
' $
& %
7
' $
& %
8
' $
entropie H2 (Sh/symb) 1
PSfrag replacements
0.5
0
0 0.5 1
probabilité p
& %
9
' $
& %
10
' $
y
y =x−1
2
1
y = ln x
0
0.5 1 1.5 2 2.5
x
−1
−2
−3
−4
& %
11
' $
Hn (p1 , . . . , pn ) ≤ log n,
1
l’égalité étant réalisée dans le cas d’une loi uniforme, c’est-à-dire ∀i : p i = n.
& %
12
' $
Preuve. Soit X une variable aléatoire discrète à valeurs dans {x1 , . . . , xn } avec les
probabilités (p1 , . . . , pn ). On suppose que l’état xk est scindé en deux sous-états xk1
et xk2 , de probabilités respectives pk1 et pk2 non-nulles telles que pk = pk1 + pk2 .
& %
14
' $
PSfrag replacements
f (x)
3 −5
0 1 2
x
& %
15
' $
& %
16
' $
& %
17
' $
& %
18
' $
La première relation énoncée lie ainsi les diverses entropies définies précédemment :
& %
19
' $
Chaque élément de H(X, Y ) = H(X) + H(Y |X) = H(Y ) + H(X|Y ) est positif. On
en déduit immédiatement que :
H(X) ≤ H(X, Y )
H(Y ) ≤ H(X, Y )
& %
20
' $
H(X|Y ) ≤ H(X)
& %
21
' $
& %
22
' $
& %
23
' $
& %
24
$
%
H(Y )
Le diagramme de Venn, ici à 2 variables, constitue un moyen mnémotechnique.
H(Y )
I(X, Y )
Couple de variables aléatoires
H(X|Y )
H(X|Y )
Diagramme de Venn
25
H(Y |X)
H(X, Y )
H(X)
'
&
frag replacements