100% ont trouvé ce document utile (1 vote)
269 vues2 pages

Entropie et Codage Numérique

Transféré par

Duvet francois
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
100% ont trouvé ce document utile (1 vote)
269 vues2 pages

Entropie et Codage Numérique

Transféré par

Duvet francois
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

RÉPUBLIQUE DU CAMEROUN

FACULTÉ DES SCIENCES


REPUBLIC OF CAMEROON
Peace – Work - Fatherland
FACULTY OF SCIENCE
UNIVERSITÉ DE DSCHANG Décanat
UNIVERSITY OF DSCHANG The Deans’ Office
Scholae Thesaurus Dschangensis Ibi Cordum BP 67, Dschang (Cameroun)
BP 96, Dschang (Cameroun) – Tél./Fax (237) 233 45 13 81 Website : Tél./Fax (237) 243 69 15 00
http://www.univ-dschang.org. E-mail : [email protected]
E-mail : [email protected]

Année académique 2018/2019

Examens de fin de premier semestre.

Master Professionnel 1 : Réseaux, Télécommunication et Systèmes (Parcours RMS, TS)

Session : Normale

Matière : Théorie de l’information et codage numérique


SUJET 2
Durée : 02 H (Documents non autorisés)

Exercice 1 : ( 5 pts= 1.5+ 1,5+2)

1) Représenter par un schéma d’ un système de communication avec codeurs de source et


codeur canal
2) Définir codage source , codage canal , entropie
3) Considérons la source d'information dont le graphe est donné ci-dessous.
- Calculer l'entropie de la source H

Exercice 2 : 4 pts ( 2+2)

1- Déterminer si le codage suivant est i) sans pertes, ii) instantané, et iii) uniquement
décodable (avec explications) :

X A B C D

C(x) 000 001 01 1

2- Calculer l’entropie de {A; B; C; D} avec


p(A) = p(B) = 0;125; p(C) = 0;250; et p(D) = 0;500;

1/2
Exercice 3 : ( 8 pts = 2 + 4+2)

Soit X = {A; B; C; D; E; F; G; H} l’espace de probabilité avec les probabilités suivantes :

x A B C D E F G H

P(x) 0,25 0;25 0;20 0;14 0;10 0;04 0;01 0;01

a. Calculer l’entropie H(X).


b. Construire l’arbre de codage associé à un codage de Huffman C pour X, et
donner les codes C(x) pour chaque élément x.
c. Trouver l’espérance mathématique de la fonction longueur de C(x), et vérifier
le théorème Codage source de Shannon.

Exercice4 ( 3 pts) :

Soit une source (S) à 11 symboles (s1 à s11) définie par les probabilités suivantes :

Donner un code binaire pour la source ci-dessus en appliquant la méthode de Fano-


Shannon.

2/2

Vous aimerez peut-être aussi