0% encontró este documento útil (0 votos)
86 vistas7 páginas

TI-TP1 Grupo36

Este documento presenta un trabajo práctico sobre teoría de la información. Calcula la información transmitida por diferentes mensajes basados en la probabilidad de ocurrencia de sus símbolos. Determina la probabilidad de ceros y unos, la entropía y la información promedio por palabra de los códigos. Finalmente, calcula la entropía de una fuente cuya salida depende del mínimo común múltiplo de dos fuentes independientes.

Cargado por

Agustin Porrazzo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
86 vistas7 páginas

TI-TP1 Grupo36

Este documento presenta un trabajo práctico sobre teoría de la información. Calcula la información transmitida por diferentes mensajes basados en la probabilidad de ocurrencia de sus símbolos. Determina la probabilidad de ceros y unos, la entropía y la información promedio por palabra de los códigos. Finalmente, calcula la entropía de una fuente cuya salida depende del mínimo común múltiplo de dos fuentes independientes.

Cargado por

Agustin Porrazzo
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

TRABAJO PRÁCTICO N°1

TECNOLOGÍA DE LA
INFORMACIÓN

● Integrantes: Jazmín Sneider y Victoria Vitola

● Grupo N°: 36

● Curso: 5 TIC D

1
[Link]
1. Los símbolos A, E, G, M y T ocurren con probabilidades de 1/2, 1/4, 1/8, 1/16,
1/16, respectivamente.
Pasamos todo a un mismo común denominador:
● Pa := ½ = 8/16
● Pe :=¼ = 4/16
● Pg :=⅛ = 2/16
● Pm := 1/16 = 1/16
● Pt := 1/16 = 1/16

¿Cuánto vale la información si se transmiten los siguientes mensajes


suponiendo que estos son estadísticamente independientes?

a. X = MEGA
Ia := log2(1/0,5) Ia = 1 shannon
Im := log2(1/0,0625) Im = 4 shannon
Ie := log2(1/0,25) Ie = 2 shannon
Ig := log2(1/0,125) Ig = 3 shannon

Ix := Im + Ie + Ig + Ia
Ix = 10 shannon

La información que transmite X es igual a 10 shannon.

b. U = TEMA
Ia := log2(1/0,5) Ia = 1 shannon
Im := log2(1/0,0625) Im = 4 shannon
Ie := log2(1/0,25) Ie = 2 shannon
It := log2(1/0,0625) It = 4 shannon

Iu := It + Ie + Im + Ia
Iu = 11 shannon

La información que transmite U es igual a 11 shannon.

2. Para los mensajes transmitidos X y U del ejercicio anterior el código binario es


A=1011; E=1001; G=1000; M=1110, T=1010. Ponderando cada uno con la
probabilidad de ocurrencia adecuada, determine:
Pa := 1011 1011 1011 1011 1011 1011 1011 1011 → 8 veces porque es 8/16
Pe := 1001 1001 1001 1001 → 4 veces porque es 4/16
Pg := 1000 1000 → 2/16
Pm := 1110 → 1/16

2
Pt := 1010 → 1/16

● Pa := 816
● Pe := 4/16
● Pm :=1/16
● Pt := 1/16
● Pg := 2/16

a) la probabilidad de ocurrencia ceros, para los mensajes X y U.


MEGA = X
X → 1110 1001 1001 1001 1001 1000 1000 1011 1011 1011 1011 1011
1011 1011 1011 → Tengo 60 bits
❖ M tiene ¼ de 0
❖ E tiene 2/4 de 0
❖ G tiene ¾ de 0
❖ A tiene ¼ de 0

Prob0deX := 23/60 Prob0deX = 0,383

Pm.¼ + Pe.2/4 + Pg.¾ + Pa.¼


PceroW= ------------------------------------------- = 0,383
Pm + Pe + Pg + Pa

TEMA = U
U → 1010 1001 1001 1001 1001 1110 1011 1011 1011 1011 1011 1011
1011 1011 → Tengo 56 bits
❖ T tiene 2/4 de 0
❖ E tiene 2/4 de 0
❖ M tiene ¼ de 0
❖ A tiene ¼ de 0
Prob0deU := 19/56 Prob0deU = 0,339

Pt.2/4 + Pe.2/4 + Pm.2/4 + Pa.¼


PceroW= ------------------------------------------- = 0,339
Pt + Pe + Pm + Pa

b) la probabilidad de ocurrencia unos, para los mensajes X y U.


MEGA = X
X → 1110 1001 1001 1001 1001 1000 1000 1011 1011 1011 1011 1011
1011 1011 1011 → Tengo 60 bits

3
★ M tiene ¾ de 1
★ E tiene 2/4 de 1
★ G tiene ¼ de 1
★ A tiene ¾ de 1

Prob1deX := 37/60 Prob1deX = 0,617


Pm.¾ + Pe.2/4 + Pg.¼ + Pa.¾
PunoW= ------------------------------------------- = 0,617
Pm + Pe + Pg + Pa

TEMA = U
U → 1010 1001 1001 1001 1001 1110 1011 1011 1011 1011 1011 1011
1011 1011 → Tengo 56 bits
★ T tiene ¾ de 1
★ E tiene 2/4 de 1
★ M tiene ¼ de 1
★ A tiene ¾ de 1

Prob1deU := 37/56 Prob1deU = 0,660

PT.¾ + Pe.2/4 + PM.¼ + Pa.¾


PunoW= ------------------------------------------- = 0,660
Pt + Pe + Pm + Pa

c) la información promedio por palabra del código (Entropía), para los


mensajes X y U.
Mensaje X=
Hx := Im . Pm + Ie . Pe + Ig . Pg + Ia . Pa Hx = 1.625
Shannon/símbolo
log2(1/0,0625) . 1/16 + log2(1/0,25) . ¼ + log2(1/0,125) . ⅛ + log2(1/0,5) . ½ = 1.625

1 1
H := Prob0deX . log2( 𝑃𝑟𝑜𝑏0𝑑𝑒𝑋 ) + Prob1deX . log2 ( 𝑃𝑟𝑜𝑏1𝑑𝑒𝑋 )
H = 0,383 . log2(1/0,383) . 0,617 . log2 (1/0,617)
H = 0,96 Shannon/símbolo

Mensaje U=
Hu := It . Pt + Ie . Pe + Im . Pm + Ia . Pa
Hu = 1,5 Shannon/simbolo
log2(1/0,0625) . 1/16 + log2(1/0,25) . ¼ + log2(1/0,0625) . 1/16 + log2(1/0,5) . ½ = 1,5

4
1 1
H := Prob0deU . log2( 𝑃𝑟𝑜𝑏0𝑑𝑒𝑈 ) + Prob1deU . log2 ( 𝑃𝑟𝑜𝑏1𝑑𝑒𝑈 )
H = 0,339 . log2(1/0,339) . 0,660 . log2(1/0,660 )
H = 0,924 Shannon/Simbolo

3. Sean F1= {1, 3, 5,7} y F2= {3, 4, 6,9} dos fuentes equiprobables
independientes. Sea una fuente F cuya salida es el mínimo común múltiplo de la
salida de las fuentes anteriores F mcm (F1, F2). ¿Cuánto vale la entropía de la
fuente F?

Fmcm = Combinación de las otras 2


Conjunto de 4 numeros combinado con otro conjunto de 4 números = 4
combinaciones de 4 elementos = 16

Cuenta = F mcm n = lcm (F1 n, F2 n)


F1n F2n F mcm n

1 3 3

3 3 3

5 3 15

7 3 21

1 4 4

3 4 12

5 4 20

7 4 28

1 6 6

3 6 6

5 6 30

7 6 42

1 9 9

3 9 9

5 9 45

7 9 63

Tengo 16 resultados, en total 13 números distintos: Algunos se repiten 2 veces y


otros no, por lo que=

5
Tengo resultados con 2/16 de probabilidad y otros con 1/16.
Los que se repiten una vez:
1
Ik := log2 ( 1/16 )
Ik = 4 Shannon
Para los que se repiten 2 veces:
1
Ik := log2 ( 1/8 )
Ik = 3 Shannon
Entropía:
13
H := Σ (Pk . Ik)
k=1

H= 3.625 Shannon/simbolo

13 es el total de números distintos


Pk es la probabilidad = 1/16 o 2/16 → 3/16
Ik es la información = 3 o 4 shannon → 7 Shannon

4. Seleccione un texto al azar de una cantidad máxima de 60 palabras


escrito en español y determine:
Entre los otros nombres que suenan en Boca, frente a una posible salida de
Esteban Andrada, apareció el de Sergio Romero, el arquero de 34 años cuyo
contrato con el Manchester United finaliza a mediados de este año. Si bien el
Brighton se mostró interesado en él, también se mencionó la chance de un
regreso al fútbol argentino.

a) la probabilidad de cada una de las vocales.


❖ Pa:= 26/118
❖ Pe:= 43/118
❖ Pi:= 14/118
❖ Po:= 27/118
❖ Pu:= 8/118

b) la Información total que aportan las vocales. (Consideren con igual


tratamiento las vocales acentuadas o no).

6
It = 12,724 Shannon
c) la entropía que aportan todas las vocales.
H := Ia . AP + Ie . Pe + Ii . Pi + Io . Po + Iu . Pu

H:= 2,182 . (26/118) + 1.456 . (43/118) + 3.075 . (14/118) + 2.128 . (27/118)+


3.883 . (8/118)

H = 0,481 + 0,531 + 0,368 + 0,487 + 0,263

H = 2,13 Shannon/simbolo

Bibliografía recomendada:
[Link]
cion

● Teoría de la Información - Presentación


● Teoría de la información (teoría). (La Teoría de la información, ciencia
desarrollada por Claude Shannon, en trabajos sobre la teoría
matemática de la comunicación, se plantea entre otros, el objetivo de
hacer lo más eficiente posible, la transmisión de información de un
punto a otro en una red de comunicación)

También podría gustarte