TRABAJO PRÁCTICO N°1
TECNOLOGÍA DE LA
INFORMACIÓN
● Integrantes: Jazmín Sneider y Victoria Vitola
● Grupo N°: 36
● Curso: 5 TIC D
1
[Link]
1. Los símbolos A, E, G, M y T ocurren con probabilidades de 1/2, 1/4, 1/8, 1/16,
1/16, respectivamente.
Pasamos todo a un mismo común denominador:
● Pa := ½ = 8/16
● Pe :=¼ = 4/16
● Pg :=⅛ = 2/16
● Pm := 1/16 = 1/16
● Pt := 1/16 = 1/16
¿Cuánto vale la información si se transmiten los siguientes mensajes
suponiendo que estos son estadísticamente independientes?
a. X = MEGA
Ia := log2(1/0,5) Ia = 1 shannon
Im := log2(1/0,0625) Im = 4 shannon
Ie := log2(1/0,25) Ie = 2 shannon
Ig := log2(1/0,125) Ig = 3 shannon
Ix := Im + Ie + Ig + Ia
Ix = 10 shannon
La información que transmite X es igual a 10 shannon.
b. U = TEMA
Ia := log2(1/0,5) Ia = 1 shannon
Im := log2(1/0,0625) Im = 4 shannon
Ie := log2(1/0,25) Ie = 2 shannon
It := log2(1/0,0625) It = 4 shannon
Iu := It + Ie + Im + Ia
Iu = 11 shannon
La información que transmite U es igual a 11 shannon.
2. Para los mensajes transmitidos X y U del ejercicio anterior el código binario es
A=1011; E=1001; G=1000; M=1110, T=1010. Ponderando cada uno con la
probabilidad de ocurrencia adecuada, determine:
Pa := 1011 1011 1011 1011 1011 1011 1011 1011 → 8 veces porque es 8/16
Pe := 1001 1001 1001 1001 → 4 veces porque es 4/16
Pg := 1000 1000 → 2/16
Pm := 1110 → 1/16
2
Pt := 1010 → 1/16
● Pa := 816
● Pe := 4/16
● Pm :=1/16
● Pt := 1/16
● Pg := 2/16
a) la probabilidad de ocurrencia ceros, para los mensajes X y U.
MEGA = X
X → 1110 1001 1001 1001 1001 1000 1000 1011 1011 1011 1011 1011
1011 1011 1011 → Tengo 60 bits
❖ M tiene ¼ de 0
❖ E tiene 2/4 de 0
❖ G tiene ¾ de 0
❖ A tiene ¼ de 0
Prob0deX := 23/60 Prob0deX = 0,383
Pm.¼ + Pe.2/4 + Pg.¾ + Pa.¼
PceroW= ------------------------------------------- = 0,383
Pm + Pe + Pg + Pa
TEMA = U
U → 1010 1001 1001 1001 1001 1110 1011 1011 1011 1011 1011 1011
1011 1011 → Tengo 56 bits
❖ T tiene 2/4 de 0
❖ E tiene 2/4 de 0
❖ M tiene ¼ de 0
❖ A tiene ¼ de 0
Prob0deU := 19/56 Prob0deU = 0,339
Pt.2/4 + Pe.2/4 + Pm.2/4 + Pa.¼
PceroW= ------------------------------------------- = 0,339
Pt + Pe + Pm + Pa
b) la probabilidad de ocurrencia unos, para los mensajes X y U.
MEGA = X
X → 1110 1001 1001 1001 1001 1000 1000 1011 1011 1011 1011 1011
1011 1011 1011 → Tengo 60 bits
3
★ M tiene ¾ de 1
★ E tiene 2/4 de 1
★ G tiene ¼ de 1
★ A tiene ¾ de 1
Prob1deX := 37/60 Prob1deX = 0,617
Pm.¾ + Pe.2/4 + Pg.¼ + Pa.¾
PunoW= ------------------------------------------- = 0,617
Pm + Pe + Pg + Pa
TEMA = U
U → 1010 1001 1001 1001 1001 1110 1011 1011 1011 1011 1011 1011
1011 1011 → Tengo 56 bits
★ T tiene ¾ de 1
★ E tiene 2/4 de 1
★ M tiene ¼ de 1
★ A tiene ¾ de 1
Prob1deU := 37/56 Prob1deU = 0,660
PT.¾ + Pe.2/4 + PM.¼ + Pa.¾
PunoW= ------------------------------------------- = 0,660
Pt + Pe + Pm + Pa
c) la información promedio por palabra del código (Entropía), para los
mensajes X y U.
Mensaje X=
Hx := Im . Pm + Ie . Pe + Ig . Pg + Ia . Pa Hx = 1.625
Shannon/símbolo
log2(1/0,0625) . 1/16 + log2(1/0,25) . ¼ + log2(1/0,125) . ⅛ + log2(1/0,5) . ½ = 1.625
1 1
H := Prob0deX . log2( 𝑃𝑟𝑜𝑏0𝑑𝑒𝑋 ) + Prob1deX . log2 ( 𝑃𝑟𝑜𝑏1𝑑𝑒𝑋 )
H = 0,383 . log2(1/0,383) . 0,617 . log2 (1/0,617)
H = 0,96 Shannon/símbolo
Mensaje U=
Hu := It . Pt + Ie . Pe + Im . Pm + Ia . Pa
Hu = 1,5 Shannon/simbolo
log2(1/0,0625) . 1/16 + log2(1/0,25) . ¼ + log2(1/0,0625) . 1/16 + log2(1/0,5) . ½ = 1,5
4
1 1
H := Prob0deU . log2( 𝑃𝑟𝑜𝑏0𝑑𝑒𝑈 ) + Prob1deU . log2 ( 𝑃𝑟𝑜𝑏1𝑑𝑒𝑈 )
H = 0,339 . log2(1/0,339) . 0,660 . log2(1/0,660 )
H = 0,924 Shannon/Simbolo
3. Sean F1= {1, 3, 5,7} y F2= {3, 4, 6,9} dos fuentes equiprobables
independientes. Sea una fuente F cuya salida es el mínimo común múltiplo de la
salida de las fuentes anteriores F mcm (F1, F2). ¿Cuánto vale la entropía de la
fuente F?
Fmcm = Combinación de las otras 2
Conjunto de 4 numeros combinado con otro conjunto de 4 números = 4
combinaciones de 4 elementos = 16
Cuenta = F mcm n = lcm (F1 n, F2 n)
F1n F2n F mcm n
1 3 3
3 3 3
5 3 15
7 3 21
1 4 4
3 4 12
5 4 20
7 4 28
1 6 6
3 6 6
5 6 30
7 6 42
1 9 9
3 9 9
5 9 45
7 9 63
Tengo 16 resultados, en total 13 números distintos: Algunos se repiten 2 veces y
otros no, por lo que=
5
Tengo resultados con 2/16 de probabilidad y otros con 1/16.
Los que se repiten una vez:
1
Ik := log2 ( 1/16 )
Ik = 4 Shannon
Para los que se repiten 2 veces:
1
Ik := log2 ( 1/8 )
Ik = 3 Shannon
Entropía:
13
H := Σ (Pk . Ik)
k=1
H= 3.625 Shannon/simbolo
13 es el total de números distintos
Pk es la probabilidad = 1/16 o 2/16 → 3/16
Ik es la información = 3 o 4 shannon → 7 Shannon
4. Seleccione un texto al azar de una cantidad máxima de 60 palabras
escrito en español y determine:
Entre los otros nombres que suenan en Boca, frente a una posible salida de
Esteban Andrada, apareció el de Sergio Romero, el arquero de 34 años cuyo
contrato con el Manchester United finaliza a mediados de este año. Si bien el
Brighton se mostró interesado en él, también se mencionó la chance de un
regreso al fútbol argentino.
a) la probabilidad de cada una de las vocales.
❖ Pa:= 26/118
❖ Pe:= 43/118
❖ Pi:= 14/118
❖ Po:= 27/118
❖ Pu:= 8/118
b) la Información total que aportan las vocales. (Consideren con igual
tratamiento las vocales acentuadas o no).
6
It = 12,724 Shannon
c) la entropía que aportan todas las vocales.
H := Ia . AP + Ie . Pe + Ii . Pi + Io . Po + Iu . Pu
H:= 2,182 . (26/118) + 1.456 . (43/118) + 3.075 . (14/118) + 2.128 . (27/118)+
3.883 . (8/118)
H = 0,481 + 0,531 + 0,368 + 0,487 + 0,263
H = 2,13 Shannon/simbolo
Bibliografía recomendada:
[Link]
cion
● Teoría de la Información - Presentación
● Teoría de la información (teoría). (La Teoría de la información, ciencia
desarrollada por Claude Shannon, en trabajos sobre la teoría
matemática de la comunicación, se plantea entre otros, el objetivo de
hacer lo más eficiente posible, la transmisión de información de un
punto a otro en una red de comunicación)