0% encontró este documento útil (0 votos)
301 vistas6 páginas

Teoría de La Información Eje 2

Este documento presenta las soluciones de tres estudiantes a un ejercicio de teoría de la información. Primero, se define un alfabeto con tres símbolos y sus probabilidades. Luego, cada estudiante encuentra la probabilidad de secuencias de símbolos y calcula la entropía binaria, obteniendo un resultado de 1.5 bits/símbolo. Finalmente, el tercer estudiante presenta conclusiones sobre la medida de la variable aleatoria y la necesidad de bits para codificar cada símbolo.

Cargado por

angie suarez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
301 vistas6 páginas

Teoría de La Información Eje 2

Este documento presenta las soluciones de tres estudiantes a un ejercicio de teoría de la información. Primero, se define un alfabeto con tres símbolos y sus probabilidades. Luego, cada estudiante encuentra la probabilidad de secuencias de símbolos y calcula la entropía binaria, obteniendo un resultado de 1.5 bits/símbolo. Finalmente, el tercer estudiante presenta conclusiones sobre la medida de la variable aleatoria y la necesidad de bits para codificar cada símbolo.

Cargado por

angie suarez
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

ACTIVIDAD EVALUATIVA EJE 2

JUAN CAMILO PUERTO GONZÁLEZ

ANGIE NATHALY SUAREZ CASTIBLANCO

MARCOS RAFAEL HERRERA SALAMANCA

FUNDACIÓN UNIVERSITARIA DEL ÁREA ANDINA

INGENIERA DE SISTEMAS

TEORÍA DE LA INFORMACIÓN

BOGOTA D.C

2019
ACTIVIDAD EVALUATIVA EJE 2

1. Hallar la extensión de una fuente de memoria nula. Partiendo del siguiente alfabeto:
S={M1, M2, M3}, con P{M1}= P{M2}= 1/5 y P{M3}= ⅓
2. Hallar la probabilidad de secuencia de cada símbolo
3. Hallar la entropía binaria aplicando la fórmula:

SOLUCIÓN

Solución planteada por Juan Puerto

1. Hallar la extensión de una fuente de memoria nula.

Partiendo del siguiente alfabeto:

S={M1, M2, M3} con

P{M1}=1/5

P{M2}= 1/5

P{M3}= ⅓

2. Halla la probabilidad de secuencia de cada símbolo.

· M1M1= 1/5*1/5= 1/25 =0,04 =​25%

· M1M3= 1/5*1/3= 1/15 =0,06=​16,6%

· M2M1= 1/5*1/5= 1/25=0,04=​25%

· M2M3= 1/5*1/3=1/15=0,06 =​16,6%

· M1M2= 1/5*1/5= 1/25=0,04=​25%

· M2M2= 1/5*1/5= 1/25=0,04=​25%


·​ M3M1= 1/3*1/5= 1/15=0,06=​16,6%

· M3M2= 1/3*1/5= 1/15=0,06=​16,6%

· M3M3= 1/3*1/3= 1/9 =0,11=​9%

1/0,04=25

1/0,06=16,6

1/0,11=9

3. Hallar la entropía binaria aplicando la fórmula

= 1/9 log 9 + 4* 1/25 log 25 + 4* 1/15 log 15

= 1,5 bits/símbolo

Solución planteada por Angie Suarez

1. Extensión de una fuente de memoria nula.

Partiendo del siguiente alfabeto: S={M1, M2, M3}, con P{M1} = P{M2} = 1/5 y P{M3} =

Datos

M1= 1/5

M2= 1/5

M3= 1/3

2. Hallar la probabilidad de secuencia de cada símbolo.

σ 1 = M1M1 = 1/5 * 1/5 = 1/25

σ 2 = M1M3 = 1/5 * 1/3 = 1/15

σ 3 = M2M1 = 1/5 * 1/5 = 1/25

σ 4 = M2M3 = 1/5 * 1/3 = 1/15

σ 5 = M1M2 = 1/5 * 1/5 = 1/25

σ 6 = M2M2 = 1/5 * 1/5 = 1/25


σ 7 = M3M1 = 1/3 * 1/5 = 1/15

σ 8 = M3M2 = 1/3 * 1/5 = 1/15

σ 9 = M3M3 = 1/3 * 1/3 = 1/9

Símbolo σ1 σ2 σ3 σ4 σ5 σ6 7σ σ8 σ9
M

Secuencia M1 M1 M2 M2 M1 M2 M3 M3 M3
de M1 M3 M1 M3 M2 M2 M1 M2 M3
Símbolos

Probabili 1/25 1/15 1/25 1/15 1/25 1/25 1/15 1/25 1/9
dad

3. Hallar la entropía binaria aplicando la fórmula

1/9 log 9 + 5 * 1/15 log 15 + 5 * 1/25 log 25 = 1.4 bits/simbolo

Solución planteada por Marcos Herrera

1. Hallar la extensión de una fuente de memoria nula.

Partiendo del siguiente alfabeto: S={M1, M2, M3}, con P{M1}= P{M2}= 1/5 y P{M3}= ⅓
2. Halla la probabilidad de secuencia de cada símbolo.

·​ M1M1= 1/5*1/5= 1/25


·​ M1M3= 1/5*1/3= 1/15


·​ M2M1= 1/5*1/5= 1/25


·​ M2M3= 1/5*1/3=1/15

·​ M1M2= 1/5*1/5= 1/25


·​ M2M2= 1/5*1/5= 1/25


·​ M3M1= 1/3*1/5= 1/15


·​ M3M2= 1/3*1/5= 1/15


·​ M3M3= 1/3*1/3= 1/9


3. Hallar la entropía binaria aplicando la fórmula

= 1/9 log 9 + 4* 1/25 log 25 + 4* 1/15 log 15

= 1,5 bits/símbolo

CONCLUSIONES

1. partiendo desde el alfabeto S={M1, M2, M3}, con P{M1}= P{M2}= 1/5 y P{M3}=
⅓, con la cual se halla la probabilidad de secuencia de cada símbolo la cual se hace la
multiplicación de secuencia de símbolos y la división hallando la probabilidad de
cada símbolo m y hallando el porcentaje de cada una de la probabilidad hallar la
entropía binaria con 1,5 bits.
2. El presente ejercicio permitió hallar la medida media de la variable aleatoria donde su
magnitud física está dada en bits de información.
3. La cantidad de información es proporcional a la probabilidad de un suceso, es decir si
la entropía es igual a 3, esto quiere decir que se necesitan de 3 bits para codificar cada
símbolo. (Universidad Nacional del Nordeste, s.f). Para el caso del ejercicio realizado
quiere decir que requerimos de 1.5 bits para codificar cada símbolo en la secuencia
según el resultado obtenido de la entropía binaria.
REFERENCIAS

Universidad Nacional del Nordeste. (s.f). Teoría de la información y la codificación.


Argentina. Recuperado de
[Link]

También podría gustarte