05 JMD 5 de 10
05 JMD 5 de 10
Introducción
1.1. Introducción
Las actuales redes de comunicaciones han sido optimizadas a través de los años para
soportar un tipo de tráfico específico, como es el caso de las redes telefónicas, redes de
transmisión de datos o redes de difusión. Un primer intento de integración de las
distintas redes de comunicaciones se realizó con la aparición de la red digital de
servicios integrados (RDSI). Esta red permite el acceso con un mismo interfaz, a
servicios de conmutación de paquetes y a servicios de conmutación de circuitos. El
principal inconveniente que presenta la RDSI es la limitación de ancho de banda
ofrecido al servicio, prefijado a 64 kbps para acceso básico y a 2 Mbps en el caso de
establecer la conexión a través de un acceso primario.
Los actuales avances en la explotación de las líneas de transmisión han permitido
alcanzar niveles de transporte de 2'4 Gbps con portadoras ópticas (OC-48). La
estandarización de los soportes lógicos para transmisiones sobre medios ópticos quedó
reflejada en la especificación de SONET, basada en una estructura de tramas síncronas
que permiten la multiplexación digital [BalChi89]. La especificación de SONET
permite anidar en una misma trama diferentes jerarquías síncronas primarias y
terciarias, resolviendo, a su vez, el problema de compatibilidad de las tramas
plesiocronas de los estándares europeos y americanos. Asimismo, las mejoras en la
tecnología Very Large Scale Integration (VLSI) y los avances en la conmutación
fotónica han permitido plantear el desarrollo de diferentes elementos de una red digital
capaces de manejar grandes volúmenes de información transferidos en los enlaces
ópticos.
El estado actual de la tecnología permite evolucionar la RDSI hacia una red con la
misma filosofía pero capaz de soportar servicios con un consumo mucho mayor de
1-1
Capítulo 1
cuantificable en términos de relación señal a ruido (Signal to Noise Ratio, SNR), dado
que el ATM soporta las transferencias a tasa variable. Se han realizado algunos estudios
para determinar el interés que reporta la transmisión a velocidad variable frente a
velocidad constante para estos servicios [COST211].
Los algoritmos propuestos para la compresión de voz pretenden disminuir el
consumo de ancho de banda explotando la duración de los intervalos de silencio, del
orden del 60% del tiempo, junto con la redundancia temporal. Con el empleo de
mecanismos de compresión, el ancho de banda necesario para un servicio de voz es
extremadamente pequeño, respecto al de un enlace de la RDSI-BA, por lo que el
principio de multiplexación estadística aplica perfectamente. La agrupación en un
mismo enlace de un gran número de codificaciones de velocidad variable de servicios
de audio permite considerar el tráfico cursado global como un valor prácticamente
constante, que se obtiene a través de la adición de las medias de cada uno de los
servicios [SriWhi86].
Los servicios de transmisión de vídeo demandan un ancho de banda muy superior a
los de audio. A fin de aumentar la efectividad en la transmisión y almacenamiento de
las imágenes de vídeo se han desarrollado un conjunto de técnicas de compresión
basadas en la explotación de la redundancia temporal y espacial de la imágenes. Las
técnicas más efectivas utilizadas para el aprovechamiento de la redundancia espacial de
las imágenes trabajan en el dominio de la frecuencia. Los métodos frecuenciales más
empleados son la transformada coseno discreta (Discrete Cosinus Transform, DCT), la
descomposición en subbandas [KarVet89], incluyendo las denominadas wavelets
[ArgBen93] y las codificaciones piramidales. Para imágenes en movimiento, se explota
además la redundancia temporal a través de la compensación de movimiento, basada en
la detección del desplazamiento de objetos. Diferentes estándares han ido apareciendo
tanto para imágenes estáticas, JPEG, como para imágenes en movimiento, H261 y
MPEG-I [Kou95]. En todos ellos se emplea la DCT [ChaCha94], que se ha revelado
como el mejor método para la compresión espacial, y la compensación de movimiento,
aplicada, generalmente, sobre elementos rectangulares de la imagen. Para aumentar la
eficiencia de la transmisión estos estándares incorporan códigos de longitud variable
(códigos de Huffman) para la codificación, obtenidos después de estudios intensivos de
codificación empleando dichos algoritmos [H261].
El nuevo estándar MPEG-II [MPEGII] ha sido concebido especialmente para la
transmisión de vídeo digital [LagPer95]. El algoritmo de compresión de vídeo MPEG-II
se basa en el empleado en el MPEG-I, ampliando diferentes posibilidades de formatos
en cuanto al tamaño de la imagen y en cuanto a la presentación entrelazada o
progresiva. De esta manera se pretende unificar en un mismo formato de transmisión
múltiples resoluciones, permitiendo anidar dentro del formato los estándares JPEG,
H261 y MPEG-I que ya estaban estandarizados. La principal innovación que aporta el
nuevo estándar MPEG-II es la introducción del concepto de escalabilidad [ChiAna94]
1-3
Capítulo 1
1-4
Introducción
una determinada comunicación en base a una ranura temporal particular (se usa
multiplexación por división en el tiempo) dentro de una trama, de ahí que no sea
necesaria una cabecera que contenga la dirección de destino del mensaje. Además, las
ranuras temporales en una trama STM no se comparten entre llamadas. Por tanto,
incluso cuando la fuente de tráfico está inactiva la ranura temporal correspondiente no
puede ser utilizada por otro usuario.
En la elección de paquetes de longitud fija sobre longitud variable intervienen varios
factores como, por ejemplo, la eficiencia de transmisión, la velocidad y complejidad de
los nodos de conmutación y el retardo que se sufre en la red [Pry93].
El hecho de optar por una longitud corta limita el retardo producido en la red,
proporciona una mejor multiplexación estadística de la información sobre el medio que
en el caso de elegir paquetes de mayor tamaño y de longitud variable, y permite la
integración de tráfico con requisitos de tiempo real. La ventaja en términos de velocidad
y complejidad de los conmutadores es también clara, en el caso de paquetes de longitud
fija el tiempo para procesar su cabecera es también fijo, sin embargo, si éstos fueran de
longitud variable el tiempo para procesar la cabecera debería diseñarse tomando como
referencia la longitud más pequeña posible, complicando así la realización física del
dispositivo. Por otra parte, el sistema de gestión y control de las memorias tampón, o
buffers, presentes en todo conmutador de paquetes es mucho más simple si los paquetes
tienen longitud fija. Además, los requisitos de memoria son mucho mayores para el caso
de paquetes de longitud variable, ya que en el dimensionado se debe considerar la
posibilidad de alojar paquetes de la máxima longitud posible.
Por otra parte, y debido a los enlaces de alta velocidad, el retardo de propagación se
hace significativo respecto al tiempo de transmisión y al tiempo de proceso que conlleva
la ejecución de los protocolos de comunicación. Por tanto, las redes ATM utilizan
protocolos simplificados e intentan desplazar el peso de los protocolos que actualmente
se ejecutan de enlace a enlace hacia capas superiores del modelo de referencia de
protocolos OSI [Tan89] para que el proceso se lleve a término de extremo a extremo.
Aunque, en principio, ATM puede utilizarse sobre cualquier medio físico, fue
desarrollado pensando en los nuevos soportes ópticos, como por ejemplo, la jerarquía
digital síncrona JDS [LeeKan93] [SDH93].
El uso de fibra óptica como medio de transmisión, a parte de proporcionar anchos de
banda elevados (tasas binarias altas) y mejores relaciones de atenuación (mayor
distancia entre repetidores) también se caracteriza por ser un medio de bajo ruido. Ello
implica que la tasa de error en el canal sea a su vez baja y, por tanto, que las técnicas de
control de errores usadas en la actualidad sean reexaminadas.
Los esquemas de control de errores pueden llevarse a la práctica entre nodos
intermedios o entre extremos de la comunicación. Si el control de errores se realiza
entre nodos, la retransmisión de celdas erróneas o pérdidas sólo tiene lugar entre nodos
1-5
Capítulo 1
1-6
Introducción
Plano de Gestión
Capa MTA
Capa Física
En la actualidad se han definido con claridad tres capas del modelo de referencia: la
capa física, la capa ATM y la capa de adaptación ATM. Las capas superiores se
encuentran todavía en fase de estudio.
Convergence CS
AAL
Segmentation and reassembly SAR
1-7
Capítulo 1
La capa física (Physical Layer, PL) se divide en dos subcapas: la subcapa del medio
físico (Physical Medium, PM) y la subcapa de convergencia a la transmisión
(Transmission Convergence, TC) [I.432]. La subcapa PM incluye todas aquellas
funciones dependientes del medio físico en cuestión (p.e., conversión electro-óptica). La
subcapa TC efectúa todas las funciones necesarias para transformar un flujo de celdas
en un flujo de entidades de datos (por ejemplo bits), compatible con el esquema de
multiplexación del sistema de transmisión.
La capa de adaptación ATM (ATM Adaptation Layer, AAL) [I.362] [I.363] tiene
como función básica el aislar las capas superiores de las características propias de la
capa ATM. Se encarga de adaptar los datos procedentes de niveles superiores a un
formato que pueda ser manipulado por la capa ATM. La capa AAL se organiza en dos
subcapas. La subcapa de convergencia (Convergence Sublayer, CS) y la subcapa de
segmentación y reensamblado (Segmentation And Reassembly, SAR). La subcapa SAR
tiene como misión el segmentar los datos de las capas superiores a un formato
compatible con el campo de información de usuario de una celda ATM (48 octetos), o
recíprocamente, el reensamblar dichos campos de información a unidades de datos de
protocolo (Protocol Data Unit, PDU) de la capa superior.
La subcapa CS es independiente del servicio y realiza funciones necesarias para
soportar aplicaciones específicas (p.e., recuperación de reloj en servicios de vídeo
insertando palabras de sincronización). Los posibles mecanismos de adaptación
definidos para el transporte de información en redes ATM [I.362] se han planteado
según el tipo de servicio que deben soportar. Los parámetros que clasifican un tipo de
servicio son [Pry93]:
1-8
Introducción
Los distintas capas AAL definidas se corresponden con los diferentes servicios de la
siguiente forma:
genérico (Generic Flow Control, GFC), tres bits para un identificador del tipo de
información útil que transporta la celda (Payload Type Identificator, PTI), un bit de
prioridad frente a pérdida de celdas (Cell Loss Priority, CLP) y ocho bits para un campo
de control de errores en la cabecera (Header Error Control, HEC).
1. GFC VPI
GFC: Generic Flow Control
2. VPI VCI VPI: Virtual Path Identifier
3. VCI VCI: Virtual Channel Identifier
CLP PT: Payload Type
4. VCI PT
CLP: Cell Loss Priority
5. HEC HEC: Header Error Control
1-10
Introducción
Un camino virtual consta de varios canales virtuales (ver figura 1.2.4). La distinción
en la etiqueta de direccionamiento entre VCI y VPI permite a la red usar una notación
más corta y compacta para las rutas con más tráfico (p.e., enlaces entre grandes
ciudades) gracias al identificador VPI, a la vez que con el identificador VCI se preserva
la identidad de cada canal individual dentro del camino de comunicación. Ello permite
que los equipos utilizados en la transmisión traten las llamadas sólo en base al campo
VPI, sin la necesidad de operar con el resto del campo de direccionamiento (VCI) hasta
que el enlace general llega a su destino final, donde el tráfico correspondiente a cada
canal se distribuye de acuerdo a su VCI.
El resto de campos en la cabecera se usa para controlar el flujo del tráfico generado
en la parte de red de usuario (sólo en el interfaz usuario-red), para discernir el tipo de
información que transportan las celdas (celdas de usuario o celdas propias de la red), y
para marcar cuál es la prioridad de las celdas frente a pérdidas y poder, así, ejercer
alguna acción sobre las mismas en caso de congestión. Finalmente, se utiliza un octeto
para asegurar la integridad de la cabecera (básicamente de la dirección) a través de la
red.
El ATM usa el concepto de conexión virtual [Lan94], estableciendo conexiones
virtuales entre cada par de nodos de conmutación intermedios en la transmisión desde
un extremo fuente a un extremo destino. Estas conexiones se denominan virtuales para
distinguirlas de los circuitos o canales dedicados como en el caso del STM. En ATM el
enlace no se reserva únicamente a un usuario sino que se comparte temporalmente con
otros usuarios.
Las conexiones ATM sólo existen como conjuntos de tablas de encaminamiento que
se mantienen en cada conmutador y que están indexadas en función de la etiqueta de
direccionamiento (VCI/VPI) de la cabecera de las celdas. Las etiquetas de
direccionamiento en ATM tienen sólo un significado local, en cuanto que sólo son
1-11
Capítulo 1
CONMUTADOR
VC 1 VC 2
A VC 7 VC VC VC 1 D
Desde Hasta
# # VC 2
A 1 D 1
A 7 E 9
VC 3 B 3 E 1
VC 1
B B 1 D 2
D 2 C 9
VC 9
VC 1
E
VC 9
C
1-13
Capítulo 1
τs
MBS = 1 +
Ts − T
(1.3.1)
i) Nivel de llamada. Se consideran intervalos entre segundos y horas. Este nivel está
especialmente indicado para el dimensionado de redes ATM. El dimensionado
dependerá de la clase de servicios soportados por la red y la cantidad de éstos que
simultáneamente puedan estar en curso. Es imprescindible disponer de las
características de estos servicios, relacionadas con el tiempo entre llegadas de nueva
petición, la estadística de la duración de la conexión y la dependencia de los puntos de
interconexión solicitados en función de la situación geográfica [HofWeb85].
ii) Nivel de ráfaga. Se sitúa en el rango de décimas de segundos a pocos segundos.
Tiene especial influencia en el proceso de aceptación de nuevas conexiones por la
repercusión en la calidad de los servicios. Este nivel está directamente relacionado con
la ubicación de recursos, ya que, dependiendo de la naturaleza de los tráficos que
compartan los mismos dispositivos de la red, se alcanzará un grado de servicio ofrecido
por la red. El nivel de ráfaga de los diferentes tráficos determinará la probabilidad de
que, instantáneamente, se alcancen niveles de utilización de los enlaces superiores a 1 y,
por tanto, sea necesario el almacenamiento de las celdas en los buffers de los nodos. El
grado de servicio ofrecido dependerá directamente de la capacidad de almacenamiento
de los buffers de los dispositivos, estableciéndose una relación de compromiso entre el
tiempo máximo de espera, o retardo admisible, y la probabilidad de pérdida
[FuhBou91].
1-14
Introducción
Las funciones de control de tráfico en las redes ATM tienen como propósito la
gestión y regulación del tráfico en la red. Estos mecanismos son empleados para el
control de congestión. La congestión en una red ATM se alcanza cuando uno de sus
recursos es explotado a un nivel próximo a su máximo rendimiento. En general, este
nivel de utilización se traduce en niveles de ocupación muy elevados de algunas colas
de espera de algunos nodos. El control de congestión debe regular el tráfico entrante en
la red, de forma que no se sobrepasen los niveles máximos de ocupación
dimensionados. El control de congestión se ejerce de dos maneras diferentes:
ii) Control de congestión reactivo. La regulación del tráfico se ejerce cuando la red
ha alcanzado un estado de ocupación próximo a la saturación de un recurso. Llegada
esta situación, la red puede hacer uso de tres mecanismos:
1-15
Capítulo 1
Las técnicas de control preventivo propuestas en las redes ATM se basan en el CAC
y en el UPC. Las estrategias de aceptación de nuevas conexiones en ATM son
actualmente un importante campo de investigación. El CAC está directamente
relacionado con la ubicación de recursos en la red y depende de la caracterización de las
fuentes de tráfico soportadas por la red. Dentro de las diferentes técnicas propuestas
para la determinación de los recursos necesarios de una conexión han recibido gran
acogida las desarrolladas en los trabajos de [Hui88], [AniMit82] y [GueGun92]. Una
asociación directa entre los parámetros aceptados como descriptores de tráfico y la
asignación de recursos se plantea en [ShiSai95].
Para asegurar que el servicio cumple con los parámetros descriptores de tráfico
prefijados durante el transcurso de la llamada, la red dispone de un dispositivo
denominado mecanismo de policía. La función del mecanismo de policía es monitorizar
en el acceso a la red el tráfico cursado y actuar eliminando celdas cuando se superen las
cotas de consumo de ancho de banda acordadas. Dos tipos de mecanismos de policía se
están estudiando unos basados en una ventana deslizante y otros basados en sistemas de
créditos como el Leaky Bucket y todas sus variantes [Rath91]. En [ZamMat93] se
realizó un estudio comparativo de las principales propuestas de funciones de policía.
Los mecanismos analizados son:
i) Cubo agujereado (Leaky Bucket, LB). Este mecanismo fue propuesto en [Tur86] y
se basa en una generación de créditos a intervalos regulares de tiempo (I) que se
almacenan en una cola de dimensión finita (L), de forma que, cada celda generada por el
servicio consume un crédito. Habitualmente, este mecanismo se implementa con un
simple contador, cuyo valor inicial, y máximo, es L. El contador se incrementa
periódicamente en una unidad cada intervalo I. Si la tasa de generación de celdas es
superior a la tasa de llegada de los créditos, el número de créditos del contador se
decrementa a la tasa diferencial entre la tasa de las llegadas y la de la generación de
créditos. Cuando una celda es transmitida y no se dispone de créditos, el mecanismo
entonces actúa marcándola o descartándola.
1-16
Introducción
N − γS i − 1
Ni = γ∈ [
0,1]
1− γ (1.3.2)
donde,
inicio
T=0
Llega celda en el no
instante t
yes
Ta=t
X=T+TRT
yes
X<Ta T=Ta
no
yes
Descartar celda X>Ta+τ
no
T=X
Almacenar celda y
retransmitir en T = instante de llegada de la
ART= T última celda aceptada
1-19
Capítulo 1
inicio
T=0
X=0
no Llega celda en
el instante t
yes
Ta = t
²X = X - (Ta-T)
yes
Descartar celda ²X > L
no
X = max(0,²X) + I
T = Ta
Celda aceptada
1-20
Introducción
El control por tasa es mucho más adecuado para las redes de alta velocidad debido a
la reducción de la complejidad de los nodos de la red. El control por tasa se realiza
notificando a la fuente el aumento o reducción de su tasa. Para evitar oscilaciones en el
tráfico de la red se suele emplear un aumento lineal y un decremento exponencial de la
tasa de la fuente. El control basado en créditos emplea el clásico mecanismo de ventana
deslizante para cada enlace lo cual lo hace desaconsejable dada la complejidad
introducida en cada nodo de la red cuando éste soporta un elevado número de
conexiones.
Dentro de las técnicas reactivas por tasa se han propuesto dos modos de señalización:
Control Algotihm (EPRCA) para las redes ATM en septiembre de 1994. El mecanismo
adoptado para el control reactivo se basa en la marcación de las celdas de información
enviadas desde la fuente al destino. Para la señalización, el nodo fuente inyecta celdas
de gestión hacia el nodo destino. Estas celdas incorporan un campo de sentido en el que
circulan y un bit de indicación de congestión. Tanto el receptor como los nodos
intermedios pueden alterar el indicador de señalización cuando la celda retorna hacia el
emisor. El nodo fuente sólo puede aumentar linealmente la tasa de generación cuando la
celda de gestión llega a su origen y no señaliza un estado de congestión. En caso
contrario, la fuente decrementa multiplicativamente su tasa.
A
Codificador Multiplexor
Vídeo Digital A
MPEG ATM
L
RED
ATM
A
Unidad de Descodificador Multiplexor
A
Presentación MPEG ATM
L
1-22
Introducción
Tras la aparición del MPEG-II, el ATM Forum inició los estudios del transporte de
información multimedia sobre redes ATM. Las primeras discusiones se centraban entre
emplear la sintaxis del entramado MPEG-II, para confeccionar la multiplexación de los
diferentes tipos de información, o establecer diferentes conexiones, de forma que la
multiplexación se realizará en la propia red. Los parámetros que permitían evaluar las
ventajas de cada técnica de multiplexación eran: los mecanismos de corrección de
errores, la variación del retardo de celdas y la sincronización [ATMFORUM/94-0570].
Como resultado previo, se llegó a la conclusión de que era más adecuado realizar la
transmisión empleando el entramado MPEG-II ( MPEG-II Transport Stream, MTS) por
las ventajas de sincronización que ofrecía en recepción, aprovechando las referencias
temporales (Program Clock Reference, PCR) que incorpora [VerSam96]. En cuanto a la
recuperación de reloj se propuso el mecanismo basado en la detección de fase de un
PLL digital planteado anteriormente en [VerPin88].
De entre los mecanismos de adaptación que permiten multiplexación se estudió el
AAL3/4. Esta clase de adaptación soporta, sobre una misma conexión, todos los flujos
de información. Este mecanismo estaba diseñado inicialmente para tráficos de clases C
y D. Tras el análisis del MTS realizado en [ATM-FORUM/93-1010] y [ATM-
FORUM/93-797] para ubicarlo en redes ATM, se llegó a la conclusión de emplear el
modo de adaptación AAL5. Este mecanismo permite mapear directamente las unidades
básicas de 188 octetos generados por el MTS en dos celdas ATM con un remanente de
señalización de 8 octetos de las unidades de datos AAL-5. A su vez, esta adopción
facilita las labores de interconexión de redes cuando los usuarios del servicio están
conectados en sistemas de comunicación heterogéneos.
Otra de las ventajas que ofrece la sintaxis MPEG-II es la especificación de diferentes
niveles que pueden ser empleados para distinguir resoluciones, espaciales o temporales,
y diferentes calidades de imagen. Este concepto, denominado escalabilidad, es
extraordinariamente útil para compatibilizar la recepción simultánea en diferentes
equipos de presentación. A su vez, se permite, con facilidad, la elección del nivel de
prioridad para las celdas, de forma que las celdas que transportan información
fundamental para obtener una calidad básica en la imagen se marcan con un nivel de
prioridad superior a las celdas que se emplean para transferir la información
complementaria [AigFaz95] [RiyLam95].
Esta técnica de escalabilidad de la relación señal a ruido (signal to noise ratio, SNR)
también puede ser empleada, distinguiendo, en vez de niveles de prioridad, dos posibles
conexiones con diferentes calidades de servicio y parámetros. Este tipo de transmisión
recibe el nombre de bi-nivel, dado que, en una conexión se inserta la información básica
y en la otra la complementaria. Se han realizado diferentes estudios sobre las ventajas
de la trasmisión bi-nivel y con señalización de prioridad. Las características de la
transmisión bi-nivel permiten emplear para cada flujo de información un tipo de
adaptación diferente y una calidad de servicio distinta. El tipo de servicio más adecuado
1-23
Capítulo 1
para el nivel básico es un servicio de clase A, manteniendo una tasa constante, y para el
nivel complementario es un servicio de clase B, con tasa variable. Dentro de los
diferentes estudios realizados se aconseja la ubicación de un 20% del ancho de banda en
el nivel básico y el resto en el nivel complementario. Obviamente, la transmisión bi-
nivel también puede realizarse con dos conexiones de tasa variable, aunque, esta
transmisión plantea mayores problemas de sincronización e incrementa la probabilidad
de pérdida por la multiplexación estadística del nivel básico. En la figura 1.4.2 se
plantea el esquema básico de transmisión bi-nivel.
Codificación
Diferenciación AAL 5
complementaria
A
Vídeo digital Decodificación + la red
ATM
1-24
Introducción
La inferencia de los modelos de tráfico para fuentes de vídeo MPEG VBR pasa
primero por una etapa de análisis del algoritmo de codificación. En el capítulo 2, se
evalúa la influencia de los distintos parámetros controlables del algoritmo MPEG en la
calidad de la imagen y en el rango de compresión. Este análisis se realiza empleando
criterios objetivos y subjetivos, determinando una adecuada elección del valor de los
parámetros en función del nivel de calidad deseado. Interpretando el tráfico generado
como una variable aleatoria, se realiza un estudio exhaustivo de los distintos parámetros
y funciones que lo pueden caracterizar. Este análisis nos permitirá establecer las
relaciones entre el valor de las variables que controlan el algoritmo de compresión
MPEG y el comportamiento estadístico del tráfico generado por el codificador. Algunos
de estos resultados fueron adelantados en [MatSal94].
La confección de modelos de tráfico de vídeo MPEG VBR se discute en el capítulo 3.
A partir de los resultados obtenidos en el capítulo 2, se ajustan distintos modelos
ligados a la tasa binaria generada por el codificador en tiempos de cuadro y de grupo de
imágenes. Asimismo, se desarrolla un predictor de la tasa binaria generada en un cuadro
para la suavización del tráfico entregado a la red. Los modelos propuestos son
autoregresivos y markovianos. Los modelos autoregresivos tienen la ventaja de ser
fácilmente programables a la hora de realizar simulaciones pero no ofrecen la
posibilidad de resultados analíticos cuando se estudian junto con los modelos de otros
elementos de la red. Los modelos basados en procesos de Markov, aunque son difíciles
de programar, presentan la ventaja de que, en algunos casos, se pueden obtener
resultados analíticos al estudiarlos junto a modelos de otros dispositivos. Parte de los
resultados de este capítulo se presentaron en [MatSal95].
El análisis de la transmisión de vídeo MPEG VBR sobre redes ATM se desarrolla en
el capítulo 4. En este capítulo se cuantifican las ventajas de la multiplexación estadística
para el tráfico MPEG VBR. A través de la caracterización del tráfico multiplexado se
propone una nueva técnica de modelado de tráfico agregado, basada en un modelo
autoregresivo. Algunos de los resultados obtenidos fueron avanzados en [MatSal96] y
[PagMat95]. A partir de los resultados obtenidos en el modelado de fuentes simples
1-25
Capítulo 1
1-26