Presentación
Nombres
Crisander Moreno (202010708)
Materia:
Conmutación y Enrutamiento
Tema:
Conceptos de Qos
Maestr@:
Onel Luis Pelegrino
Introducción
Este tema explicará el algoritmo de cola utilizado para implementar QoS.
Cuando el enlace está congestionado, se activará la política de QoS implementada por el
administrador de la red. Las colas son una herramienta de gestión de la congestión que
puede almacenar en búfer, priorizar y reordenar paquetes de datos antes de que lleguen
a su destino.
Priorización del tráfico
En el video anterior, aprendiste sobre el propósito de Calidad de Servicio (QoS).
Cuando el volumen de tráfico es mayor que el que se puede transportar a través de la
red, los dispositivos ponen en cola (retienen) los paquetes en la memoria hasta que los
recursos estén disponibles para transmitirlos. Ancho de banda, congestión, retraso y
fluctuación El ancho de banda de la red es la medida de la cantidad de bits que se
pueden transmitir en un segundo, es decir, bits por segundo (bps).
Cuando ocurre una congestión, los dispositivos de red como enrutadores y
conmutadores pueden descartar paquetes. En este tema aprenderá acerca de las
características del tráfico (voz, vídeo y datos). A principios de la década del 2000, los
tipos de tráfico IP predominantes eran voz y datos.
El tráfico de datos no es en tiempo real, y tiene una necesidad impredecible de ancho de
banda. Según el Índice de redes visuales de Cisco (VNI), el tráfico de video representó
el 70% de todo el tráfico en 2017. Además, el tráfico de vídeo móvil alcanzará 60,9
exabytes por mes para 2022, en comparación con 6,8 exabytes por mes en [Link] tipo
de demandas que el tráfico de voz, vídeo y datos coloca en la red son muy diferentes.
No tiene sentido retransmitir la voz si se pierden paquetes; por lo tanto, los paquetes de
voz deben recibir una prioridad más alta que otros tipos de tráfico.
A los fines de este curso, nos concentraremos en lo siguiente: Primero en entrar,
primero en salir (FIFO) Mecanismo de cola equitativo ponderado (WFQ) Mecanismo de
cola de espera equitativo y ponderado basado en clases (CBWFQ) Mecanismo de cola
de baja latencia (LLQ) Primero en la entrada En su forma más simple, las colas Primero
en entrar, primero en salir (FIFO), también conocidas como colas por orden de llegada,
almacenamientos intermedios y paquetes de reenvío en el orden de llegada. FIFO no
tiene concepto de prioridad ni clases de tráfico, por lo que no toma decisiones sobre la
prioridad de los paquetes.
Cuando no se configuran otras estrategias de colas, todas las interfaces, excepto las
interfaces seriales en E1 (2.048 Mbps) e inferiores, usan FIFO de manera
predeterminada. La WFQ clasifica el tráfico en distintos flujos basados en el
encabezado de manejo de paquetes, lo que incluye características como las direcciones
IP de origen y de destino, las direcciones MAC, los números de puerto, el protocolo y el
valor del tipo de servicio (ToS). Los flujos de tráfico de bajo ancho de banda, que
comprenden la mayoría del tráfico, reciben un servicio preferencial que permite que
todas sus cargas ofrecidas se envíen de manera oportuna.
Aunque WFQ se adapta automáticamente a las condiciones cambiantes del tráfico de
red, no ofrece el grado de control preciso sobre la asignación de ancho de banda que
ofrece CBWFQ. Con CBWFQ, usted define clases de tráfico basadas en criterios de
coincidencia que incluyen protocolos, listas de control de acceso (ACL) e interfaces de
entrada. Sin la LLQ, CBWFQ proporciona el WFQ según las clases definidas sin una
cola de prioridad estricta disponible para el tráfico en tiempo real. LLQ permite que los
paquetes sensibles al retraso, como la voz, se envíen primero (antes que los paquetes en
otras colas), dando a los paquetes sensibles al retraso un tratamiento preferencial sobre
otro tráfico.
Aunque es posible clasificar varios tipos de tráfico en tiempo real a la cola de prioridad
estricta, Cisco recomienda que solo el tráfico de voz se dirija a la cola de prioridad. El
modelo de mejor esfuerzo trata todos los paquetes de red de la misma manera, por lo
que un mensaje de voz de emergencia se trata de la misma manera que se trata una
fotografía digital adjunta a un correo electrónico.
Sin QoS, la red no puede conocer la diferencia entre paquetes y, como resultado, no
puede tratar a los paquetes de manera preferencial. Servicios integrados El modelo de
arquitectura IntServ (RFC 1633, 2211 y 2212) se desarrolló en 1994 para satisfacer las
necesidades de aplicaciones en tiempo real, como video remoto, conferencias
multimedia, aplicaciones de visualización de datos y realidad virtual. Hard QoS
garantiza las características de tráfico, como el ancho de banda, la demora y las
velocidades de pérdida de paquetes, de extremo a extremo. Por ejemplo, DiffServ puede
proporcionar un servicio garantizado de baja latencia para el tráfico de red crítico, como
voz o video, al tiempo que ofrece garantías de tráfico de mejor esfuerzo para servicios
no críticos como el tráfico web o las transferencias de archivos. Funciona en el modelo
que proporciona QoS, donde los elementos de red se configuran para mantener varias
clases de tráfico cada uno con requisitos de la QoS diferentes.
Evitar la pérdida de paquetes Ahora que ha aprendido acerca de las características del
tráfico, los algoritmos de cola y los modelos de QoS, es hora de aprender acerca de las
técnicas de implementación de QoS. Cisco IOS QoS proporciona mecanismos de colas,
como la detección temprana aleatoria ponderada (WRED), que comienzan a descartar
paquetes de menor prioridad antes de que ocurra la congestión. Tipo de servicio y
campo de clase de tráfico El tipo de servicio (IPv4) y la clase de tráfico (IPv6) llevan el
marcado de paquetes según lo asignado por las herramientas de clasificación de QoS.
Conocido como campo de punto de código de servicios diferenciados (DSCP), estos
seis bits ofrecen un máximo de 64 clases de servicio posibles.
COLA FIFO
La forma más simple es la cola de primero en entrar, primero en salir (FIFO), también
conocida como cola por orden de llegada, búfer y paquetes por orden de llegada.
FIFO no tiene un concepto de prioridad o clase de tráfico, por lo que no determina la
prioridad de los paquetes de datos. Solo hay una cola y todos los paquetes se tratan de la
misma manera. Los paquetes de datos se envían a la interfaz en el orden de llegada,
como se muestra en la figura. Aunque parte del tráfico puede ser más importante o
urgente según la clasificación de prioridad, recuerde que el tráfico se envía en el orden
en que se recibe.
Cuando se usa FIFO, cuando el enrutador o la interfaz del conmutador están
congestionados, se puede descartar el tráfico importante o urgente. Cuando no se
configura ninguna otra estrategia de cola, todas las interfaces excepto E1 (2048 Mbps) y
las interfaces seriales inferiores utilizan FIFO de forma predeterminada. (Los puertos
serie de E1 y siguientes utilizan WFQ de forma predeterminada).
WFQ
El algoritmo basado en flujo utilizado por WFQ también programa el tráfico interactivo
frente a la cola para reducir el tiempo de respuesta. Luego, comparte el ancho de banda
restante por igual entre los flujos de ancho de banda alto. WFQ le permite priorizar el
tráfico interactivo de bajo volumen (como las sesiones de voz y Telnet) sobre el tráfico
de alto volumen (como las sesiones de FTP). Cuando se producen varios flujos de
transferencia de archivos al mismo tiempo, se asigna un ancho de banda similar para la
transferencia.
Mecanismo de cola de espera equitativo y ponderado basado en clases (CBWFQ)
La ponderación equitativa ponderada basada en clases (CBWFQ) amplía la
funcionalidad estándar WFQ para proporcionar soporte para las clases de tráfico
definidas por el usuario. Con CBWFQ, usted define clases de tráfico basadas en
criterios de coincidencia que incluyen protocolos, listas de control de acceso (ACL) e
interfaces de entrada. Los paquetes que cumplen los criterios de coincidencia para una
clase constituyen el tráfico para esa clase. Se reserva una cola FIFO para cada clase y el
tráfico de cada clase se dirige a la cola de dicha clase, como se muestra en la figura.
LLQ
La función de cola de baja latencia (LLQ) trae la cola de prioridad estricta (PQ) a
CBWFQ. Strict PQ permite que los paquetes sensibles al retardo (como la voz) se
envíen antes que los paquetes en otras colas. LLQ proporciona una cola de prioridad
estricta para CBWFQ, lo que reduce la fluctuación en las llamadas de voz, como se
muestra en la figura.
LLQ permite que los paquetes de datos sensibles al retraso, como la voz, se envíen
primero (antes que los paquetes de datos en otras colas), dando prioridad a los paquetes
de datos sensibles al retraso sobre otro tráfico. Aunque varios tipos de tráfico en tiempo
real se pueden clasificar en colas de prioridad estrictas, Cisco recomienda que solo el
tráfico de voz se dirija a las colas de prioridad.
Selección de un modelo adecuado de política de la QoS
¿Cómo se puede implementar QoS en una red? Hay tres modelos para implementar
QoS:
Servicio mínimo
El diseño básico de Internet es la entrega de paquetes con el mejor esfuerzo y no ofrece
ninguna garantía. Este método sigue siendo popular en Internet hoy en día y sigue
siendo adecuado para la mayoría de los propósitos. El modelo de mejor esfuerzo trata
todos los paquetes de red por igual, por lo que los mensajes de voz de emergencia se
manejan de la misma manera que las fotos digitales adjuntas a los correos electrónicos.
Sin QoS, la red no puede conocer la diferencia entre los paquetes de datos y, por lo
tanto, no puede priorizar los paquetes de datos.
La tabla enumera los beneficios y las desventajas del modelo de mejor esfuerzo.
Servicios integrados
IntServ proporciona la calidad de servicio de un extremo a otro requerida para
aplicaciones en tiempo real. IntServ gestiona explícitamente los recursos de la red para
proporcionar QoS a flujos o flujos individuales (a veces llamados microflujos). Utiliza
mecanismos de reserva de recursos y control de admisión como bloques de construcción
para establecer y mantener la QoS. Esto es similar al concepto llamado "QoS dura".
Hard QoS garantiza las características del tráfico de un extremo a otro, como el ancho
de banda, el retraso y la tasa de pérdida de paquetes. Hard QoS asegura que los niveles
de servicio de las aplicaciones críticas sean predecibles y estén garantizados.
IntServ utiliza un enfoque orientado a la conexión heredado del diseño de la red
telefónica. Cada comunicación individual debe especificar claramente su descriptor de
tráfico y los recursos solicitados de la red. El enrutador de borde realiza el control de
admisión para garantizar que haya suficientes recursos disponibles en la red. El estándar
IntServ supone que los enrutadores a lo largo de la ruta configuran y mantienen el
estado de cada comunicación individual.
Servicios diferenciados
El modelo de QoS de servicios diferenciados (DiffServ) especifica un mecanismo
simple y extensible para clasificar y administrar el tráfico de la red. Por ejemplo,
DiffServ puede proporcionar servicios garantizados de baja latencia para el tráfico de
red crítico (como voz o video), al mismo tiempo que ofrece garantías de tráfico de
mejor esfuerzo para servicios no críticos (como tráfico web o transferencia de archivos).
El modelo DiffServ es similar al concepto de utilizar un servicio de entrega para enviar
paquetes. Solicita (y paga) un cierto nivel de servicio cuando envía el paquete. En la red
de paquetes, se identificará el nivel de servicio que pagó y se proporcionarán servicios
normales o preferenciales para su paquete de acuerdo con su solicitud
DiffServ no es una estrategia de QoS de un extremo a otro porque no puede
proporcionar garantías de un extremo a otro. Sin embargo, el modelo DiffServ es una
forma más escalable de lograr QoS. A diferencia de IntServ y QoS dura (donde el host
final envía sus requisitos de QoS a la red), DiffServ no usa señalización. Por el
contrario, DiffServ utiliza un enfoque de "QoS suave". Se ejecuta en el modelo
proporcionado por QoS, donde los elementos de red están configurados para admitir
múltiples clases de tráfico, cada uno con diferentes requisitos de QoS.
Conclusión
Cada uno de los temas debatidos en este módulo fueron muy buenos saber sobre ellos,
especialmente cuando se expuso sobre la calidad de QoS, todo fue muy interesante, y
cada punto fue aclarado y presentado de la manera correcta.