15 de mayo de 2023
Redes de computadoras
Las redes informáticas o redes de computadoras son dos o más ordenadores
conectados entre sí que comparten recursos, de manera que sus usuarios pueden
intercambiar información, compartir archivos, usar la misma impresora o incluso
ejecutar programas en otros ordenadores.
El término red hace referencia a un conjunto de sistemas informáticos
independientes conectados entre sí, de tal forma que posibilitan un
intercambio de datos, para lo que es necesario tanto la conexión física como
la conexión lógica de los sistemas. Esta última se establece por medio de unos
protocolos de red especiales, como es el caso de TCP (Transmission Control Protocol).
Recuerde que “dos ordenadores conectados entre sí ya pueden considerarse una
red”.
Las redes se pueden categorizar de la siguiente manera:
• Según su localización o área geográfica que abarca o alcance:
PAN (Personal Area Network – Red de área personal)
LAN (Local Area Network – Red de área local)
MAN (Metropolitan Area Network – Red de área metropolitana)
WAN (Wide Area Network – Red de área amplia)
GAN (Global Area Network - Red de área global)
VPN (Virtual Private Network – Red privada virtual)
Algunas definiciones:
Una red de área local o LAN (por las siglas en inglés Local Area Network) es una red de
computadoras que abarca un área reducida a una casa, un departamento o un edificio.
Una red PAN, abreviatura del inglés Personal Area Network, y cuya traducción al español significa Red
de Área Personal, es básicamente una red integrada por todos los dispositivos en el entorno local y
cercano de su usuario, es decir que la componen todos los aparatos que están cerca del mismo.
15 de mayo de 2023
15 de mayo de 2023
WBAN o BAN (Wireless Body Area Network), red de área corporal, es una red de
comunicación inalámbrica entre dispositivos de baja potencia utilizados en el
cuerpo, consiste en un conjunto móvil y compacto de comunicación entre, por
ejemplo, micrófonos, auriculares, sensores, etc.
CAN (Campus Area Network), es una red que se utiliza sobre todo en facultades y
campus universitarios, es una red informática que conecta varios edificios en una
propiedad grande. Las CAN interconectan varias redes de área local (LAN) dentro
de un campus educativo o corporativo.
RAN (Radio Area Network), es una red de acceso por radio, es parte de un sistema
de telecomunicaciones móviles. Implementa una tecnología de acceso por radio.
Conceptualmente, reside entre un dispositivo como un teléfono móvil, una
computadora o cualquier máquina controlada de forma remota y proporciona
conexión con su red central.
Las redes se configuran con el objetivo de transmitir datos de un sistema a otro o
de disponer recursos en común, como servidores, bases de datos o impresoras. En
función del tamaño y del alcance de la red de ordenadores, se puede establecer
una diferenciación entre diversas dimensiones de red.
La conexión física en la que se basan estos tipos de redes puede
presentarse por medio de cables o llevarse a cabo con tecnología
inalámbrica. A menudo, las redes físicas conforman la base para varias
redes de comunicación lógicas, las llamadas Virtual Private Networks (VPN).
Para la transmisión de datos, estas emplean un medio de transmisión físico
común como puede ser la fibra óptica y se vinculan de forma lógica a
diferentes tipos de redes virtuales por medio de un software de
tunelización.
Cada uno de los diferentes tipos de redes está diseñado para ámbitos de
aplicación particulares, se basan en técnicas y estándares propios y
plantean ventajas y restricciones variadas.
Personal Area Network (PAN)
Para llevar a cabo un intercambio de datos, los terminales modernos como
smartphones, tablets, ordenadores portátiles o equipos de escritorio
permiten asociarse ad hoc a una red. Esto puede realizarse por cable y
15 de mayo de 2023
adoptar la forma de una Personal Area Network (PAN) o red de área
personal, aunque las técnicas de transmisión más habituales son la
memoria USB o el conector FireWire. La variante inalámbrica Wireless
Personal Area Network (WPAN) se basa en técnicas como Bluetooth,
Wireless USB, Insteon, IrDA, ZigBee o Z-Wave. Una Personal Area Network
inalámbrica que se lleva a cabo vía Bluetooth recibe el nombre de Piconet.
El ámbito de acción de las redes PAN y WPAN se limita normalmente a unos
pocos metros y, por lo tanto, no son aptas para establecer la conexión con
dispositivos que se encuentran en habitaciones o edificios diferentes.
Además de establecer la comunicación entre cada uno de los dispositivos
entre sí, las redes de área personal (Personal Area Networks) permiten,
asimismo, la conexión con otras redes de mayor tamaño. En este caso se
puede hablar de un uplink o de un enlace o conexión de subida. Debido al
alcance limitado y a una tasa de transmisión de datos relativamente baja,
las PAN se utilizan principalmente para conectar periféricos en el ámbito del
ocio y de los hobbies. Algunos ejemplos típicos son los auriculares
inalámbricos, las videoconsolas y las cámaras digitales. En el marco del
Internet of Things (IoT), las redes WPAN se utilizan para la comunicación de
las aplicaciones de control y monitorización con una frecuencia de
transferencia baja. A este respecto, los protocolos como Insteon, Z-Wave y
ZigBee han sido diseñados especialmente para la domótica y para la
automatización del hogar.
Local Area Network (LAN)
Una red local de tales características puede incluir a dos ordenadores en
una vivienda privada o a varios miles de dispositivos en una empresa.
Asimismo, las redes en instituciones públicas como administraciones,
colegios o universidades también son redes LAN. Un estándar muy
frecuente para redes de área local por cable es Ethernet. Otras opciones
menos comunes y algo obsoletas son las tecnologías de red ARCNET, FDDI
y Token Ring. La transmisión de datos tiene lugar o bien de manera
electrónica a través de cables de cobre, mediante fibra óptica de vidrio o
bien de manera inalámbrica.
Si se conectan más de dos ordenadores en una red LAN, se necesitan otros
componentes de red como hubs, puentes y switches, es decir,
concentradores, puentes de red y conmutadores, los cuales funcionan como
elementos de acoplamiento y nodos de distribución. El tipo de red conocido
como LAN o red de área local fue desarrollado para posibilitar la rápida
transmisión de cantidades de datos más grandes. En función de la
estructura de la red y del medio de transmisión utilizado se puede hablar
de un rendimiento de 10 a 10.000 Mbit/s. Asimismo, las redes LAN permiten
un intercambio de información cómodo entre los diversos dispositivos
conectados a la red. Por ello, en el entorno empresarial es habitual que
varios equipos de trabajo puedan acceder a servidores de archivos
comunes, a impresoras de red o a aplicaciones por medio de la red LAN.
Si la red local tiene lugar de manera inalámbrica, se puede hablar en este
caso de una Wireless Local Area Network (WLAN) o red de área local
inalámbrica y los fundamentos básicos de los estándares de la red WLAN
quedan definidos por la familia de normas IEEE 802.11. Las redes locales
inalámbricas ofrecen la posibilidad de integrar terminales cómodamente en
una red doméstica o empresarial y son compatibles con redes LAN
Ethernet, aunque el rendimiento es, en este caso, algo menor que el de una
conexión Ethernet.
15 de mayo de 2023
El alcance de una Local Area Network depende tanto del estándar usado
como del medio de transmisión y aumenta a través de un amplificador de
señal que recibe el nombre de repetidor (repeater). En el caso de la
ampliación Gigabit Ethernet por medio de fibra de vidrio, se puede llegar a
un alcance de señal de varios kilómetros. No resulta muy habitual, sin
embargo, que las Local Area Networks estén formadas por más de una
estructura. El grupo de redes LAN geográficamente cercanas puede
asociarse a una Metropolitan Area Network (MAN) o Wide Area Network
(WAN) superiores.
Metropolitan Area Network (MAN)
La Metropolitan Area Network (MAN) o red de área metropolitana es una
red de telecomunicaciones de banda ancha que comunica varias redes LAN
en una zona geográficamente cercana.
Una red MAN es aquella que, a través de una conexión de alta velocidad,
ofrece cobertura en una zona geográfica extensa (como una ciudad o un
municipio).
El estándar para redes inalámbricas regionales de mayor envergadura, es
decir, las denominadas Wireless Metropolitan Area Networks (WMAN), fue
desarrollado con IEEE 802.16. Esta tecnología de WiMAX (Worldwide
Interoperability for Microwave Access) permite crear las llamadas redes
WLAN hotzones, que consisten en varios puntos de acceso WLAN
interconectados en diferentes localizaciones. Las redes WMAN se utilizan
para ofrecer a los usuarios una potente conexión a Internet en aquellas
regiones que carecen de infraestructura para ello, y es que el DSL, el
estándar habitual de transmisión, solo está disponible técnicamente donde
hay hilos de cobre.
15 de mayo de 2023
Wide Area Network (WAN)
Mientras que las redes Metropolitan Area Networks comunican puntos que
se encuentran cerca unos de los otros en regiones rurales o en zonas de
aglomeraciones urbanas, las Wide Area Networks (WAN) o redes de área
amplia se extienden por zonas geográficas como países o continentes. El
número de redes locales o terminales individuales que forman parte de una
WAN es, en principio, ilimitado.
Mientras que las redes LAN y las MAN pueden establecerse a causa de la
cercanía geográfica del ordenador o red que se tiene que conectar en base
a Ethernet, en el caso de las Wide Area Networks entran en juego técnicas
como IP/MPLS (Multiprotocol Label Switching), PDH (Plesiochronous Digital
Hierarchy), SDH (Synchronous Digital Hierarchy), SONET (Synchronous
Optical Network), ATM (Asynchronous Transfer Mode) y, rara vez, el
estándar obsoleto X.25.
En la mayoría de los casos, las Wide Area Networks suelen pertenecer a
una organización determinada o a una empresa y se gestionan o alquilan
de manera privada. Los proveedores de servicios de Internet también
hacen uso de este tipo de redes para conectar las redes corporativas
locales y a los consumidores a Internet.
15 de mayo de 2023
Global Area Network (GAN)
Una red global como Internet recibe el nombre de Global Area Network
(GAN), sin embargo, no es la única red de ordenadores de esta índole. Las
empresas que también son activas a nivel internacional mantienen redes
aisladas que comprenden varias redes WAN y que logran, así, la
comunicación entre los ordenadores de las empresas a nivel mundial. Las
redes GAN utilizan la infraestructura de fibra de vidrio de las redes de área
amplia (Wide Area Networks) y las agrupan mediante cables submarinos
internacionales o transmisión por satélite.
Internet se podría definir como una red global de redes de ordenadores
cuya finalidad es permitir el intercambio libre de información entre todos
sus usuarios. Pero sería un error considerar Internet únicamente como una
red de computadoras. Podemos considerar las computadoras simplemente
como el medio que transporta la información. En este caso Internet sería
una gran fuente de información práctica y divertida. Con Internet podemos
enviar mensajes, programas ejecutables, ficheros de texto, consultar
catálogos de bibliotecas, pedir libros, hacer compras, ... Hay que tener en
cuenta que todos los recursos que se pueden encontrar en Internet existen
porque alguna persona de forma voluntaria ha dedicado su tiempo en
generarlos.
15 de mayo de 2023
Virtual Private Network (VPN)
Una red privada virtual (VPN) es una red de comunicación virtual que utiliza
la infraestructura de una red física para asociar sistemas informáticos de
manera lógica. En este sentido, se puede tratar de todos los tipos de
redes expuestos anteriormente. Lo más común es utilizar Internet como
medio de transporte, ya que este permite establecer la conexión entre
todos los ordenadores a nivel mundial y, al contrario de lo que ocurre con
las redes MAN o WAN privadas, está disponible de forma gratuita. La
transferencia de datos tiene lugar dentro de un túnel virtual entre un
cliente VPN y un servidor VPN.
Si se utiliza la red pública como medio de transporte, las Virtual Private
Networks o redes privadas virtuales suelen cifrarse para garantizar la
confidencialidad de los datos. Las VPN se emplean para conectar redes LAN
en Internet o para hacer posible el acceso remoto a una red o a un único
ordenador a través de la conexión pública.
Small Office Home Office (SOHO)
La red SOHO (Small Office and Home Office Networks) permite que las
computadoras en una oficina hogareña o remota se conecten a una red
corporativa o accedan a recursos compartidos centralizados. Dado que la
carga de trabajo de este tipo de empresas suele estar principalmente en
15 de mayo de 2023
Internet, requieren una red de área local (LAN), lo que significa que su
hardware de red está estructurado específicamente para ese fin. Una red
SOHO puede ser una red mixta de ordenadores alámbricos e inalámbricos
al igual que otras redes locales. Dado que este tipo de redes están
destinadas a las empresas, también tienden a incluir impresoras y, a veces,
tecnología de voz sobre IP (VoIP) y fax sobre IP.
• Según su relación funcional:
Cliente-servidor:
Esquema de red en el que un equipo o programa llamado cliente
hace solicitudes a otro llamado servidor, quien las procesa y envía
respuesta.
Igual a Igual (P2P – Peer to Peer):
Estructura de redes formada por un conjunto de nodos que se
comportan simultáneamente como clientes y como servidores.
• Según su estructura:
Estructura de capas indicando las responsabilidades de cada una de ellas.
Redes OSI o Modelo OSI (Open System Interconnection)
15 de mayo de 2023
7 - Aplicación
6 - Presentación
5 – Sesión
4 – Transporte
3 – Red
2 – Enlace
1 – Física
Redes TCP/IP (Tansmission Control Protocol / Internet Protocol)
4 – Aplicación
3 – Transporte
2 – Internet
1 – Acceso al medio
• Según su topología:
Lógica: es la forma en que los hosts acceden a los medos para enviar los datos.
Broadcast: simplemente significa que cada host envía sus datos hacia todos los
demás hosts del medio de red. No existe un orden que las estaciones
deban seguir para utilizar la red. Es por orden de llegada, es como, fun-
ciona Ethernet.
Transmisión de token: controla el acceso a la red mediante la transmisión de
un token electrónico a cada host de forma secuencial.
Cuando un host recibe el token, ese host puede enviar da-
tos a través de la red. Si el host no tiene ningún dato para
enviar, transmite el token al siguiente host y el proceso se
vuelve a repetir. Dos ejemplos de redes que utilizan la
transmisión de tokens son Token Ring y la interfaz de da-
tos distribuida por fibra (FDDI).
Física: es la disposición real de los cables o medios.
Bus
Estrella
Anillo
Malla
Árbol o híbridas
• Según las técnicas de transmisión:
Redes de d¡fusión (broadcast)
Presentan un único canal de comunicación, compartido por todos
los usuarios. Los paquetes que se transmiten a través de estas
redes son recibidos por todas las máquinas, pero los campos de
dirección que lo identifican permiten que el destinatario lo
reconozca y lo procese, mientras que los demás usuarios lo
descartan. Los mensajes también pueden ser enviados a un
subconjunto de máquinas, lo cual se conoce como multidifusión
(multicasting).
Redes multipunto (multicast)
A modalidad de multicast tiene puntos en común con broadcast,
debido a también que se utiliza para el envío de información de for-
ma masiva a un grupo de múltiples destinatarios. Sin embargo, se
15 de mayo de 2023
realiza de forma más eficiente y controlada, ya que utiliza agrupa-
mientos para separar los destinatarios específicos y se implementa
con la inteligencia de no replicar el contenido enviado dentro de un
mísmo enlace por más haya más de un destino. De esta forma, se
logra un aprovechamiento más eficiente y mejor uso de los recur-
sos disponible.
Redes punto a punto (unicast)
Presentan múltiples conexiones entre pares de máquinas. Los
paquetes, podrían tener que pasar por varias máquinas en su
camino hacia el destinatario final.
Características de una red de ordenadores
Existen una serie de características que te permiten definir la funcionalidad de tu red
de ordenadores, tanto si tienes una instalación de cableado estructurado UTP como si
utilizas una red inalámbrica. Para medir el rendimiento de tu red tendrás que prestar
atención a los siguientes aspectos.
Las redes deben admitir una amplia variedad de aplicaciones y servicios, así como
también funcionar con diferentes tipos de infraestructuras físicas. El término
arquitectura de red, en este contexto, se refiere a las tecnologías que admiten la
infraestructura y a los servicios y protocolos programados que pueden trasladar los
mensajes en toda esa infraestructura. Debido a que Internet evoluciona, al igual que
las redes en general, descubrimos que existen características básicas que la
arquitectura subyacente necesita para cumplir con las expectativas de los usuarios:
tolerancia a fallas, escalabilidad, calidad del servicio, seguridad, etc.
Como se muestra en la ilustración, existen muchas características clave relacionadas
con las estructuras y el rendimiento a las cuales nos referimos cuando hablamos de
redes:
15 de mayo de 2023
Como se muestra en la ilustración, existen muchas características clave relacionadas
con las estructuras y el rendimiento a las cuales nos referimos cuando hablamos de
redes:
Topología: existen topologías físicas y lógicas. La topología física es la disposi-
ción de los cables, los dispositivos de red y los sistemas finales. Esta describe la
forma en que los dispositivos de red se interconectan con los hilos y cables. La
topología lógica es la ruta por la cual se transfieren los datos en una red. Descri-
be cómo aparecen conectados los dispositivos de red a los usuarios de la red.
Costo: el costo indica el gasto general de la adquisición de componentes de
red, así como de la instalación y el mantenimiento de la red.
Velocidad: la velocidad mide la velocidad de datos de un enlace dado en la red
en bits por segundo (b/s).
Seguridad: la seguridad indica el nivel de protección de la red, incluida la infor-
mación que se transmite a través de esta. El tema de la seguridad es importan-
te, y las técnicas y las prácticas están en constante evolución. Siempre tenga en
cuenta la seguridad cuando se tomen medidas que afecten la red.
Disponibilidad: la disponibilidad es la probabilidad de que la red esté
disponible para ser utilizada cuando resulte necesario. Es decir, La red tiene que
estar disponible y activa gran parte del tiempo.
Escalabilidad: la escalabilidad indica la facilidad con la que la red puede admi-
tir más usuarios y requisitos de transmisión de datos. Si un diseño de red está
optimizado para cumplir solo con los requisitos actuales, puede resultar muy di-
fícil y costoso satisfacer nuevas necesidades cuando la red crezca.
Confiabilidad: la confiabilidad indica la fiabilidad de los componentes que
crean la red (grado de probabilidad de que uno de los nodos de la red se averíe),
como los routers, los switches, las computadoras y los servidores. A menudo, la
confiabilidad se mide como la probabilidad de fallas o como el tiempo medio en-
tre fallas (MTBF).
La calidad de servicio (QoS, Quality of Service): también es un requisito
cada vez más importante para las redes hoy en día. Las nuevas aplicaciones dis-
ponibles para los usuarios en internetworks, como las transmisiones de voz y de
vídeo en vivo generan expectativas más altas sobre la calidad de los servicios
que se proporcionan. ¿Alguna vez intentó mirar un vídeo con interrupciones y
pausas constantes? A medida que el contenido de datos, voz y vídeo sigue con-
vergiendo en la misma red, QoS se convierte en un mecanismo principal para
administrar la congestión y garantizar el envío confiable de contenido a todos
los usuarios.
Estas características y atributos proporcionan un medio para comparar distintas solu-
ciones de redes.
Nota: si bien el término “velocidad” se utiliza comúnmente para referirse al ancho de
banda de red, no es del todo preciso. La velocidad propiamente dicha a la que se
transmiten los bits no varía en el mismo medio. La diferencia en el ancho de banda se
debe a la cantidad de bits transmitidos por segundo, no a la velocidad a la que se
trasladan a través del medio cableado o inalámbrico.
15 de mayo de 2023
Ventajas
• Mayor facilidad en la comunicación entre usuarios
• Reducción en el presupuesto para software y/o hardware
• Posibilidad de organizar grupos de trabajo
• Mejoras en la administración de los equipos y programas
• Mejoras en la integridad de los datos
• Mayor seguridad para acceder a la información
Desventajas
• Mayor riesgo de inseguridad, debido a hackers o virus.
• Puede costar el mantenimiento.
• Si no hay servidor ser puede producir una sobrecarga de la computadora.
• Si tenemos servidor y éste deja de funcionar, puede provocar una paralización
de la red.
Topologías de redes
La topología de red se define como el mapa físico o lógico de una red para
intercambiar datos. En otras palabras, es la forma en que está diseñada la red, sea en
el plano físico o lógico. El concepto una curva se intercepta a sí misma. Lo que un
nodo es concretamente depende del tipo de red en cuestión.
Un ejemplo claro de esto es la topología de árbol, la cual es llamada así por su
apariencia estética, por la cual puede comenzar con la inserción del servicio de
internet desde el proveedor, pasando por el router, luego por un switch y este deriva a
otro switch u otro router o sencillamente a los hosts (estaciones de trabajo), el
resultado de esto es una red con apariencia de árbol porque desde el primer router
que se tiene se ramifica la distribución de Internet, dando lugar a la creación de
nuevas redes o subredes tanto internas como externas. Además de la topología
estética, se puede dar una topología lógica a la red y eso dependerá de lo que se
necesite en el momento.
En algunos casos, se puede usar la palabra arquitectura en un sentido relajado para
hablar a la vez de la disposición física del cableado y de cómo el protocolo considera
dicho cableado. Así, en un anillo con un concentrador (unidad de acceso a múltiples
15 de mayo de 2023
estaciones, MAU) podemos decir que tenemos una topología en anillo, o de que se
trata de un anillo con topología en estrella.
La topología de red la determina únicamente la configuración de las conexiones entre
nodos. La distancia entre los nodos, las interconexiones físicas, las tasas de
transmisión y los tipos de señales no pertenecen a la topología de la red, aunque
pueden verse afectados por la misma.
Dentro del concepto de topología se pueden diferenciar dos aspectos. Topología física
y topología lógica.
La topología física
Se refiere a las conexiones físicas e identifica cómo se interconectan los dispositivos
finales y de infraestructura, como los routers, los switches y los puntos de acceso
inalámbrico.
Tipos de topologías físicas
Según sea la distribución que tengamos pensada para el diseño de una red, será
utilizado un tipo de topología específica. Entre las principales topologías de red
tenemos las siguientes:
Punto a punto
La topología más simple es un enlace permanente entre dos puntos finales (también
conocida como point-to-point, o abreviadamente, P2P). La topología punto a punto
conmutado es el modelo básico de la telefonía convencional. El valor de una red
permanente de punto a punto la comunicación sin obstáculos entre los dos puntos
finales. la comunicación entre aplicaciones que permite a individuos comunicarse y
compartir información con otros individuos sin necesidad de un servidor central que
facilite la comunicación.
Topología p2p
Topología de Anillo
Es un tipo de topología de red simple, en donde las estaciones de trabajo o computa-
doras, se encuentran conectadas entre sí en forma de un anillo, es decir, forman un
círculo entre ellas. La información viaja en un solo sentido, por lo tanto, que si un nodo
deja de funcionar se cae la red o deja de abastecer información a las demás computa-
doras que se encuentran dentro del anillo, por lo tanto, es poco eficaz. En una red
grande, es posible que se necesiten repetidores para evitar la pérdida de paquetes
durante la transmisión. Las topologías de anillo se pueden configurar como anillo úni-
co (half-dúplex) o anillo doble (full-dúplex) para permitir que el tráfico fluya en ambas
direcciones simultáneamente.
15 de mayo de 2023
Topología de Anillo
Ventajas:
Costo beneficio
Barato de instalar
Problemas de rendimiento fáciles de identificar
Desventajas:
Si un nudo cae, puede caer varios nudos con él.
Todos los dispositivos comparten ancho de banda, lo que puede limitar el rendi-
miento de trasferencias.
Agregar o eliminar nodos significa tiempo de inactividad para toda la red
Topología de Bus
La topología de Bus se basa en un cable central, el cual lleva la información a todas
las computadoras de la red, en forma de ramificaciones, de modo, que la información
viaja de manera secuencial hacia los nodos de la red. En la actualidad es muy poco
utilizada.
Topología de Bus
Ventajas:
Económico para redes más pequeñas
Diseño simple; todos los dispositivos conectados a través de un cable
15 de mayo de 2023
Se pueden agregar más nodos alargando la línea
Desventajas:
Un problema en el canal usualmente degrada toda la red.
Cada nodo agregado disminuye la velocidad de transmisión.
El canal requiere ser correctamente cerrado (caminos cerrados).
Alta pérdida en la transmisión debido a colisiones entre mensajes.
Hay un límite de equipos dependiendo de la calidad de la señal.
Topología de Estrella
Acá la distribución de la información va desde un punto central o Host, hacia todos los
destinos o nodos de la red. En la actualidad, es muy utilizada por su eficiencia y
simpleza. Se puede notar que el Host realiza todo el trabajo (una especie de servidor
local que administra los servicios compartidos y la información).
Topología de Estrella
Ventajas:
Gestión conveniente desde una ubicación central
Si un nodo falla, la red aún funciona
Los dispositivos se pueden agregar o apartar sin interrumpir la red
Más fácil de identificar y aislar los problemas de rendimiento
Desventajas:
Si el dispositivo central falla, toda su red dejará de funcionar.
El rendimiento y el ancho de banda están limitados por el nodo central
Puede ser costoso de operar
Topología de Árbol
15 de mayo de 2023
Topología de Árbol
Este tipo de topología de red es una de las más sencillas. Como su nombre lo indica,
las conexiones entre los nodos (terminales o computadoras) están dispuestas en
forma de árbol, con una punta y una base. Es similar a la topología de estrella y se
basa directamente en la topología de bus. Si un nodo falla, no se presentan problemas
entre los nodos subsiguientes. Cuenta con un cable principal llamado Backbone, que
lleva la comunicación a todos los nodos de la red, compartiendo un mismo canal de
comunicación.
Ventajas:
Extremadamente flexible y escalable
Facilidad para identificar errores, ya que cada branch (rama) de la red puede
diagnosticarse individualmente.
Desventajas:
Si falla un hub central, los nodos se desconectarán (aunque las ramas pueden
seguir funcionando de forma independiente)
La estructura puede ser difícil de gestionar de forma eficaz
Utiliza mucho más cableado que otros métodos.
Topología de Malla (Mesh)
Esta topología de Malla es definida como topología de trama. Se trata de un arreglo de
interconexión de nodos (terminales) entre sí, realizando la figura de una malla o
trama. Es una topología muy utilizada entre las redes WAN o de área amplia. Su
importancia radica en que la información puede viajar en diferentes caminos, de
manera que, si llegara a fallar un nodo, se puede seguir intercambiando información
sin inconveniente alguno entre los nodos.
15 de mayo de 2023
Topología de Malla
Ventajas:
confiable y estable
Ningún fallo de un solo nodo desconecta la red
Desventajas:
Grado complejo de interconectividad entre nodos.
Mano de obra intensiva para instalar
Utiliza mucho cableado para conectar todos los dispositivos.
Topología Híbrida
Como su nombre lo indica, es una combinación de dos o más topologías de red
diferentes, para adaptar la red a las necesidades del cliente. De este modo, podemos
combinar las topologías que deseemos, obteniendo infinitas variedades, las cuales,
deben ajustarse a la estructura física del lugar en donde estará la red y los equipos
que estarán conectados en dicha red.
Su implementación se debe a la complejidad de la solución de red, o bien al aumento
en el número de dispositivos, lo que hace necesario establecer una topología de este
tipo. Las topologías híbridas tienen un costo muy elevado debido a su administración
y mantenimiento, ya que cuentan con segmentos de diferentes tipos, lo que obliga a
invertir en equipo adicional para lograr la conectividad deseada.
15 de mayo de 2023
Topología Híbrida o Mixta
Ventajas:
Flexibilidad
Puede personalizarse según las necesidades del cliente.
Desventajas:
La complejidad aumenta
Se requiere experiencia en múltiples topologías
Puede ser más difícil determinar los problemas de rendimiento.
¿Qué topología es mejor para su red?
No existe una respuesta correcta o incorrecta a la pregunta de qué topología es mejor
para su red. En muchos casos, todo se reduce al nivel de comodidad y la cantidad de
redundancia que necesita.
El costo también juega un papel importante. Cuantos más cables necesite y más com-
pleja sea la topología, más costosa y lenta será su instalación y administración.
Sea cual sea su elección, es importante que planifique con anticipación. A medida que
las necesidades comerciales cambian y evolucionan, es probable que deba agregar,
eliminar o cambiar dispositivos. Dependiendo de su elección, puede ser más fácil (o
más difícil) dimensionar. Una de las razones por las que muchas organizaciones eligen
topologías en estrella es porque es fácil realizar cambios sin interrupciones significati-
vas.
La topología lógica
Se refiere al trayecto seguido por las señales a través de la topología física, es decir,
la manera en que las estaciones se comunican a través del medio físico. Las
estaciones se pueden comunicar entre sí, directa o indirectamente, siguiendo un
trayecto que viene determinado por las condiciones en cada momento.
Los dos tipos más comunes de topologías lógicas son broadcast y
transmisión de tokens.
Topología broadcast, cada equipo envía sus datos hacia todos los demás equipos del
medio de red. Las estaciones envían su información según el orden de llegada. Un
ejemplo de este tipo de topología es Ethernet.
15 de mayo de 2023
Topología transmisión de tokens, el acceso a la red es controlado mediante la
transmisión de un token electrónico (serie especial de bits) a cada equipo de forma
secuencial. Cuando un host recibe el token se le permite enviar datos a través de la
red. Si el host no tiene ningún dato para enviar, transmite el token al siguiente host ya
que existe sólo un token por cada red. Un ejemplo de red que utiliza la transmisión de
tokens es Token Ring.
Los nodos de los extremos que se comunican en una red punto a punto pueden estar
conectados físicamente a través de una cantidad de dispositivos intermediarios. Sin
embargo, el uso de dispositivos físicos en la red no afecta la topología lógica.
Una red puede tener un tipo de topología lógica y un tipo de topología física
completamente distintas. Por ejemplo, Ethernet, el tipo de red más frecuente,
utiliza una estrella o una topología física en estrella extendida y una topología lógica
en broadcast. Token Ring utiliza una estrella física y un anillo lógico. La Interfaz de
datos distribuidos por fibra (FDDI) utiliza una topología física de anillo y una topología
lógica de anillo.
Diagrama de topología lógica
Es un diagrama en donde se especifica el tipo de dispositivos utilizados en la red, los
puertos en donde se conectan, los medios de red y el direccionamiento ip. Este
diagrama ayuda a entender la forma en la que viaja el flujo de información en una
determinada red o en varias de ellas.
15 de mayo de 2023
La infraestructura de red contiene tres categorías de componentes de red:
Dispositivos
Medios
Servicios
Los dispositivos y los medios son los elementos físicos o hardware de la red. Por lo
general, el hardware está compuesto por los componentes visibles de la plataforma
de red, como una PC portátil, una PC, un switch, un router, un punto de acceso
inalámbrico o el cableado que se utiliza para conectar esos dispositivos.
15 de mayo de 2023
Los servicios incluyen una gran cantidad de aplicaciones de red comunes que utilizan
las personas a diario, como los servicios de alojamiento de correo electrónico y los
servicios de alojamiento web.
Los dispositivos de red con los que la gente está más familiarizada se denominan
terminales. Un terminal es el origen o el destino de un mensaje transmitido a través
de la red. Para distinguir un terminal de otro, cada terminal en la red se
identifica por una dirección (IP o lógica). Cuando un terminal inicia una
comunicación, utiliza la dirección (IP o lógica) del terminal de destino para especificar
adónde se debe enviar el mensaje.
Los dispositivos intermediarios conectan los terminales individuales a la red y pueden
conectar varias redes individuales para formar una internetwork. Proporcionan conec-
tividad y garantizan el flujo de datos en toda la red.
Estos dispositivos utilizan la dirección (IP o lógica) del terminal de destino, conjunta-
mente con información sobre las interconexiones de la red, para determinar la ruta
que deben tomar los mensajes a través de la red. En la figura, se muestran algunos
ejemplos de los dispositivos intermediarios más comunes y una lista de funciones.
15 de mayo de 2023
15 de mayo de 2023
ALOHAnet (o simplemente ALOHA)
Fue un sistema de redes de computadoras pionero desarrollado en la Universidad de
Hawai. Desplegado por primera vez en junio de 1971, y aunque la propia red ya no se
usa, uno de los conceptos esenciales de esta red es la base para la casi universal
Ethernet. Un equipo quería poner en marcha una red para interconectar terminales
ubicados en las islas de Kauai, Maui y Hawai, con un ordenador central situado en
Honolulu, en la isla de Oahu. Lo normal habría sido utilizar enlaces telefónicos, pero la
baja calidad y el elevado costo de las líneas hacían prohibitiva esta opción. Pusieron
en marcha una red de radioenlaces entre las islas. En vez de asignar un canal
diferente para la comunicación de Oahu hacia y desde cada isla (lo cual habría
requerido seis canales), se asignaron únicamente dos: uno a 413,475 MHz para las
transmisiones de Oahu a las demás islas y otro a 407,350 MHz para el sentido inverso.
De esta forma cada canal podía tener un ancho de banda mayor (100 KHz) y por tanto
más capacidad (9,6 Kbps); de haber dividido este ancho de banda en seis canales la
capacidad de cada uno habría sido proporcionalmente menor. El canal de Oahu no
planteaba problemas pues tenía un único emisor. Sin embargo, el canal de retorno era
compartido por tres emisores (Kauai, Maui y Hawaii), por lo que había que establecer
reglas que permitieran resolver el conflicto que se producía cuando dos emisores
transmitían simultáneamente, es decir, si se producía una colisión. Si dos sistemas en
la red (conocidos como nodos) enviaban al mismo tiempo, ambas señales se
estropearían. Era necesario algún tipo de sistema para evitar este problema. Existen
varios modos de hacerlo.
Uno sería utilizar una frecuencia de radio diferente para cada nodo, sistema conocido
como multiplexación en frecuencia. Comoquiera que este sistema requiere que
cada nodo que se añada sea capaz de sintonizarse con el resto de máquinas, pronto
se necesitarían cientos de frecuencias distintas y radios capaces de escuchar este
número de frecuencias al mismo tiempo, lo que sería demasiado costoso.
15 de mayo de 2023
Otra solución es tener ranuras de tiempo asignadas a cada nodo para enviar, lo que se
conoce como multiplexación por división de tiempo. Este sistema es más fácil de
implementar, dado que los nodos pueden seguir compartiendo una única frecuencia
de radio. El inconveniente es que, si un nodo en particular no tiene nada que enviar,
su ranura estaría siendo desperdiciada. Esto nos lleva a situaciones en las que el
tiempo disponible está vacío en gran parte y un nodo con datos que enviar lo tendría
que hacer muy rapido por si acaso alguno de los otros 100 nodos decidiera enviar
algo.
Se necesitaba un protocolo de control de acceso al medio, o protocolo MAC (Media
Access Control).
Esta red se denominó ALOHANET y el protocolo MAC utilizado se llamó ALOHA. Aloha
es una palabra Hawaiana que se utiliza para saludar, tanto al llegar como al
despedirse. Seguramente esta ambigüedad pareció apropiada a sus inventores para
indicar el carácter multidireccional o broadcast de la transmisión, por contraste con
los enlaces punto a punto utilizados hasta entonces donde se sabe con certeza en qué
sentido viaja la información.
El principio de funcionamiento de la primera versión de ALOHA (llamado “Pure
ALOHA”) es muy simple. Cuando un emisor quiere transmitir una trama simplemente
la emite, sin preocuparse en ningún momento de si el canal está libre; una vez ha
terminado se pone a la escucha esperando recibir confirmación de que la información
ha sido recibida correctamente por el destinatario. Si la confirmación no llega en un
tiempo razonable el emisor supone que ha ocurrido una colisión, en cuyo caso espera
un tiempo aleatorio y reenvía la trama. En este sistema no hay multiplexación fija en
absoluto.
El inconveniente es que, si la red está saturada, el número de colisiones puede crecer
drásticamente hasta el punto de que todos los paquetes colisionen. Para ALOHAnet el
uso máximo del canal estaba en torno al 18%, y cualquier intento de aumentar la
capacidad de la red simplemente incrementaría el número de colisiones, y el
rendimiento total de envío de datos se reduciría, fenómeno conocido como colapso
por congestión.
El protocolo ALOHA es un protocolo del nivel de enlace de datos para redes de área
local con topología de difusión.
15 de mayo de 2023
La primera versión del protocolo o Aloha puro era básica:
Si tienes datos que enviar, envíalos.
Si el mensaje colisiona con otra transmisión, ambas estaciones esperan un lapso
de tiempo aleatorio y vuelven a transmitir, sin importar el uso del canal.
15 de mayo de 2023
Con Aloha ranurado, un reloj centralizado envía pequeños paquetes con la señal de re-
loj a las estaciones periféricas. Las estaciones solamente tienen permitido enviar sus
paquetes inmediatamente después de recibir la señal de reloj. Aumentó el rendimien-
to máximo, ya debido a la reducción de las colisiones.
La segunda versión del protocolo o Aloha ranurado:
Si tienes datos que enviar, envíalos, pero sólo al comienzo de la ranura.
Si el mensaje colisiona con otra transmisión, ambas estaciones esperan un lapso
de tiempo aleatorio y vuelven a transmitir, sin importar el uso del canal.
15 de mayo de 2023
La diferencia entre ALOHA y Ethernet en un medio compartido es que Ethernet usa
CSMA/CD: comprueba si alguien está usando el medio antes de enviar, y detecta las
colisiones desde el emisor.
CSMA/CD: protocolo de transmisión anticolisiones
15 de mayo de 2023
En comunicaciones, CSMA/CD (del inglés Carrier Sense Multiple Access with Collision
Detection) o, en español, acceso múltiple con escucha de portadora y detección de
colisiones, es un algoritmo de acceso al medio compartido. Su uso está especialmente
extendido en redes Ethernet donde es empleado para mejorar sus prestaciones. En
CSMA/CD, los dispositivos de red escuchan el medio antes de transmitir, es decir, es
necesario determinar si el canal y sus recursos se encuentran disponibles para realizar
una transmisión. Además, mejora el rendimiento de CSMA finalizando el envío cuando
se ha detectado una colisión.
El protocolo CSMA/CD es un protocolo de enlace utilizado en las redes de la familia de
Ethernet. La abreviatura que le da nombre significa que el protocolo es de acceso
múltiple (MA, multiple access) y funciona por examen de portadora (CS, carrier sense)
con detección de colisiones (CD, collision detection). El protocolo tiene interés más
bien histórico ya que se aplica en medios compartidos como los realizados
con cable coaxil o con dispositivos de capa física como los hubs. Hoy, estas
tecnologías han sido reemplazadas con dispositivos de capa de enlace como los
conmutadores o switches. Otras tecnologías modernas como las redes inalámbricas
basadas en el estándar IEEE802.11 (popularmente llamado WiFi) utilizan una variante
de CSMA llamada CSMA/CA que evita las colisiones (CA, collision avoidance).
La operación de CSMA/CD se suele comparar al comportamiento de un grupo de
personas que conversan en una habitación y que lo hacen respetuosamente. Las
estaciones que utilizan la red “hablan” sólo si no hay otra estación transmitiendo (“no
se interrumpen” entre sí), y si accidentalmente lo hacen, aguardan un tiempo antes
de volver a transmitir, de manera de dar oportunidad de “hablar” a las demás, sin
monopolizar el medio.
En el protocolo CSMA/CD, cada estación conectada a un medio compartido que tenga
datos para transmitir, examina o “sensa” continuamente la señal eléctrica básica, o
portadora, existente en el medio, esperando un momento en que el medio esté libre.
Cuando este momento se produce, la estación emite su trama, escuchando al mismo
tiempo continuamente para constatar que lo transmitido sea igual a lo que se recibe
(lo cual indica que no ha habido acceso simultáneo de otra estación al medio). Si
hubiera un acceso simultáneo, como el medio es compartido, ambas emisiones se
corromperían una a otra (ocurriendo una colisión). En caso de colisión, las estaciones
que la detectan emiten una señal que informa a todas las estaciones de la red que
esta colisión ha ocurrido y que se producirá una recuperación de la colisión. La
recuperación consiste en la retransmisión de la trama luego de un tiempo aleatorio.
En resumen, en CSMA/CD, cada estación que desea transmitir debe realizar una
escucha del medio –detección de portadora– para comprobar si este se encuentra
libre, es decir, para comprobar que ninguna otra estación está en ese instante
transmitiendo un mensaje. Si el medio se encuentra libre entonces tiene lugar dicha
transmisión. Aun así, puede ocurrir que varias estaciones tengan mensajes para
enviar y que comiencen a transmitir una trama en el mismo instante. Cuando esto se
sucede, se dice que ha ocurrido una colisión en la red. La estación que ha detectado la
colisión procederá a enviar un mensaje de jam (Just a Minute) de 32 bits al resto de
estaciones para notificar dicho evento. Una vez que todas las estaciones han sido
notificadas, automáticamente se paran todas las transmisiones y se ejecuta un
algoritmo de backoff (o de postergación) que consiste en esperar un tiempo
aleatorio (backoff) antes de volver a intentar la transmisión. Si volviera a ocurrir una
colisión, el intervalo del cual se extrae el tiempo de demora para retransmitir se
duplica. Esta regla se repite tantas veces como haya colisión, hasta un máximo
comúnmente igual a 16 veces. Durante los 10 primeros intentos el valor medio del
tiempo de espera se duplica mientras que, durante los 6 siguientes intentos
adicionales, se mantiene. Tras 16 intentos fallidos, se interpreta que ha ocurrido un
15 de mayo de 2023
error de escritura en la red, el algoritmo notificará un error a las capas superiores. La
regla para la elección del tiempo de retransmisión es adaptativa, es decir,
permite que este tiempo sea breve para redes poco cargadas, y que se prolongue sólo
para redes con mayor cantidad de estaciones. Para que el protocolo CSMA/CD
funcione los mensajes de error deben llegar a todas las estaciones en el dominio de
colisión en un tiempo determinado: las tramas se ejecutan de un extremo del dominio
al otro y es dentro de ese segmento físico donde pueden colisionar. La señal
correspondiente debe llegar a la primera estación antes de que se realice la
transmisión completa del paquete de datos. De lo contrario, la estación no reconoce
que los datos transmitidos están dañados, sino que considera que la transmisión se ha
producido con éxito y por tanto se perderá el paquete de datos. Estos incidentes se
denominan “colisiones tardías” y provocan la pérdida de datos.
La señal JAM debe llegar a la estación A antes de estar lista para transmitir
Ventajas
La detección de colisiones en redes LAN cableadas es fácil.
El tiempo medio necesario para detectar una colisión es relativamente bajo.
Puede ser empleado en sistemas de control de procesos continuos si la carga de
tráfico de la red es baja (inferior al 20 %)
Ofrece un rendimiento mayor en especial cuando existen pocas colisiones.
Desventajas
15 de mayo de 2023
Una de las desventajas más importantes radica en que no es posible garantizar
un tiempo máximo finito para el acceso de las tramas al canal de comunicación,
por lo cual no resulta adecuado para aplicaciones de tiempo real.
Normalmente las redes CSMA/CD son de tipo half-duplex, lo cual significa que
mientras una estación envía información es incapaz de escuchar el tráfico exis-
tente.
Problemática en redes inalámbricas.
15 de mayo de 2023
15 de mayo de 2023
Problemática en redes inalámbricas
En las redes inalámbricas proceder a la escucha del medio y por lo tanto detectar las
colisiones producidas, puede resultar complicado. Esto se manifiesta en dos
problemáticas:
Problema del nodo oculto: una estación puede creer que el canal (medio) es-
tá libre cuando en realidad está ocupado por otra estación a la que no oye. En la
siguiente imagen se muestra como A y C transmiten hacia B ya que ambos de-
tectaron que el canal estaba libre. Sin embargo, B escucha a ambos nodos, dan -
do lugar a una colisión.
Problema del nodo oculto
Problema del nodo expuesto: una estación puede creer que el canal está
ocupado cuando en realidad lo está ocupando otra estación que no interferiría
en su transmisión a otro destino. En la figura se muestra como C está comuni -
cándose con B. Como D detecta que el canal está ocupado, no puede transmitir
hacia E, cuando lo idóneo sería que sí pudiese.
Problema del nodo expuesto
Estos problemas fueron resueltos con la implementación del algoritmo CSMA/CA
(MultiAccess Collision Avoidance)
15 de mayo de 2023
CSMA/CA: protocolo de transmisión con prevención de colisiones
En comunicaciones, CSMA/CA (del inglés Carrier Sense Multiple Access with Collision
Avoidance) o, en español, acceso múltiple por detección de portadora y prevención de
colisiones, es un protocolo de control de acceso a redes de bajo nivel que permite que
múltiples estaciones utilicen un mismo medio de transmisión. Cada equipo anuncia
opcionalmente su intención de transmitir antes de hacerlo para evitar colisiones entre
los paquetes de datos (comúnmente en redes inalámbricas. De esta forma, el resto de
equipos de la red sabrán cuando hay colisiones y en lugar de transmitir la trama en
cuanto el medio está libre, se espera un tiempo aleatorio adicional corto y
solamente si, tras ese corto intervalo el medio sigue libre, se procede a la
transmisión reduciendo la probabilidad de colisiones en el canal. CSMA/CA es
utilizada en canales en los que por su naturaleza no se puede usar CSMA/CD.
CSMA/CA se utiliza en 802.11 basada en redes inalámbricas.
Que un nodo vaya a obtener un acceso al medio no se asegura que el nodo destino
esté en contacto con el nodo origen. Para solucionar este problema se ha añadido un
procedimiento de saludo adicional al protocolo de la capa MAC. Este segundo método
de detección de portadora llamado Detección Virtual de Portadora (VCS, Virtual
Carrier Sense) permite a un nodo reservar el canal por un determinado período de
tiempo usando tramas Solicitud para Enviar (RTS, Request to Send) y Listo para Enviar
(CTS, Clear to Send).
Para enviar una trama, el equipo origen primero envía una trama corta de control de
solicitud de transmisión RTS (Request To Send) mediante el método CSMA/CD o
CSMA/CA. Este mensaje de control RTS contiene las direcciones de MAC del
equipo origen y destino. Si el equipo destino recibe esta trama significa que está
preparado para recibir una trama. Este equipo devolverá una trama de contestación:
preparado para recibir CTS (Clear To Send) o receptor ocupado (RxBUSY). Si la
respuesta es afirmativa el equipo origen transmite la trama en espera (DATA). Si el
equipo destino recibe correctamente el mensaje contesta con la trama de
confirmación positiva ACK (ACKnowledged) y si no la recibe correctamente contesta
con la trama de confirmación negativa NAK (NAKnowledged) y el equipo origen
tratará de volver a enviarlo. Este procedimiento se repite un número predefinido de
veces hasta conseguirse una transmisión correcta de la trama DATA.
Básicamente, este proceso se puede dividir en tres fases en las que el emisor:
1. Escucha para ver si la red está libre.
2. Transmite el dato.
3. Espera un reconocimiento por parte del receptor.
Este método asegura así que el mensaje se recibe correctamente. Sin embargo,
debido a las dos transmisiones, la del mensaje original y la del reconocimiento del
receptor, pierde un poco de eficiencia. Este sistema incrementa el volumen de tráfico
15 de mayo de 2023
en el cable y reduce las prestaciones de la red, motivo por el que se usa poco. En
redes inalámbricas, no se puede escuchar a la vez que se trasmite: no pueden
detectarse colisiones.
Ejemplo:
Supongamos tres nodos "A, B, C" donde el radio de acción de A, le permite ver a B pero no a
C, y C puede ver a B, pero no a A.
Si A quiere transmitir, genera una trama especial de solicitud (RTS) hacia B. Recibida
dicha trama en B, esta responde con una trama de autorización (CTS) hacia A. La
trama de autorización no solo llega a A, sino a todas las estaciones que se encuentran
en el radio de acción de B (en este caso llegaría también a C). Así todas las estaciones
permanecerán sin transmitir. Una vez que llega la trama de confirmación a A, ésta
podrá transmitir sin que se produzcan colisiones.
15 de mayo de 2023
Este esquema RTS-CTS se conoce como sondeo de portadora virtual. Aunque con
las tramas RTS/CTS se resuelve el problema del nodo oculto, su uso también da lugar
a una nueva complicación: el problema del nodo expuesto. En un principio la situa-
ción es igual a la de la estación oculta. Un nodo A está situado entre otros dos B y C,
que no se encuentran en el mismo alcance, por tanto, no se pueden escuchar. El dis-
positivo B quiere enviar datos a la estación A, que está en el medio. El dispositivo A
mandará a todos los dispositivos a su alcance (B y C) la trama CTS que avisará a B de
que tiene vía libre y al mismo tiempo inhibirá a C hasta que finalice la transmisión. To-
das las demás estaciones alrededor de A (Src) y B (Dest) pueden detectar el RTS y
CTS entre Src y Dest porque estas tramas se transmiten en un medio compartido y
decodifican la información contenida en las tramas RTS / CTS / ACK y la información
NAV (Vector de reserva de red) de construcción.
Los tres tipos de tramas (RTC, CTS y ACK) están compuestos por diferentes campos:
Campos de control de tramas: cada campo de control de tramas contenido
en una trama 802.11 mide 2 bytes (16 bits) y se divide en los siguientes
elementos:
Versión del protocolo: ofrece la versión del protocolo utilizado.
Tipo: especifica si se trata de una trama de control (RTS/CTS y ACK), una
trama de datos o de gestión.
Subtipo: de las 25 subcategorías existentes, especifica el tipo de trama.
Para Distribution System: establece si el sistema se dirige a un sistema de
distribución.
De Distribution System: establece si la trama procede de un sistema de
distribución.
Más fragmentos: elemento importante en las tramas de gestión y de
datos. Solo en caso de que sigan varias tramas.
Retry: especifica si ya se ha intentado mandar la trama y, en caso
afirmativo, el número de intentos.
Power Management: muestra el modo de ahorro de energía.
Más datos: especifica que se deben enviar más datos.
WEP: informa de si los datos están cifrados con WEP.
Orden: comunica al destinatario si los datos se envían en el orden
15 de mayo de 2023
correcto.
Duración: establece el tiempo que el emisor necesita para el envío de
información. Este campo es esencial para el mecanismo Network Allocation
Vector que, como se verá más adelante, inhibe un dispositivo que no está
transmitiendo durante el periodo aquí estipulado. También este campo ocupa 2
bytes.
Dirección del receptor: contiene la dirección MAC del destinatario (6 bytes).
Dirección del emisor: contiene la dirección MAC del emisor (6 bytes); solo
necesaria para RTS, no para CTS y ACK.
Control de secuencia de trama (FCS): la secuencia de caracteres de
verificación de bloques, de 4 bytes, es una suma de verificación. Permite al nodo
destinatario comprobar si la trama de datos ha llegado como había sido
planeado. El emisor calcula la suma a partir de los datos de la trama, proceso
que imita el destinatario una vez ha recibido los datos. La transmisión se habrá
realizado con éxito si el resultado obtenido por el receptor coincide con lo que el
emisor agregó como FCS a la trama.
Si todas las estaciones se ‘escuchan’ directamente entre sí el uso de RTS/CTS no
aporta nada y supone un overhead importante, sobre todo en tramas pequeñas. No
todos los equipos soportan el uso de RTS/CTS. Lo que lo soportan permiten indicar en
un parámetro de configuración a partir de que tamaño de trama se quiere utilizar
RTS/CTS. También se puede deshabilitar por completo su uso, cosa bastante habitual
RTS, CTS y ACK contienen todos los campos a excepción del que muestra la dirección
del emisor, pues solo es útil en la primera toma de contacto para que el receptor
tenga constancia del nodo con el que se está comunicando.
Si se activa el protocolo RTS/CTS complementario de CSMA/CA, se consiguen reducir
las colisiones a la trama RTS inicial. Cabe la posibilidad de que dos nodos envíen al
mismo tiempo la trama RTS correspondiente. En tal caso el receptor no puede respon-
der con una trama CTS. Es así como RTS resuelve el problema del nodo oculto
pues, aunque los dos emisores que envían la trama RTS al mismo tiempo no se pue-
den escuchar al no estar dentro del mismo alcance, solo ponen en riesgo las tramas
RTS y no los datos reales. Entonces entra en acción CSMA/CA (backoff) y se consigue
que la transmisión se lleve a cabo
Network Allocation Vector (NAV)
Antes de que un dispositivo empiece con una transmisión, envía a todos los nodos
información sobre el tiempo en el que el canal va a estar ocupado en el
campo “duración” de la trama RTS. Cada dispositivo introduce esta información
en su respectivo vector de reserva de red, conocido por sus siglas en inglés NAV, de
Network Allocation Vector. El NAV, que matemáticamente hablando no se puede
considerar un vector, se gestiona de forma interna y establece, mediante una cuenta
atrás, el momento a partir del cual se puede volver a intentar enviar datos. Es decir,
cuando una estación emisora informa a un nodo de que se va a producir una
transmisión, este vuelve a poner en marcha su mecanismo interno de cuenta
regresiva.
El valor máximo que un NAV puede establecer en el contador es de 33ms
(32.767 µs), medida que se corresponde con el tiempo límite del que un nodo emisor
puede disponer para ocupar el medio. Mientras el contador no llegue a 0, los
dispositivos permanecerán inhabilitados, lo que ahorra energía; y solo cuando alcance
el valor nulo se puede comprobar el estado de la red.
15 de mayo de 2023
Pero además del campo “duración” de RTS, NAV también está influido por el de CTS y
ACK. Esta última trama es la señal que indica a las estaciones de una red que pueden
poner el contador a 0, pues el medio vuelve a estar libre.
Sin embargo, los datos en las redes no se envían a la velocidad de la luz a través del
espacio. Estamos sujetos a las condiciones físicas del medio de transmisión. Utilizando
un factor de acortamiento (en inglés Nominal Velocity of Propagation, NVP), se
indica qué porcentaje de la velocidad de la luz se alcanza en el medio. Los cables de
par trenzado típicos de las redes locales tienen un valor de NVP de 0,6 y los cables
coaxiales, que son algo más antiguos, tienen un valor de 0,77. Así pues, los datos
podrán alcanzar bien 180.000 km/s (60 %) o aproximadamente 230.000 km/s (77 %)
de la velocidad de la luz.
Ejemplo teórico:
La longitud máxima de un dominio de colisión puede calcularse a partir de todos los
datos para garantizar la eficacia del protocolo CSMA/CD:
Velocidad de los datos * Duración de la transmisión = el doble de la longitud máxima
230.000 km/s * 0,0000512s = 11.776 km
Por lo tanto, un dominio de colisión en una red basada en cables coaxiales puede
tener una longitud máxima de 5,89 km. En el cálculo hay que tener en cuenta que es
necesario considerar el camino que toman las señales en ambas direcciones. La
máxima longitud de un dominio de colisión no puede ampliarse colocando
amplificadores de señal (repetidores), ya que estos no afectan al procedimiento
CSMA/CD.
15 de mayo de 2023
Aunque se evita el problema de nodo oculto, surge otro nuevo, pues el nodo C
permanecerá inhibido, aun cuando este quisiera enviar un paquete de datos a un
nodo D, fuera del alcance de A y B y que, por tanto, no supusiera un riesgo de
colisión. Como consecuencia se produce una ralentización de la red.
15 de mayo de 2023
P # 1) ¿Cuál es la diferencia entre CSMA / CD y ALOHA?
Responder: La principal diferencia entre ALOHA y CSMA / CD es que ALOHA no posee
la característica de detección de portadora como CSMA / CD.
CSMA / CD detecta si el canal está libre u ocupado antes de transmitir datos para que
pueda evitar la colisión, mientras que ALOHA no puede detectar antes de transmitir y,
por lo tanto, varias estaciones pueden transmitir datos al mismo tiempo, lo que provo-
ca una colisión.
P # 2) ¿Cuál es la diferencia entre CSMA / CA y CSMA / CD?
Responder: CSMA / CA es un protocolo que es eficaz antes de la colisión, mientras
que el protocolo CSMA / CD entra en vigor después de la colisión. Además, CSMA / CA
se utiliza en redes inalámbricas, pero CSMA / CD funciona en redes cableadas.
Función de coordinación distribuida (DCF, por sus siglas en inglés) es la
técnica fundamental de control de acceso al medio del estándar IEEE 802.11
para redes de área local inalámbrica. DCF emplea el método CSMA/CA con un
algoritmo binario exponencial denominado backoff. DCF utiliza un algoritmo que
consiste en que la estación que desea transmitir (A), en primera instancia debe
escuchar al canal un determinado tiempo denotado como DIFS para
15 de mayo de 2023
verificar que el canal esté libre. Si el canal está libre durante el periodo de
tiempo DIFS, la estación A procede a enviar una solicitud para transmisión o RTS
(Request To Send). La estación de destino (B) que recibe la RTS espera durante
un intervalo de tiempo llamado SIFS; si el canal está libre, procede a
responder con un CTS (Clear To Send) o con un RxBusy si está recibiendo datos
de otra estación oculta (C) para la estación A. Una vez que la estación A recibe
la CTS, también debe esperar el tiempo SIFS antes de proceder a transmitir los
datos hacia la estación B. La estación B, una vez que recibe los datos vuelve a
esperar el intervalo de tiempo SIFS hasta poder transmitir el acuse de recibo
ACK o de no haber recibido nada NAK hacia la estación A.
Cabe destacar que, durante este proceso, las estaciones de origen y destino sólo
esperan el tiempo SIFS para continuar con el proceso; mientras que las otras
estaciones deben esperar un tiempo DIFS para comenzar a hacer sus solicitudes de
transmisión. La función de coordinación distribuida (DCF) regula en CSMA/CA el
periodo de espera de los nodos antes de iniciar la transmisión en un medio
desocupado. DCF también adjudica a las estaciones ranuras de tiempo aleatorias
(time slots) para acciones que tienen lugar posteriormente, consiguiendo una
estructuración coordinada de los tiempos de espera. Este procedimiento es la clave en
la prevención de colisiones o collision avoidance. Para su creación, DCF recurre a
determinados intervalos:
DCF Distributed Interframe Space (DIFS): si un nodo de la red quiere
empezar una transmisión, en primer lugar, escucha el medio. Si descubre que el
medio está libre, espera un intervalo DIFS. Este indica a CSMA/CA que en el
momento en el que se inicie la nueva trama ningún otro nodo dentro del alcance
va a estar transmitiendo información. El DIFS resulta del SIFS y de un
espacio de tiempo duplicado y tiene entre 28 y 50 µs de longitud.
Ventana de contienda o contención (content window): cuando las
estaciones se aseguran de que el medio está libre, esperan un periodo de
tiempo aleatorio antes de empezar con el envío. Este espacio de tiempo es lo
que se conoce como ventana de contención y se duplica con cada colisión. Se
corresponde con el Binary Exponential Backoff (BEB) del protocolo CSMA/CD.
Short Interframe Space (SIFS): una vez que los paquetes de datos llegan al
nodo receptor, éste manda una notificación al emisor, siempre y cuando se use
RTS/CTS. No obstante, este nodo receptor también espera un periodo de tiempo
establecido antes de proceder al envío de la confirmación. SIFS hace referencia
al tiempo que se necesita para procesar un paquete de datos. Su duración
depende del estándar IEEE-802.11 utilizado y oscila entre 10 µs y 16 µs.
Una ranura temporal (slot time) se corresponde con el tiempo que los datos
necesitan para recorrer el largo de la red. En las redes inalámbricas depende del
estándar utilizado y oscila entre los 9 µs y los 20 µs.
¿Cómo se pueden prevenir las colisiones?
En general, si estamos hablando de sistemas semidúplex, no es posible evitar
completamente que se produzcan colisiones. Las colisiones forman parte de un
mecanismo previsto y el CSMA/CD garantiza que no causen problemas en la
transmisión. No obstante, lo anterior es aplicable exclusivamente a la pérdida de
datos. Si se producen muchas colisiones, la velocidad de transmisión disminuye. ¿Por
qué se producen demasiadas colisiones? Cuando un dominio de colisión contiene
demasiadas estaciones aumenta el número de colisiones y, en consecuencia, el
número de retrasos. En los peores casos puede ocurrir que solo se alcance el 30 por
ciento de la velocidad real.
15 de mayo de 2023
Para evitar que esto ocurra, merece la pena crear dominios de colisión más pequeños.
Para ello, la red tiene que estar dividida. Para conseguirlo, se utilizan conmutadores
(switches) o puentes (bridges). Los dos trabajan en base a MAC. El control de acceso
al medio (MAC) funciona en la segunda (y en la siguiente) capa OSI, la capa de enlace
de datos (data link). Tiene sentido formar subredes de tal manera que las estaciones
estén conectadas ya que, de todos modos, tienen que comunicarse mucho entre sí.
Así se evita que se formen embudos en los puentes que anulen la velocidad que se ha
ganado.
SIFS: Short Interframe Space, es la cantidad de tiempo en microsegundos requerida
para que una interfaz inalámbrica procese una trama recibida y responda con una
trama de respuesta. Es la diferencia en el tiempo entre el primer símbolo de la
trama de respuesta en el aire y el último símbolo de la trama recibida en el
aire.
DIFS: la duración puede ser calculada por el siguiente método:
DIFS = SIFS + (2 * Slot time)
15 de mayo de 2023
15 de mayo de 2023
15 de mayo de 2023
15 de mayo de 2023
Ejemplo de una transmisión en un diagrama de tiempo.
15 de mayo de 2023
MODO DISTRIBUIDO: Acceso básico
MODO DISTRIBUIDO: Acceso básico – Fragnebtacuñib
15 de mayo de 2023
MODO DISTRIBUIDO: Acceso con RTS/CTS
MODO DISTRIBUIDO: Acceso con RTS/CTS y AP
15 de mayo de 2023
MODO DISTRIBUIDO: Acceso sin RTS/CTS y AP
Terminología utilizada
Latencia
Tal como se analizó anteriormente, cada dispositivo que desee transmitir debe "escu-
char" primero el medio para verificar la presencia de tráfico. Si no hay tráfico, la esta-
ción comenzará a transmitir de inmediato. La señal que se transmite requiere una
cantidad determinada de tiempo (latencia) para propagarse (viajar) a través del cable.
Por lo tanto, en redes informáticas de datos, la latencia de red es la suma de retardos
temporales dentro de una red. Un retardo es producido por la demora en la propaga -
ción y transmisión de paquetes dentro de la red.
15 de mayo de 2023
Podríamos decir que se trata del tiempo que transcurre desde que realizamos una so-
licitud de información desde nuestro navegador y nos llega de vuelta para mostrarnos
el contenido de la web solicitada.
Para medir la latencia o lag (retardo) se usa el ping, y se expresa en milisegundos
(ms). Cuanto más bajo sea el ping, es mejor.
¿Qué factores influyen en la latencia?
La latencia es el resultado de varios factores:
La calidad de tu conexión a internet. No obtendremos la misma latencia co-
nectándonos a una red de fibra óptica que a través de DSL o tecnologías simila-
res. Lo mismo ocurre con las conexiones inalámbricas, una conexión 4G tendrá
una latencia menor que 3G. Cuanto mejor sea la calidad de la red, menor será la
latencia.
La distancia entre tu equipo y el equipo o servidor al que tratas de co-
nectarte. Cuanto más alejados estén, más tiempo requerirá la conexión y, por
tanto, mayor será la latencia. De ahí nuestra recomendación de alojar los sitios
web ‘cerca’ de donde se encuentren los usuarios, para que se reduzcan los sal-
tos de la información y se reduzca el tiempo de respuesta.
El tamaño de los paquetes que se envían. El tamaño de los paquetes está
condicionado por el ancho de banda, ya que no sería posible enviar paquetes de
un tamaño mayor del caudal que la conexión puede soportar. Con un mayor an-
cho de banda podrán enviarse paquetes de mayor tamaño en un menor tiempo.
La capacidad del router para procesar los paquetes. El dispositivo puede
condicionar los tiempos de respuesta de la conexión a internet, influyendo de
forma positiva o negativa en la latencia.
¿Cómo reducir la latencia y mejorar la conexión?
Sin saberlo la latencia se ha convertido en algo fundamental en nuestro día a día. Una
característica de nuestra conexión a internet que puede condicionar las videollamadas
que realizamos diariamente o el uso que hacemos de las herramientas corporativas.
Aunque también es algo que afecta a cualquier tipo de dispositivo inteligente e incluso
a las ciudades conectadas. En estas redes, además de la latencia, hay que considerar
el volumen de los datos, lo que se traduce en que la red necesitará un mayor ancho
de banda.
Para reducir la latencia en tu conexión doméstica, puedes probar a utilizar Ethernet en
lugar de conectarte a través de WiFi. De esta forma se minimiza la influencia del resto
de dispositivos conectados en tu red y mejorará el tiempo de respuesta en tu uso
normal de la red. En el caso de tu web, puedes reducir los tiempos de respuesta
15 de mayo de 2023
utilizando HTTP/2, una versión del protocolo HTTP que reduce el número de
conexiones mejorando la latencia.
Si quieres mejorar la latencia de tu servidor, puedes migrarlo a un Centro de Datos
más cercano al lugar en el que se encuentran tus usuarios. En caso de que necesites
un servidor en España, nuestro CPD ofrece buenos tiempos de respuesta además de
la máxima disponibilidad.
Tiempo de bit
Para cada velocidad de medios diferente se requiere un período de tiempo determina-
do para que un bit pueda colocarse y detectarse en el medio. Dicho período de tiempo
se denomina tiempo de bit. En Ethernet de 10 Mbps, un bit en la capa MAC requiere
de 100 nanosegundos (ns) para ser transmitido. A 100 Mbps, ese mismo bit requiere
de 10 ns para ser transmitido. Y a 1000 Mbps, sólo se requiere 1 ns para transmitir un
bit. A menudo, se utiliza una estimación aproximada de 20,3 centímetros (8 pulgadas)
por nanosegundo para calcular el retardo de propagación en un cable UTP. El resulta-
do es que para 100 metros de cable UTP se requiere un poco menos de 5 tiempos de
bit para que una señal 10BASE-T recorra la longitud del cable.
Tiempo de bit = 1 / velocidad NIC
Para que el CSMA/CD de Ethernet funcione, el dispositivo emisor debe detec-
tar la colisión antes de que se haya completado la transmisión de una trama
del tamaño mínimo. A 100 Mbps, la temporización del dispositivo apenas es capaz
de funcionar con cables de 100 metros. A 1000 Mbps, ajustes especiales son necesa -
rios porque se suele transmitir una trama completa del tamaño mínimo antes de que
el primer bit alcance el extremo de los primeros 100 metros de cable UTP. Por este
motivo, no se permite el modo half-duplex en la Ethernet de 10 Gigabits.
Estas consideraciones de temporización deben aplicarse al espacio entre las tramas y
a los tiempos de postergación para asegurar que cuando un dispositivo transmita su
próxima trama, se ha reducido al mínimo el riesgo de que se produzca una colisión.
Intervalo de tiempo
Para todas las velocidades de transmisión de Ethernet de o por debajo de 1000 Mbps,
el estándar describe cómo una transmisión individual no puede ser menor que
el intervalo de tiempo.
La determinación del intervalo de tiempo es una compensación entre la necesidad de
reducir el impacto de la recuperación en caso de colisión (tiempos de postergación y
retransmisión) y la necesidad de que las distancias de red sean lo suficientemente
grandes como para adaptarse a tamaños razonables de red. El compromiso fue elegir
una longitud de red máximo (2500 metros aproximadamente) para después estable-
cer la longitud mínima de una trama, que fuera suficiente como para garantizar la de-
tección de todas las peores colisiones, en otras palabras, si una estación intenta trans-
mitir una trama muy corta, es concebible que ocurra una colisión, pero la transmisión
se completará antes de que la ráfaga de ruido llegue de regreso a la estación en 2τ
(siendo τ el tiempo que tarda en llegar esta trama al otro extremo). El emisor enton-
ces supondrá de forma incorrecta que la trama se envió con éxito. Para evitar que
ocurra esta situación, todas las tramas deberán tardar más de 2τ para enviarse, de
manera que la transmisión aún se esté llevando a cabo cuando la ráfaga de ruido re -
grese al emisor. Para una LAN de 10 Mbps con una longitud máxima de 2.500 metros
y cuatro repetidores (de la especificación 802.3), el tiempo de ida y vuelta (incluyendo
el tiempo de propagación a través de los cuatro repetidores) se ha determinado en
cerca de 50 μseg en el peor de los casos. Por lo tanto, la trama más corta permiti-
da se debe tardar por lo menos este tiempo en transmitir. A 10 Mbps, un bit tarda 100
15 de mayo de 2023
nseg, por lo que 500 bits es la trama más pequeña que se garantiza funcionará. Para
agregar algún margen de seguridad, este número se redondeó a 512 bits o 64 bytes.
La señal JAM debe llegar a la estación A antes de estar lista para transmitir.
Conociendo esto y la tecnología de red que se utiliza es posible calcular el tamaño
máximo de un dominio de colisión. En el caso de una red Ethernet semidúplex clásica
obtendremos una velocidad de transmisión de datos de 10 Mbit/s. El paquete de datos
más pequeño, es decir, el que necesita menos tiempo para una transmisión completa
y representa, por lo tanto, el caso más extremo, tiene un tamaño de 512 bits (64
bytes). Con estos datos obtenemos como resultado un tiempo en slots de 51,2 μs
(microsegundos). El tiempo en slots describe el tiempo que una señal puede tardar
hasta llegar a un extremo del dominio de colisión y volver.
El intervalo de tiempo para Ethernet de 10 y 100 Mbps es de 512 tiempos de bit o 64
octetos. El intervalo de tiempo para Ethernet de 1000 Mbps es de 4096 tiempos de bit
o 512 octetos.
El intervalo de tiempo garantiza qué si está por producirse una colisión, se detectará
dentro de los primeros 512 bits (4096 para Gigabit Ethernet) de la transmisión de la
trama. Esto simplifica el manejo de las retransmisiones de tramas posteriores a una
colisión.
El intervalo de tiempo es un parámetro importante por las siguientes razones:
El intervalo de tiempo de 512 bits establece el tamaño mínimo de una trama de
Ethernet en 64 bytes. Cualquier trama con menos de 64 bytes de longitud
se considera un "fragmento de colisión" o "runt frame" y las estaciones
receptoras la descartan automáticamente.
El intervalo de tiempo determina un límite para el tamaño máximo de los seg-
mentos de una red. Si la red crece demasiado, pueden producirse colisiones
tardías. Las colisiones tardías se consideran una falla en la red, porque un dis -
positivo detecta la colisión demasiado tarde durante la transmisión de tramas y
será manejada automáticamente mediante CSMA/CD.
El intervalo de tiempo se calcula teniendo en cuenta las longitudes máximas de cables
en la arquitectura de red legal de mayor tamaño. Todos los tiempos de retardo de pro -
pagación del hardware se encuentran al máximo permisible y se utiliza una señal de
congestión de 32 bits cuando se detectan colisiones.
El intervalo de tiempo real calculado es apenas mayor que la cantidad de tiempo teó-
rica necesaria para realizar una transmisión entre los puntos de máxima separación
de un dominio de colisión, colisionar con otra transmisión en el último instante posible
y luego permitir que los fragmentos de la colisión regresen a la estación transmisora y
sean detectados.
15 de mayo de 2023
Para que el sistema funcione correctamente, el primer dispositivo debe estar al tanto
de la colisión antes de que termine de enviar la trama legal de menor tamaño. Para
que, una Ethernet de 1000 Mbps pueda operar en modo half-duplex, se agregó a la
trama el campo de extensión cuando se envían tramas pequeñas, con el sólo fin de
mantener ocupado al transmisor durante el tiempo que sea necesario para que vuelva
un fragmento de colisión. Este campo sólo se incluye en los enlaces en half-duplex de
1000 Mbps y permite que las tramas de menor tamaño duren el tiempo suficiente
para satisfacer los requisitos del intervalo de tiempo. El dispositivo receptor descarta
los bits de extensión.
Espacio entre tramas
Los estándares de Ethernet requieren un espacio mínimo entre dos tramas que no ha-
yan sufrido una colisión. Esto le otorga al medio tiempo para estabilizarse antes de la
transmisión de la trama anterior y tiempo a los dispositivos para que procesen la tra -
ma. Este tiempo se mide desde el último bit del campo FCS de una trama
hasta el primer bit del Preámbulo de la próxima trama.
15 de mayo de 2023
Señal de congestión
En caso de que dos dispositivos transmitan simultáneamente, el CSMA/CD de la red
intenta resolver el problema. Tan pronto como se detecta una colisión, los dispositivos
transmisores envían una señal de "congestión" de 32 bits que forzará la detección de
la colisión. Es importante que la señal de congestión no se detecte como una trama
válida; de lo contrario, no podría identificarse la colisión. El patrón de datos que se
observa con mayor frecuencia para una señal de congestión es simplemente
un patrón de 1, 0, 1, 0 que se repite, al igual que el Preámbulo. Los mensajes
corruptos que se transmiten de forma parcial, generalmente se conocen como
fragmentos de colisión o runts. Las colisiones normales tienen menos de 64 octetos de
longitud y, por lo tanto, reprueban tanto la prueba de longitud mínima como la FCS, lo
que facilita su identificación.
15 de mayo de 2023
Temporización de postergación
Una vez producida la colisión y que todos los dispositivos permitan que el cable quede
inactivo (cada uno espera que se cumpla el espacio completo entre tramas), los
dispositivos cuyas transmisiones sufrieron la colisión deben esperar un período
adicional, y cada vez potencialmente mayor, antes de intentar la retransmisión de la
trama que sufrió la colisión. Si la congestión en los medios provoca que la capa MAC
no pueda enviar la trama después de 16 intentos, abandona el intento y genera un
error en la capa de red. Mediante el uso de switches, la necesidad de utilizar
CSMA/CD comienza a disminuir o, en algunos casos, a desaparecer por
completo.
15 de mayo de 2023
Temporización y sincronización
En modo half-duplex, si no se produce una colisión, el dispositivo emisor transmitirá
64 bits de información de sincronización de temporización, lo que se conoce como el
Preámbulo.
El dispositivo emisor transmitirá a continuación la trama completa.
La Ethernet con velocidades de transmisión (throughput) de 10 Mbps y menos es asín-
crona. Una comunicación asíncrona en este contexto significa que cada dispositivo re-
ceptor utilizará los 8 bytes de información de temporización para sincronizar el circui -
to receptor con los datos entrantes y a continuación descartará los 8 bytes.
Las implementaciones de Ethernet con velocidades de transmisión (throughput) de
100 Mbps y más son síncronas. La comunicación síncrona en este contexto significa
que la información de temporización no es necesaria. Sin embargo, por razones de
compatibilidad, los campos Preámbulo y Delimitador de inicio de trama (SFD) todavía
están presentes.
15 de mayo de 2023