Módulo 3.
LAN cableada e inalámbrica
Introducción
Para cualquier técnico en redes, es muy importante conocer tanto las posibilidades como las dificultades
que diariamente puede presentar la configuración de una red de área local. En este tipo de redes, existen
particularidades que le son propias y que requieren de ciertas habilidades específicas a la hora de diseñar
y configurarlas, como diagnosticar y resolver problemas.
Para ello es necesario distinguir, entre otros, equipos, protocolos y modos de operación. La administración
de las redes locales, sean cableadas o inalámbricas, requiere de ciertos conocimientos y servicios que
introduciremos de aquí en más para lograr comprender sus particularidades.
Comenzaremos por las redes cableadas, para luego analizar las inalámbricas.
Unidad 1. Gestión de redes Ethernet en capa 2. L2
switching
Introducción
Las redes Ethernet cableadas son todavía las más comunes en los espacios de trabajo. Aunque las
inalámbricas están ganando espacio, no llegan a los centros de procesamiento de datos donde hay
concentración de servidores y alto tráfico. En adelante, analizaremos conceptos y equipos asociados a la
gestión de las redes cableadas Ethernet y sus distintas configuraciones, los principales protocolos y
herramientas para la gestión de las redes.
Comenzaremos por retomar un tema que planteamos de manera inicial cuando estudiamos los protocolos
de acceso al medio compartido, las colisiones, para luego pasar a los dispositivos propios de esta capa de
enlace —como son switches (interruptores) y hubs (concentradores)—; y las opciones de configuración y
segmentación que ofrecen para resolver distintos problemas.
Tema 1. Dominios de colisión y broadcast
Uno de los principales problemas que han afectado a las redes Ethernet cableadas es la detección y
resolución de colisiones. Como ya vimos, una colisión ocurre cuando dos computadoras transmiten al
mismo tiempo a través de un medio compartido, lo que provoca que los frames de ambas máquinas en
algún momento se encuentren sobre el medio, se distorsionen las señales eléctricas que las originaron y
se produzca la colisión. Pero ¿cuál es el alcance de la colisión? ¿Cuánto afecta una vez ocurrida?
La respuesta a estas preguntas tiene un nombre y lo presentamos inmediatamente.
Dominio de colisión
Como se indicó anteriormente, las primeras redes Ethernet utilizaban cables coaxiales. En estas
implementaciones, no se incluyen equipos especiales dedicados a la gestión de la capa de enlace y las
computadoras se conectan directamente al medio de enlace compartido. Las colisiones pueden ocurrir en
cualquier parte del cable y afectan a todos los elementos conectados sobre dicho cable. El dominio de
colisión es el alcance de esta interferencia, el conjunto de todos los elementos que están conectados y que
son afectados. El dominio de colisiones de esa red es el medio que comparten, por tanto, todo lo que esté
conectado al cable coaxial se ve afectado.
Cuando ocurre una colisión, todos los elementos de la red deben dejar de transmitir para luego retomar
por turnos según un valor aleatorio que cada elemento genera para esperar. Recordemos que, cuanta
mayor es la cantidad de computadoras, mayor es la posibilidad de que ocurra una colisión, lo que se
traduce en mayor cantidad de tiempos de silencio sobre el medio y tiempos de espera. En la sección
siguiente, veremos los switches y la función que cumplen en relación con las colisiones.
Figura 1: Dominios de colisión
Fuente: elaboración propia.
Dominios de broadcast
Un dominio de broadcast define el conjunto de dispositivos que son alcanzados desde una máquina con
una dirección particular de broadcast. Pero ¿qué es una dirección de broadcast?
Comencemos por aclarar que existen tres tipos de transmisión en cuanto al alcance de un mensaje
(unicast, multicast y broadcast), independientemente del medio que se utilice.
● Unicast: el mensaje tiene un destinatario determinado y es único.
● Multicast: el mensaje está destinado a muchos destinatarios que comparten o pertenecen a un
grupo dado.
● Broadcast: el mensaje está destinado a todos los dispositivos alcanzables en la red.
Como ya indicamos, esto es independiente del medio. Si el medio es compartido, todos los equipos
reciben todos los mensajes y los descartan salvo que sean los destinatarios. Entonces, la pregunta es
¿cómo un dispositivo reconoce si un mensaje le corresponde o no?
Como ya hemos visto anteriormente, no pueden repetirse los números de las placas de red, cada
fabricante obtiene de la IEEE un rango de direcciones MAC y las asigna a sus equipos. Todos los equipos
conocen su dirección MAC y deben poder determinar si el mensaje está destinado a ellos o no. Además,
en la trama Ethernet, están las direcciones MAC de la máquina origen y de la de destino.
Si es unicast, la dirección de destino es exactamente la propia de la máquina que recibe. Si es broadcast,
la dirección de destino está formada por todos los números 1 o en Hexa [Link]. En el caso de
multicast, que, por ejemplo, algunos fabricantes utilizan para comunicar sus propios equipos con
protocolos propietarios, combinan, en la dirección de destino, los bits de la numeración asignada al
fabricante seguidos de todos unos (en la parte de número de secuencia). De esa manera, el mensaje llega
a todos los equipos que son del mismo fabricante. Otras implementaciones asignan una dirección o rango
de vendedor propia del protocolo, y todos los dispositivos que lo implementan reciben una dirección de
dicho rango suministrada por un gestor.
Como ya dijimos, en los modelos de redes no se especifica cómo los fabricantes deben implementar sus
protocolos, solo las funciones e interfaces que deben implementar. Una de las posibilidades para hacer
esta comprobación es utilizando compuertas AND.
Existe una operación lógica que es posible realizar en modo binario de manera muy rápida, el “Y” lógico o
“AND” lógico. Esta operación da como resultado el valor lógico 1 si los dos elementos de la operación son
unos, y da cero en todo otro caso. De esta forma, una vez recibido el frame, la máquina destino puede
realizar esta operación tomando cada uno de los bits de la dirección destino con los bits de su propia
dirección, si coinciden, acepta esa trama. Así, cualquier mensaje con todos unos o con los últimos bits en
uno del mismo fabricante serán aceptados.
Dirección de broadcast
Es una dirección particular que tiene todos los bits en uno y que es aceptada por todos los dispositivos de
la red.
Es usada en protocolos de descubrimiento, de configuración automática y básicamente cuando un
dispositivo envía un frame (cuadro) por el medio solicitando un servicio que algún otro dispositivo de la red
brinda. Este responde a la petición y, a partir de allí, se establece un intercambio de mensajes unicast
entre ambos.
Entonces, para afirmar, reiteramos que un dominio de broadcast está definido por todos los equipos que
reciben y procesan un mensaje cuya dirección de destino está determinada por todos unos o
[Link], todos los dispositivos de la misma red reciben estos paquetes.
En una red LAN, todos los dispositivos pertenecen al mismo dominio de broadcast.
Figura 2: Dominios de broadcast
Un dispositivo de red que estudiaremos detalladamente en el módulo siguiente es el enrutador o router.
Aquí lo presentaremos diciendo que su principal función es la de interconectar distintas redes, es decir,
permite que mensajes de una red alcancen a otras redes (pero no mensajes de broadcast). El router
delimita dominios de broadcast y por ello lo introducimos aquí, más adelante profundizaremos en este
equipo.
Tema 2. Dispositivos de conmutación y switching. PoE
A continuación, analizaremos distintos equipos de la capa de enlace y cómo surgieron cada uno de ellos.
Al igual que lo descrito en los cables coaxiales, los hubs replican la situación de las colisiones, pero
utilizando cableado de pares trenzados como UTP, ya que estos equipos, si bien no comparten el mismo
cable coaxial, comparten un canal de transmisión único dentro del repetidor y todos los equipos reciben
todos los mensajes de los demás. En la medida en que las redes aumentan de tamaño, la probabilidad de
colisiones es cada vez mayor, lo que produce una significativa caída de la velocidad y performance
general.
Cuando surgió la necesidad de resolver este problema, una de las técnicas que se usó fue la de partición
del dispositivo, de manera que se reducían la cantidad de equipos compartiendo en medio y se creaban
LAN separadas. Esto se podía hacer en dispositivos separados o como segmentos dependientes del
mismo dispositivo particionado lógicamente. Si ocurría una colisión en una parte o segmento, no afectaba
a la otra. Para unir estos segmentos se utilizaba un bridge o puente. Estos dispositivos eran más costosos
que los repetidores comunes, porque tenían cierta inteligencia y ofrecían la ventaja de no replicar todo el
tráfico recibido en todos sus puertos. Contaban con una tabla de direcciones MAC (que, como ya vimos,
son las direcciones físicas de las placas Ethernet); y, si un frame llega al equipo destinado a una MAC que
está en el mismo puerto, no lo retransmite, ya que, como viene del mismo segmento, se considera que ya
lo recibió. Si tiene como destino una dirección MAC asociada a otro puerto —es decir, está conectado a
otro segmento—, entonces lo transmite por dicho puerto.
Los bridges cargan sus tablas de direcciones MAC (mac address table) de la siguiente forma: cuando llega
una trama Ethernet por una de sus interfaces, registran en la tabla la dirección MAC de origen de dicho
frame y el puerto de arribo. Al mismo tiempo, analizan la dirección de destino para ponerlo o entregarlo en
la interfaz correspondiente. Solo si la MAC no está en la tabla, se transmite por todos los puertos del
bridge (puente). Si bien esto produce algo de retraso sobre el mensaje, evita medios comunes muy
sobrecargados y también que el tráfico innecesario se replique sobre toda la red.
También, si ocurre una colisión en uno de los segmentos, los demás podían seguir traficando sin tener que
hacer la parada y recuperación, porque dicha colisión no “atraviesa” el puente. Decimos, en este caso, que
el dominio de colisiones está asociado a un puerto del bridge.
Figura 3: bridges en redes de múltiple acceso
Fuente: elaboración propia.
Así, los hubs incluyen la partición y los bridges, las tablas de direcciones MAC. Uniendo estas dos ideas,
con la reducción de costos producto de la fabricación masiva de dispositivos de red, surgen los
conmutadores o switches.
La característica principal de un switch es convertir cada puerto del dispositivo en un dominio de colisiones
independiente. De la misma forma que un puente o bridge mantiene una tabla que asocia una MAC
address con un puerto o interfaz, así lo hace el switch y transmite dicha trama por la interfaz asociada a la
dirección MAC de destino. Solo transmite por todas las interfaces cuando la dirección MAC de destino no
está presente en la tabla. Se asume que la máquina de destino pertenece a la red y, aunque no se
conozca aún su dirección MAC, se transmite por todas las interfaces. Esta es una situación de
“inundación” o flooding en la cual se busca alcanzar el destino usando todas las interfaces posibles.
Recordamos que
Un dominio de colisión es un medio compartido en el cual puede ocurrir una colisión frente al hecho de que
2 máquinas transmitan al mismo tiempo y la información puesta sobre el medio compartido sea distorsión.
Entonces tendremos lo siguiente.
● En un hub o repetidor, todos los puertos o interfaces de una partición pertenecen al mismo
dominio de colisiones.
● En un bridge o puente, cada puerto separa dominios de colisión
● En un switch o conmutador, cada interfaz es un dominio de colisión independiente.
Switching
Veamos cuáles son las diferencias entre bridge y switch. Una de las ventajas de los switches es que
admiten ciertos protocolos de administración que permiten gestionar su comportamiento. Si bien estos
dispositivos pueden funcionar sin configuración alguna y en general tienen habilitados estos mecanismos
que los definen como tales, los de mayor interés son aquellos que permiten configuraciones particulares,
decimos que son dispositivos administrables o configurables.
Los switches tienen un plano de transmisión interna de muy alta velocidad y han incorporado funciones de
la capa física especializadas. También han aprovechado principalmente la reducción de costos que
permite introducir en una pastilla, muchas funciones que los bridges no tenían; y pueden realizar sobre
hardware lo que el bridge resolvía con software. En los tiempos de los bridges, las memorias eran
costosas y escasas, no ocurre lo mismo con los switches. Por este motivo, los bridges tenían muy pocos
puertos, comúnmente solo dos.
Una de las facilidades que permite diferenciar a los switches o conmutadores de los bridges es que los
switches administrables permiten la configuración de LAN virtual o VLAN, que permite diferenciar dominios
de broadcast y que veremos un poco más adelante.
Otra diferencia es que los switches tienen un plano de tráfico de datos de muy alta velocidad. También
pueden utilizar puertos específicos para vincularse con otros switches denominados uplink o puertos de
subida. Y, principalmente, implementan protocolos para permitir conexiones redundantes y agrupaciones
de puertos, que los bridges no pueden manejar.
PoE (Power over Ethernet) - Alimentación a través de Ethernet
Una necesidad que surge cuando se conectan dispositivos de red pequeños y de bajo consumo —como,
por ejemplo, cámaras de vigilancia, sensores inteligentes o teléfonos IP— es la de proveer suficiente
energía para el funcionamiento de dicho dispositivo. Así se creó Power over Ethernet (PoE), que permite
brindar —al mismo tiempo y por el mismo cable— energía (power) y transmisión Ethernet. PoE se traduce
como “alimentación a través de Ethernet”. Para esto, los switches deben contar con una fuente de energía
y un pequeño módulo de alimentación integrado en la interfaz física que maneja el cable de par trenzado.
Existen dos tipos de alimentación en cuanto a la potencia entregada a cada dispositivo. Muchos switches
admiten ambos niveles de potencia, pero no se puede habilitar el 100 % de los puertos con la máxima
energía por limitaciones propias de la fuente de alimentación general. Esto es necesario tenerlo en cuenta
a la hora de seleccionar estos dispositivos. La alimentación estándar es de hasta 15 vatios, que incluye las
clases de dispositivos 1,2 y 3. Los dispositivos de mayor consumo definido en PoE+ son de hasta 30
vatios de potencia entregada y el dispositivo puede tener un consumo de 25 vatios. En este rubro, se
encuentran cámaras motorizadas y otros con requerimientos de mayor energía. Los estándares IEEE
802.3af y 802.3at para PoE+ definen equipos PSE (Power Sourcing Equipment), que son los que brindan
energía o equipos de suministro (Switches e inyectores PoE); y equipos PD, que son los que la consumen
(teléfonos cámaras o puntos de acceso denominados Powered devices o equipos alimentados).
Tema 3. VLAN. LAN virtual. Puertos de acceso y trunk
El rendimiento de la red es muy importante en la productividad de los centros de procesamiento y en las
empresas en general. Uno de los factores que generan tráfico —no necesariamente productivo— son los
protocolos que usan broadcast. Una de las técnicas que mejoran el rendimiento de la red es la división de
los grandes dominios de broadcast, ya que generan dominios más chicos y para esto se utilizan VLAN.
Los dominios de broadcast más pequeños limitan el número de dispositivos que participan en los
broadcasts.
¿Qué es una VLAN y cómo funciona?
Una VLAN es una agrupación lógica de estaciones, puestos de trabajo, servidores, y dispositivos de red
que no se limita a un segmento de LAN físico. Estos elementos son alcanzables entre sí mediante
protocolos Ethernet, pero no pueden ser alcanzados o alcanzar a otras VLAN mediante protocolo Ethernet.
La separación lógica se realiza en la capa de enlace. Los dispositivos que administran esta separación son
los switches, separando de esa forma dominios de broadcast.
La implementación de VLAN facilita la administración de grupos lógicos de estaciones y servidores que se
pueden comunicar como si estuviesen en el mismo segmento físico de LAN, aun cuando están conectados
entre distintos dispositivos. Además, permiten la gestión de los cambios que tengan los dispositivos de
esos grupos, sean mudanzas, agregados o bajas de componentes.
Las VLAN segmentan de manera lógica las redes conmutadas según diversos criterios. Se pueden crear
VLAN por piso de un edificio, por departamentos funcionales, por dependencia administrativa, por
funciones de los dispositivos o las que la organización requiera. Pueden tener o no relación con el espacio
físico donde están los equipos o las conexiones entre los mismos.
Las separaciones de VLAN van acompañadas de separaciones a nivel de la capa de red. Las direcciones
de red corresponden a distintos rangos y para habilitar el tráfico entre ellas se utilizan enrutadores de la
capa de red (router).
Esta separación es virtual, se realiza mediante una configuración particular en el puerto de switch. No es
física, de allí el nombre de Virtual LAN.
Para ello, se creó el estándar 802.1Q, que incorpora 4 bytes en la trama Ethernet para el control de la
VLAN, y en el cual el campo se denomina TAG o etiqueta. El campo está subdividido en partes, entre
ellas, el identificador de etiqueta y el de VLAN. En este campo es posible incorporar 4096 identificadores
de VLAN distintos —de los cuales se pueden utilizar 4094— y extiende el máximo tamaño de la trama de
1518 a 1522 bytes. Dentro del campo, también se puede establecer una prioridad para la trama y, de esta
forma, mapear distintas calidades de servicio.
Figura 4: Trama Ethernet con TAG
Fuente: elaboración propia.
Cada fabricante de switches ofrece formas de configuración distintas para asociar equipos a las VLAN y
estas pueden ser estáticas o dinámicas. La opción más generalizada es la estática, en la que se especifica
que un puerto pertenece a una VLAN; es el modo de mapeo de puerto a VLAN.
Entre las dinámicas, hay alternativas como las siguientes.
● Por MAC. En este caso, se asocia una dirección MAC a una VLAN, para lo cual se debe
especificar —en la configuración—, por cada equipo de la red, su MAC y la VLAN a la que se
asocia.
● Por protocolos. En este caso, se indican categorías o servicios específicos para los protocolos,
por ejemplo, la VLAN de Voz.
● Por autenticación. Es un sistema externo en el que los equipos se validan en un servidor externo
y se asignan a una VLAN definida externamente, con lo que se puede separar la gestión de la red
de la del acceso.
En todos los casos, se deben crear los identificadores de VLAN que se deban utilizar en los switches o
contar con un mecanismo de distribución de los identificadores.
En la opción más común, la de mapeo de puerto a VLAN estático, se especifica en cada interfaz el
identificador de la VLAN a la que se une el puerto.
Pero lo interesante es determinar cómo se comportan los distintos puertos del switch independientemente
del mecanismo de asignación de VLAN. Para ello, veremos los tipos de puertos.
Existen dos tipos de puertos en relación con esta configuración: los puertos de acceso y los troncales.
Acceso: un puerto de acceso tiene la función de realizar dos tareas. La primera, cuando recibe una trama
Ethernet, le agrega la etiqueta o TAG a la que pertenece. La segunda es retirar dicha etiqueta que
contiene el identificador de VLAN cuando transmite la trama hacia la máquina o dispositivo conectado.
Figura 5: Inserción de TAG en trama Ethernet
Fuente: elaboración propia.
Troncal (en inglés, trunk) es un puerto que generalmente se conecta con otro dispositivo que también
reconoce los identificadores de VLAN y no agrega o retira la etiqueta de la trama. En estos puertos, se
configuran las allowed VLAN (permitidas) que determinan qué identificadores de VLAN son permitidos en
el troncal. Con ese mecanismo, se limita el tránsito de tramas innecesarias —como las de broadcast—
hacia los dispositivos que no participan en la VLAN.
Figura 6: Puertos de acceso y troncales
Fuente: elaboración propia.
Ventajas de las VLAN
Las VLAN permiten que los administradores de red organicen las LAN de forma lógica en lugar de física.
Esta es una ventaja clave. Esto facilita a los administradores varias tareas como:
● trasladar las estaciones de trabajo en la LAN;
● agregar estaciones de trabajo a la LAN;
● cambiar la configuración de la LAN; y
● controlar el tráfico de red.
Figura 7: Asignación VLAN
Tema 4. Topologías con loops. STP. RSTP. Root bridge
En las empresas y organizaciones grandes, la disponibilidad de los servicios es un factor muy importante.
En las redes, en general, el aumento de disponibilidad se logra utilizando redundancia, lo que implica
duplicación de recursos, algunos de los cuales son más costosos que otros. Resultaría poco probable que
todas las computadoras de la organización tuvieran doble placa de red, y que los edificios tuvieran doble
cableado y todos los switches estuvieran duplicados para lograr una mejor disponibilidad. Por ello, en la
práctica, en lugar de duplicar toda la red, se utiliza la redundancia en los puntos críticos de falla.
Topologías con loops
Uno de los mecanismos que se utilizan para mejorar la disponibilidad es aumentar la cantidad de enlaces
disponibles entre los dispositivos, lo que acarrea un problema que mostramos en la siguiente figura.
Figura 8: Problema
Fuente: elaboración propia.
Consideremos que el computador A envía un mensaje al computador B; el switch 1, en la situación inicial,
no tiene registro en su tabla de direcciones MAC de estas computadoras. Por lo tanto, carga en su tabla la
dirección MAC del computador A por el puerto de ingreso de la trama. A continuación, como la dirección
de destino no está asociada a ninguno de sus puertos, envía la trama al switch 2, el switch 3 y todos sus
demás puertos. Estos tampoco tienen registros en su tabla de direcciones MAC, por lo tanto, lo envían
también por todos sus puertos. El switch 3 lo entrega por todos sus puertos al computador B, al switch 1 y
al switch 2. El switch 1 recibe la trama del switch 3 y la reenvía por todos sus enlaces; inmediatamente
luego, la recibe del k2 y la vuelve a reenviar, de manera que se inician dos ciclos como los anteriores. Y
así se repite indefinidamente.
Figura 9: Tormenta de broadcast
A esto, debemos agregar que, a cada arribo de la trama a uno de los switches, estos registran la dirección
MAC de origen en el puerto por el que ingresó, para luego utilizar esa información al tener que enviar una
trama con dicho destino. El arribo de tramas con la misma MAC de origen por distintos puertos provoca
una inestabilidad en la tabla de direcciones y una demanda de procesamiento adicional.
Ahora, imaginemos que, entre los switches, existe más de un enlace, por lo que las tramas en circulación
se multiplicarían. Si agregamos un gran número de computadoras en cada uno de los switches, la cantidad
de tramas en circulación aumentaría aún más y, sin importar qué capacidad tengan los enlaces, en algún
momento el tráfico los satura.
Este problema, que parece simple de explicar, es bastante difícil de identificar en una red compleja de
múltiples niveles de switches. Es más común de lo que parece y, afortunadamente, existe una solución
que permite la estabilidad de la red aun con loops o bucles, que vemos a continuación.
STP - Spanning Tree Protocol
El protocolo STP (que traducido significa protocolo de árbol de expansión) resuelve el problema descrito
anteriormente. Fue introducido en 1985, la IEEE lo estandarizó en 1990 bajo la recomendación 802.1d y,
luego, en 1998 y 2004, se agregaron extensiones, de manera que se adoptó finalmente RSTP como
estándar.
El protocolo se basa en el concepto de árbol, donde hay conectividad completa pero no existen caminos
redundantes o alternativos. Para ello, se identifica un nodo como raíz del árbol y se calculan las rutas a
este. Para analizarlo, debemos incorporar algunos conceptos previos.
BPDU (Bridge Protocol Data Units o unidad de datos de protocolo del puente): son los mensajes que
utiliza el protocolo para intercambiar información de los distintos switches y detectar loops. Son las
unidades de datos de los bridges.
Priority (prioridad): cada switch posee una prioridad para el protocolo. El switch con menor prioridad en
la red es elegido como raíz.
Bridge ID (identificador del bridge): es un campo de los BPDU compuesto por la prioridad del switch, el
sistema ID y la dirección MAC del switch.
Bridge root (raíz del puente): identifica al switch que posee el menor bridge ID. Este se calcula en cada
uno de los switches de acuerdo con las BPDU recibidas.
Path root (raíz de ruta): identifica el mejor camino al bridge root.
Path: es un camino al bridge root. Cuando la red dispone de más de una ruta para llegar a la raíz, el
algoritmo elige el mejor camino.
Cost: el protocolo calcula un costo para cada puerto de acuerdo con sus características de ancho de
banda, que puede ser modificado administrativamente.
El algoritmo STA (Spanning Tree Algorithm), que describe la lógica utilizada por STP para establecer los
estados de los puertos del switch, utiliza BPDU para intercambiar información de los nodos y sus enlaces.
También si ocurre un cambio de topología, por ejemplo, por caída de un puerto o enlace o por conexión de
un nuevo enlace. En función de estos mensajes, cada switch identifica la raíz de la topología y determina
su mejor camino a ese nodo, bloqueando los puertos que producen bucles, pasando por diferentes
estados.
Estados de puertos
Disabling - Deshabilitado: el puerto en este estado no participa del STP, no envía ni recibe BPDU ni
tramas de datos (shutdown)
1. Blocking – Bloqueo: el puerto no envía o recibe tramas de datos de usuario. Recibe BPDU para
mantener información de consistencia del árbol y envía BPDU para informar su estado. Este es un
estado de permanencia.
2. Listening – Escucha: el puerto entra en este estado después de estar bloqueado, recibe BPDU y
las procesa; el puerto no reenvía tramas de datos del usuario. Este es un estado transitorio.
3. Learning - Aprendizaje: luego de listening, el puerto entra en un estado en el que recibe tramas
de datos y comienza a poblar la tabla de direcciones MAC del switch, pero no reenvía las tramas
al usuario. Este es un estado transitorio.
4. Forwarding – Enviando: Es el último estado del proceso, cuando el puerto recibe y envía BPDU
y tramas de usuario. Es un estado de permanencia.
En la siguiente figura, vemos cómo se mueven las BPDU y se bloquean los puertos.
Figura 10: Envío de tramas BPDU y resultado de los puertos
Fuente: elaboración propia.
RSTP – Rapid Spanning Tree Protocol
Es una mejora del protocolo STP que se adoptó como estándar desde 2004.
Si bien el objetivo de mantener una topología libre de loops o bucles es el mismo, tiene algunas diferencias
con el STP anterior. Incorpora una nueva forma de calcular el costo de los puertos adaptado a las nuevas
velocidades de Ethernet, elimina el estado listening, utiliza estados más breves en cada etapa, cambia los
tiempos de espera y establece nuevos roles o estados para los puertos. Veamos una comparación entre
los estados de ambas versiones.
Tabla 1: Comparación entre STP y RSTP
Descripción
Estado STP Estado RSTP
El puerto está administrativamente deshabilitado.
Disabled Discarding
No envía ni recibe tramas de usuario, las ignora; sí recibe
Blocking Discarding
BPDU.
No se utiliza en el nuevo protocolo.
Listening -
Aprende MAC y las coloca en la tabla de direcciones MAC,
Learning Learning
estado transitorio.
Aprende MAC, envía y recibe tramas de usuario y BPDU.
Forwarding Forwarding
Los nuevos roles para los puertos se definen de la siguiente manera:
● Root port: es el puerto que posee la mejor ruta al switch raíz (path root).
● Alternate port: este puerto reemplaza al puerto raíz si se pone en falla.
● Designated port: es un puerto en el que el switch recibe tramas de otro switch como raíz. Es el
puerto designado para recibir las tramas de otro switch.
● Backup port: es un puerto de respaldo, pasa a ser el puerto designado cuando falla.
● Disabled port: es un puerto deshabilitado de forma administrativa.
Este protocolo surge porque los tiempos de convergencia, (recuperar la estabilidad ante una falla) son de
aproximadamente 50 segundos para STP. Ello en su momento no era un problema, pero, con las
velocidades actuales de Ethernet, se presentó la necesidad de acelerar el proceso.
Como se planteó antes, el principio de funcionamiento y objetivo del protocolo es el mismo: se busca una
topología de árbol libre de loops o bucles; y se permiten conexiones redundantes para aumentar la
disponibilidad de la red y brindar tolerancia a fallos.
Unidad 2. Redes wifi. WLAN
Como indicamos al inicio del módulo, es muy importante conocer las características de las redes vigentes actualmente. Con
dispositivos móviles —sean celulares tabletas o notebooks—, otra de las tecnologías que toma cada vez más importancia es
las denominadas WLAN. Veamos de qué se trata.
Tema 1. Protocolo 802.11 y sus variantes
Las redes inalámbricas actuales se basan en la recomendación 802.11 del Institute of Electrical and
Electronic Engineers (IEEE) —que fue publicada originalmente en 1997—, y especificaba dos velocidades
de datos —la de 1 y 2 Mbps— utilizando transmisores infrarrojos, en la frecuencia de 2.4 Ghz.
El estándar 802.11 original también define CSMA/CA (Carrier Sense Multiple Access/Collision Avoidance)
de la misma forma que el sensado de Ethernet sobre cable coaxial, lo que presenta un límite de
rendimiento del ancho de banda canal cercano al 65 %, en el mejor de los casos. Esto implica que en el
canal de 1 Mbps apenas se logran alcanzar los 650 Kbps de transmisión efectiva.
Pero, antes de analizar el protocolo, debemos introducirnos en el mundo de las transmisiones
inalámbricas. Para ello, recordemos que el medio utilizado no es físico, sino que se utiliza la propagación
de ondas electromagnéticas. Dichas ondas electromagnéticas se caracterizan por la frecuencia en la que
se producen, así, podemos tener distintas divisiones en rangos característicos de frecuencias. En el caso
de las frecuencias electromagnéticas, el espectro (que es la distribución continua de la intensidad de
radiación) está dado en Hertz (Hz), que indican la cantidad de ciclos de la onda por segundo. Las
frecuencias características se definen en un valor representativo, pero definen un rango de frecuencias:
así, la banda de 2.4Ghz va desde los 2400 MHz a los 2483.5 MHz; la de 5 GHz, según el país, va desde
los 5.150 a 5350 MHz, de 5470 GHz a 5725 GHz y desde 5725 MHz a 5850 MHz, este último también
conocido como 5.8 GHz. Cada país tiene sus organismos de control que asignan las frecuencias y
determinan su utilización.
Recordemos que, para transmitir una señal digital, es necesario una variación en la señal que permita
distinguir un símbolo de otro. Esto se consigue variando la frecuencia durante pequeños intervalos de
tiempo en el rango asignado. A su vez, el rango se divide en canales más pequeños, de manera que se
pueda reducir la interferencia de dispositivos trabajando en la misma banda.
La recomendación original tenía muchas variantes, lo que dificultó la interoperabilidad. La primera en
adquirir popularidad fue la 802.11b, que veremos a continuación.
802.11b
Surge en 1999 y fue rápidamente aceptada por la industria, porque ofrecía una ventaja importante en
cuanto a velocidad respecto de la anterior. Funcionaba en canales de 11 MBps con un rendimiento entre
5.5 y 7 MBps, utilizando la banda de 2.4 GHz con un ancho de canal de 83,5 GHz.
Las tarjetas de red 802.11b pueden trabajar a 11 MBps, pero bajan a 5, 2 o 1 MBps si hay mucha
interferencia.
802.11a
También es de 1999, utiliza la banda de 5 GHz con un canal de 54 MBps en datos sin procesar, que tiene
un rendimiento efectivo de aproximadamente 24 MBps. La velocidad también se reduce a 48, 36, 34, 18, y
hasta 6 MBps cuando hay interferencia.
Como la banda de 2.4 GHhz es muy utilizada, muchos prefieren utilizar la de 5 GHz, lo que ofrece ventajas
en ambientes reducidos, pero resulta más afectada cuando tiene que atravesar paredes o mucho follaje.
La aparición de equipos con esta tecnología fue posterior a la de su hermana 802.11b, por lo cual quedó
algo rezagada en el inicio. Actualmente es común encontrar dispositivos que implementan los dos modos.
802.11g
Se propuso en 2003, también utiliza la banda de 2.4 GHz con velocidad de 54 MBps —con rendimiento de
casi 25 MBps—, es compatible con el estándar b y utiliza las mismas frecuencias, aunque la presencia de
señales del tipo b reducen bastante la velocidad de 802.11g. A finales de 2003 se utilizaban tarjetas
tribandas que implementaban los modos a, b y g en los puntos de acceso. Muchos de los que actualmente
se utilizan ofrecen la posibilidad de desafectar el modo b o destinar canales exclusivos que no se
superpongan con el modo g en 2.4 GHz para poder aprovechar la mejora de velocidad y reducir la
interferencia.
802.11n
A finales de 2004, se formó un nuevo grupo de trabajo en la IEEE para desarrollar un nuevo estándar que
supere las velocidades vigentes. En 2006, se publicó el primer borrador de 802.11n y en 2007 aparecen
los primeros productos comerciales. Este estándar provee una velocidad de 144 MBps en canales de 20
GHz y 300 MBps en canales de 40 GHz. A su vez, se incorporan múltiples antenas de entrada y de salida
(MIMO, Multiple Input, Multiple Output). El estándar tiene más de diez borradores con modificaciones; el
último es de 2009 y con este se podrían llegar a velocidades de 600 MBps.
802.11ac
Se desarrolló entre 2011 y 2013, trabaja en la banda de los 5 GHz, mejora las velocidades hasta los 433
MBps y consigue 1.3 GBps si se usan tres antenas. Puede utilizar hasta 8 flujos MIMO en el modo
MU-MIMO (MU proviene de Multi User), lo que permite que varios usuarios al mismo tiempo puedan
transmitir a la vez. En la versión Wave 2, permite alcanzar el doble de velocidad de transmisión utilizando
canales de 160 MHz, y logra una velocidad teórica superior a los 3 GBps, aunque el rendimiento efectivo
llega a los 800 Mbps.
Incluye mejoras en la modulación de la radiofrecuencia incorporando alta densidad (256QAM)
802.11ax
Se lanzó en 2019, logra velocidades superiores y la principal característica es que combina dos bandas
(2.4 y 5 GHz) usándolas en simultaneo. Utiliza MU-MIMO, que permite que múltiples usuarios utilicen el
espectro al mismo tiempo. Introduce una nueva codificación de la frecuencia OFDMA, que se divide en
subcanales en los que conecta cada dispositivo. Reduce el consumo de energía y está pensado para
lugares donde hay mucha concentración de dispositivos móviles, como aeropuertos, centros comerciales y
estadios. Por ser muy reciente, no hay muchos dispositivos que utilicen esta tecnología.
Incluye modulación (1024-QAM) y ofrece velocidades teóricas de 10 Gbps, aunque el rendimiento efectivo
es cercano a 1 GBps.
Tabla 2: Resumen de estándares
Estándar IEE Año Banda Características
802.11 1997 2.4GHz Velocidad hasta 2 Mbps. Muchas variantes, poca
interoperabilidad, baja aceptación y pocas implementaciones.
802.11a 1999 5GHz Velocidades de hasta 54 Mbps. Poco alcance, dificultades en
paredes y estructura de edificios.
No puede interoperar con las demás.
802.11b 1999 2.4GHz Velocidades de 11Mbps, de mucha aceptación y rápida
implementación. Adecua la velocidad por interferencias.
802.11g 2003 2.4GHz Velocidades de 54Mbps, compatible con el estándar b, aprovecha
las ventajas de 2.4 en cuanto a alcance.
802.11n 2009 2.4GHz o Velocidad de hasta 144 Mbps en 2.4 y 300 Mbps en 5 GHz
5GHz
Incorpora MIMO, tiene muchos borradores y modificaciones, en
las últimas se logran velocidades de 600 Mbps.
802.11ac 2013 5GHz Velocidad de 500 Mbps con una antena a 1.3 Gbps con múltiples
antenas. El tiempo de espera entre tramas se reduce a solo 400
nanosegundos. También utiliza MIMO y MU-MIMO.
802.11ax 2020 2.4GHz y La principal forma en que aumenta la velocidad es combinando
5GHz las bandas de espectro de 2,4 GHz y 5 GHz. Velocidades
cercanas a 10 Gbps con rendimiento de 1 Gbps.
Mejora el consumo de energía.
Acepta gran cantidad de dispositivos con MU-MIMO.
Conocido como wifi 6 o HEW (High Efficiency Wireless).
Pensado para lugares de mucha concentración de usuarios.