Introducción a las Redes
Concepto de Red
El concepto de Red
Introducción a las redes de equipos
¿Porqué usar una red de equipos?
Los dos tipos principales de redes: LAN y WAN
Configuración de redes
Introducción
Redes Trabajo en Grupo
Redes basadas en servidor
Topología de Redes
Diseño de una topología de red
Topologías estándar
Hubs
Variaciones sobre las topologías estándar
2.- Dispositivos básicos de redes
Cableado de una red
Principales tipos de cables
Transmisión de la señal
Incremento del rendimiento del ancho de banda
El sistema de cableado de IBM
Selección del cableado
La tarjeta de Red
La función de la tarjeta de Red
Opciones y parámetros de configuración
Compatibilidad de tarjetas, buses y cables
Rendimiento de la red
Tarjetas de Red especializadas
Redes sin hilos
El entorno sin hilos
Tipos de Redes sin hilos
3.- Descripción de la arquitectura de Redes
Métodos de acceso
La función de los métodos de acceso
Principales métodos de acceso
Envío de datos en una red
La función de los paquetes de comunicaciones en red
Estructura de un paquete
Ethernet
Orígenes de Ethernet
Especificaciones de Ethernet
Características de Ethernet
Los estándares IEEE a 10 Mbps
Los estándares IEEE a 100 Mbps
Token Ring
Introducción
Funcionamiento de una red Token Ring
Componentes Hardware
Futuro de las redes Token Ring
AppleTalk y ARCnet
El entorno AppleTalk
El entorno ARCnet
4.- Sistemas operativos de Red
Introducción a los sistemas operativos de Red
Introducción
Componentes Software
Selección de un sistema operativo de red
Sistemas operativos de Novell
Introducción
Servicios NetWare
Interoperatividad
Sistemas operativos de red de Microsoft
Introducción a Windows NT
Servicios de Windows NT
Interoperatividad
Otros sistemas operativos
Sistema operativo de red AppleTalk
Redes UNIX
Servicios virtuales de red Integrados Banyan (Vines)
Redes locales Trabajo en Grupo
Sistemas operativos de red en entornos multiplataforma
El entorno multiplataforma
Implementación de soluciones multiplataforma
5.- Introducción a los estándares de Redes
El modelo de referencia de Interconexión de sistemas abiertos (OSI,
Open System Interconnection)
Comunicaciones en Red
El modelo de referencia OSI
Windows NT y el modelo OSI
El estándar IEEE 802.x
El modelo del proyecto 802
Controladores de dispositivos y OSI
Función de los controladores
El entorno de red
Especificación de interfaz de controlador de red (NDIS, Network
Driver Interface Specification)
Interfaz abierta de enlace de datos (ODI, Open Data-Link
Interface)
Conexión entre NDIS y ODI
6.- Definición de protocolos de Red
Introducción a los protocolos
La función de los protocolos
Protocolos en una arquitectura multinivel
TCP/IP
Estándares TCP/IP
TCP/IP y el modelo OSI
Protocolos NetWare
Protocolos de acceso al medio
IPX/SPX
RIP
SAP
Protocolo básico de NetWare
Otros protocolos habituales
NetBIOS
NetBEUI
Conmutación de paquetes X.25
XNS
APPC
AppleTalk
Conjunto de protocolos OSI
DECnet
7.- Elementos para la conectividad de redes
Dispositivos para conectividad
Tecnología de módems
Expansión de una red usando componentes
Servicios de conexión
Proveedores de servicios (Carriers)
Introducción a las WAN
Envío de datos a través de una WAN
8.- Diseño e instalación de una red
Selección de un diseño de red
¿Trabajo en Grupo o basada en servidor?
Hacer inventario
Realización de un mapa
Selección del medio de la red
Establecimiento de un entorno cliente/servidor
Computación centralizada frente al modelo cliente/servidor
Introducción al modelo cliente/servidor
Ventajas del uso de un entorno cliente/servidor
Utilización de controladores de dispositivo y tarjetas de red
La función de los controladores
El entorno de red
Utilización de controladores
Instalación de tarjetas de red
Comprobación de la compatibilidad hardware
Problemas con el hardware
Hardware
9.- Configuración de recursos y cuentas en una Red
Creación de recursos compartidos en una red
Cómo compartir recursos en una red
Cómo compartir discos y archivos
Cómo compartir en un entorno Trabajo en Grupo
Cómo compartir en una red Cliente/Servidor
Definición y gestión de cuentas de red
Cuentas de red
Administración de cuentas en un entorno Windows NT
Administración de cuentas en un entorno Apple
Administración de cuentas en un entorno UNIX
10.- Seguridad en una Red
Implantación de la seguridad en redes
Planificación de la seguridad de la red
Modelos de seguridad habituales
Medidas de seguridad adicionales
Virus informáticos
Mantenimiento de un entorno de red operativo
Los equipos y el entorno
Creación de un entorno adecuado
Evitar la pérdida de datos
Protección de los datos
Copias de seguridad en cinta
Sistemas de alimentación ininterrumpida (SAI)
Sistemas tolerantes a fallos
Unidades y discos ópticos
Recuperación frente a catástrofes
11.- Impresión en Red
Impresión en red
Gestión de una impresora compartida
Compartir un módem fax
12.- Administración de cambios
Documentación de una red existente
Documentación
Definición de una línea base
Documentación del rendimiento de la Red
Otras herramientas de software
Cuellos de botella
Documentación del rendimiento del Servidor
Gestión integral del sistema
Mantenimiento de un historial de la red
Actualización de una red
Toma de la decisión de actualizar una red
El servidor
La estación
La tarjeta de red (NIC)
El Medio de la red
Actualización de routers, bridges y repetidores
Traslado de una red
Planificación del traslado
Realización del traslado
Verificación de la red tras el traslado
13.- Solución de problemas en una Red
Análisis del problema
Diagnóstico
División del problema
Aislamiento del problema
Definición de prioridades
Herramientas para diagnóstico
Herramientas hardware
Herramientas software
Herramientas para monitorización y diagnóstico
Dónde encontrar ayuda
Recursos de soporte para redes
Technet
Boletines electrónicos
Grupos de usuarios
Publicaciones
Internet
Concepto de Red Local
La idea de las redes existe desde hace mucho tiempo, y ha tomado muchos
significados. Si consulta el término «red» en su diccionario, podría encontrar
cualquiera de las siguientes definiciones:
Malla, arte de pesca.
Un sistema de líneas, caminos o canales entrelazados.
Cualquier sistema interconectado; por ejemplo, una red de difusión de
televisión.
Un sistema en el que se conectan entre sí varias equipos
independientes para compartir datos y periféricos, como discos duros e
impresoras.
En la definición, la palabra clave es «compartir». El propósito de las redes de
equipos es compartir. La capacidad de compartir información de forma eficiente es lo
que le da a las redes de equipos su potencia y atractivo. Y en lo que respecta a
compartir información, los seres humanos actúan en cierto modo como los equipos.
Así como los equipos son poco más que el conjunto de información que se les ha
introducido, en cierto modo, nosotros somos el conjunto de nuestras experiencias y la
información que se nos ha dado. Cuando queremos incrementar nuestros
conocimientos, ampliamos nuestra experiencia y recogemos más información. Por
ejemplo, para aprender más sobre los equipos, podríamos hablar informalmente con
amigos de la industria informática, volver a la escuela e ir a clase, o seguir un curso de
autoaprendizaje. Independientemente de la opción seleccionada, cuando buscamos
compartir el conocimiento y la experiencia de los demás, estamos trabajando en red.
Otra forma de pensar en las redes es imaginarse una red como un equipo.
Puede ser un equipo deportivo, como un equipo de fútbol, o un equipo de
proyecto. Mediante el esfuerzo conjunto de todos los implicados (compartiendo tiempo,
talento y recursos) se alcanza una meta o se termina un proyecto. De forma similar,
gestionar una red de equipos no es muy distinto de dirigir un equipo de personas. La
comunicación y compartición puede ser fácil y simple (un jugador que pide a otro la
pelota) o compleja (un equipo de un proyecto virtual localizado en diferentes zonas
horarias del mundo que se comunica mediante teleconferencia, correo electrónico y
presentaciones multimedia por Internet para llevar a cabo un proyecto).
Introducción a las redes de equipos
En su nivel más elemental, una red de equipos consiste en dos equipos conectados
entre sí con un cable que les permite compartir datos. Todas las redes de equipos,
independientemente de su nivel de sofisticación, surgen de este sistema tan simple.
Aunque puede que la idea de conectar dos equipos con un cable no parezca
extraordinaria, al mirar hacia atrás se comprueba que ha sido un gran logro a nivel de
comunicaciones.
Las redes de equipos surgen como respuesta a la necesidad de compartir datos de
forma rápida. Los equipos personales son herramientas potentes que pueden procesar
y manipular rápidamente grandes cantidades de datos, pero no permiten que los
usuarios compartan los datos de forma eficiente. Antes de la aparición de las redes,
los usuarios necesitaban imprimir sus documentos o copiar los archivos de
documentos en un disco para que otras personas pudieran editarlos o utilizarlos. Si
otras personas realizaban modificaciones en el documento, no existía un método fácil
para combinar los cambios. A este sistema se le llamaba, y se le sigue llamando,
«trabajo en un entorno independiente» .
En ocasiones, al proceso de copiar archivos en disquetes y dárselos a otras
personas para copiarlos en sus equipos se le denomina «red de alpargata»
(sneakernet). Esta antigua versión de trabajo en red la hemos usado muchos de
nosotros, y puede que sigamos usándola actualmente.
Este sistema funciona bien en ciertas situaciones, y
presenta sus ventajas (nos permite tomar un café o
hablar con un amigo mientras intercambiamos y
combinamos datos), pero resulta demasiado lento e
ineficiente para cubrir las necesidades y expectativas
de los usuarios informáticos de hoy en día. La cantidad
de datos que se necesitan compartir y las distancias
que deben cubrir los datos superan con creces las posibilidades del intercambio de
disquetes.
¿Pero qué sucedería si un equipo estuviera conectado a otros? Entonces podría
compartir datos con otros equipos, y enviar documentos a otras impresoras. Esta
interconexión de equipos y otros dispositivos se llama una red, y el concepto de
conectar equipos que comparten recursos es un sistema en red.
¿Por que usar una red de equipos?
Con la
disponibilid
ad y la
potencia de los equipos personales actuales,
puede que se pregunte por qué son necesarias
las redes. Desde las primeras redes hasta los equipos personales actuales de altas
prestaciones, la respuesta sigue siendo la misma: las redes aumentan la eficiencia y
reducen los costes. Las redes de equipos alcanzan estos objetivos de tres formas
principales:
Compartiendo información (o datos).
Compartiendo hardware y software.
Centralizando la administración y el soporte.
De forma más específica, los equipos que forman parte de una red pueden
compartir:
Documentos (informes, hojas de cálculo, facturas, etc.).
Mensajes de correo electrónico.
Software de tratamiento de textos.
Software de seguimiento de proyectos.
Ilustraciones, fotografías, vídeos y archivos de audio.
Transmisiones de audio y vídeo en directo.
Impresoras.
Faxes.
Módems.
Unidades de CD-ROM y otras unidades removibles, como unidades Zip
y Jaz.
Discos duros.
Y existen más posibilidades para compartir. Las prestaciones de las redes crecen
constantemente, a medida que se encuentran nuevos métodos para compartir y
comunicarse mediante los equipos.
Compartir información (o datos)
La capacidad de compartir información de forma rápida y económica ha demostrado
ser uno de los usos más populares de la tecnología de las redes. Hay informes que
afirman que el correo electrónico es, con diferencia, la principal actividad de las
personas que usan Internet. Muchas empresas han invertido en redes específicamente
para aprovechar los programas de correo electrónico y planificación basados en red.
Al hacer que la información esté disponible para compartir, las redes pueden reducir
la necesidad de comunicación por escrito, incrementar la eficiencia y hacer que
prácticamente cualquier tipo de dato esté disponible simultáneamente para cualquier
usuario que lo necesite. Los directivos pueden usar estas utilidades para comunicarse
rápidamente de forma eficaz con grandes grupos de personas, y para organizar y
planificar reuniones con personas de toda una empresa u organización de un modo
mucho más fácil de lo que era posible anteriormente.
Compartir hardware y software
Antes de la aparición de las redes, los
usuarios informáticos necesitaban sus
propias impresoras, trazadores y otros
periféricos; el único modo en que los
usuarios podían compartir una impresora
era hacer turnos para sentarse en el equipo
conectado a la impresora.
Las redes hacen posible que varias
personas compartan simultáneamente
datos y periféricos. Si muchas personas necesitan usar una impresora, todos pueden
usar la impresora disponible en la red.
Las redes pueden usarse para compartir y estandarizar aplicaciones, como
tratamientos de texto, hojas de cálculo, bases de datos de existencias, etc., para
asegurarse de que todas las personas de la red utilizan las mismas aplicaciones y las
mismas versiones de estas aplicaciones. Esto permite compartir fácilmente los
documentos, y hace que la formación sea más eficiente: es más fácil que los usuarios
aprendan a usar bien una aplicación de tratamiento de textos que intentar aprender
cuatro o cinco aplicaciones distintas de tratamiento de textos.
Centralización de la administración y el soporte
La conexión en red de los equipos también puede facilitar las tareas de soporte.
Para el personal técnico, es mucho más eficiente dar soporte a una versión de un
sistema operativo o aplicación y configurar todas los equipos del mismo modo que dar
soporte a muchos sistemas y configuraciones individuales y diferentes.
Los dos tipos principales de redes: LAN y WAN
Las redes de equipos se clasifican en dos grupos, dependiendo de su tamaño y
función. Una red de área local
(LAN, Local Area Network) es
el bloque básico de cualquier
red de equipos. Una LAN
puede ser muy simple (dos
equipos conectados con un
cable) o compleja (cientos de
equipos y periféricos
conectados dentro de una gran
empresa). La característica que
distingue a una LAN es que
está confinada a un área geográfica limitada.
Por otra parte, una red de área extensa (WAN, Wide Area Network), no tiene
limitaciones geográficas. Puede conectar equipos y otros dispositivos situados en
extremos opuestos del planeta. Una WAN consta de varias LAN interconectadas.
Podemos ver Internet como la WAN suprema.
Configuración de redes
En general, todas las redes tienen ciertos componentes, funciones y características
comunes. Éstos incluyen:
Servidores: Equipos que ofrecen recursos compartidos a los usuarios
de la red.
Clientes: Equipos que acceden a los recursos compartidos de la red
ofrecidos por los servidores.
Medio: Los cables que mantienen las conexiones físicas.
Datos compartidos: Archivos suministrados a los clientes por parte de
los servidores a través de la red.
Impresoras y otros periféricos compartidos: Recursos adicionales
ofrecidos por los servidores.
Recursos: Cualquier servicio o dispositivo, como archivos, impresoras u
otros elementos, disponible para su uso por los miembros de la red.
Aun con estas similitudes, las redes se dividen en dos categorías principales.
Redes Trabajo en Grupo.
Redes basadas en servidor.
La diferencia entre las redes Trabajo en Grupo y las redes basadas en servidor es
importante, ya que cada tipo presenta distintas capacidades. El tipo de red
seleccionado para su instalación dependerá de factores tales como:
El tamaño de la organización.
El nivel de seguridad requerido.
El tipo de negocio.
El nivel de soporte administrativo disponible.
La cantidad de tráfico de la red.
Las necesidades de los usuarios de la red.
El presupuesto de la red.
Redes Trabajo en Grupo
En una red Trabajo en Grupo,
no hay servidores dedicados, y
no existe una jerarquía entre los
equipos. Todos los equipos son
iguales, y por tanto son «pares»
(peers). Cada equipo actúa
como cliente y servidor, y no
hay un administrador responsable de la red completa. El usuario de cada equipo
determina los datos de dicho equipo que van a ser compartidos en la red.
Tamaño: Las redes Trabajo en Grupo (peer-to-peer) se llaman también
grupos de trabajo (workgroups). El término "grupo de trabajo" implica un
pequeño grupo de personas. Generalmente, una red Trabajo en Grupo abarca
un máximo de diez equipos.
Coste: Las redes Trabajo en Grupo son relativamente simples. Como
cada equipo funciona como cliente y servidor, no hay necesidad de un potente
servidor central o de los restantes componentes de una red de alta capacidad.
Las redes Trabajo en Grupo pueden ser más económicas que las redes
basadas en servidor.
Sistemas operativos: En una red punto a punto, el software de red no
requiere el mismo tipo de rendimiento y nivel de seguridad que el software de
red diseñado para servidores dedicados. Los servidores dedicados sólo
funcionan como servidores, y no como clientes o estaciones.
Las redes Trabajo en Grupo están incorporadas en muchos sistemas
operativos. En estos casos, no es necesario software adicional para configurar
una red Trabajo en Grupo.
Implementación: En entornos típicos de red, una implementación
Trabajo en Grupo ofrece las siguientes ventajas:
Los equipos están en las mesas de los usuarios.
Los usuarios actúan como sus propios administradores, y
planifican su propia seguridad.
Los equipos de la red están conectados por un sistema de
cableado simple, fácilmente visible.
Cuándo resulta adecuada una red Trabajo en Grupo
Las redes Trabajo en Grupo resultan una buena elección para entornos en los
cuales:
Hay como máximo 10 usuarios.
Los usuarios comparten recursos, tales como archivos e impresoras,
pero no existen servidores especializados.
La seguridad no es una cuestión fundamental.
La organización y la red sólo van a experimentar un crecimiento limitado
en un futuro cercano.
Cuando se dan estos factores, puede que una red Trabajo en Grupo sea una mejor
opción que una red basada en servidor.
Consideraciones sobre una red Trabajo en Grupo
Aunque puede que una red Trabajo en Grupo pueda cubrir las necesidades de
pequeñas organizaciones, no resulta adecuada para todos los entornos. El resto de
esta sección describe alguna de las consideraciones que un planificador de redes
necesita tener en cuenta antes de seleccionar el tipo de red a implementar.
Administración
Las tareas de administración de la red incluyen:
Gestionar los usuarios y la seguridad.
Asegurar la disponibilidad de los recursos.
Mantener las aplicaciones y los datos.
Instalar y actualizar software de aplicación y de sistema operativo.
En una red típica Trabajo en Grupo, no hay un responsable del sistema que
supervise la administración de toda la red. En lugar de esto, los usuarios individuales
administran sus propios equipos.
Compartir recursos
Todos los usuarios pueden compartir cualquiera de sus recursos de la forma que
deseen. Estos recursos incluyen datos en directorios compartidos, impresoras, tarjetas
de fax, y demás.
Requerimientos del servidor
En una red Trabajo en Grupo, cada equipo necesita:
Utilizar un amplio porcentaje de sus recursos para dar soporte al usuario
sentado frente a el equipo, denominado usuario local.
Usar recursos adicionales, como el disco duro y la memoria, para dar
soporte a los usuarios que acceden a recursos desde la red, denominados
usuarios remotos.
Aunque una red basada en servidor libera al usuario local de estas demandas,
necesita, como mínimo, un potente servidor dedicado para cubrir las demandas de
todos los clientes de la red.
Seguridad
En una red de equipos, la seguridad (hacer que los equipos y los datos
almacenados en ellos estén a salvo de daños o accesos no autorizados) consiste en
definir una contraseña sobre un recurso, como un directorio, que es compartido en la
red. Todos los usuarios de una red Trabajo en Grupo definen su propia seguridad, y
puede haber recursos compartidos en cualquier equipo, en lugar de únicamente en un
servidor centralizado; de este modo, es muy difícil mantener un control centralizado.
Esta falta de control tiene un gran impacto en la seguridad de la red, ya que puede que
algunos usuarios no implementen ninguna medida de seguridad. Si la seguridad es
importante, puede que sea mejor usar una red basada en servidor.
Formación
Como cada equipo de un entorno Trabajo en Grupo puede actuar como servidor y
cliente, los usuarios necesitan formación antes de que puedan desenvolverse
correctamente como usuarios y administradores de sus equipos.
Redes basadas en servidor
En un entorno con más de 10
usuarios, una red Trabajo en Grupo
(con equipos que actúen a la vez como
servidores y clientes) puede que no
resulta adecuada. Por tanto, la
mayoría de las redes tienen servidores
dedicados. Un servidor dedicado es
aquel que funciona sólo como servidor,
y no se utiliza como cliente o estación,
Los servidores se llaman «dedicados»
porque no son a su vez clientes, y
porque están optimizados para dar
servicio con rapidez a peticiones de clientes de la red, y garantizar la seguridad de los
archivos y directorios. Las redes basadas en servidor se han convertido en el modelo
estándar para la definición de redes.
A medida que las redes incrementan su tamaño (y el número de equipos
conectados y la distancia física y el tráfico entre ellas crece), generalmente se necesita
más de un servidor. La división de las tareas de la red entre varios servidores asegura
que cada tarea será realizada de la forma más eficiente posible.
Servidores especializados
Los servidores necesitan realizar tareas complejas y variadas. Los servidores para
grandes redes se han especializado para adaptarse a las necesidades de los usuarios.
A continuación se dan ejemplos de los diferentes tipos de servidores incluidos en
muchas redes de gran tamaño.
Servidores de archivos e impresión: Los servidores de archivos e
impresión gestionan el acceso de los usuarios y el uso de recursos de archivos
e impresión. Por ejemplo, al ejecutar una aplicación de tratamiento de textos, la
aplicación de tratamiento de textos se ejecuta en su equipo. El documento de
tratamiento de textos almacenado en el servidor de archivos e impresión se
carga en la memoria de su equipo, de forma que pueda editarlo o modificarlo
de forma local. En otras palabras, los servidores de archivos e impresión se,
utilizan para el almacenamiento de archivos y datos.
Servidores de aplicaciones: Los servidores de aplicaciones
constituyen el lado servidor de las aplicaciones cliente/servidor, así como los
datos, disponibles para los clientes. Por ejemplo, los servidores almacenan
grandes cantidades de datos organizados para que resulte fácil su
recuperación. Por tanto, un servidor de aplicaciones es distinto de un servidor
de archivos e impresión. Con un servidor de archivos e impresión, los datos o
el archivo son descargados al equipo que hace la petición. En un servidor de
aplicaciones, la base de datos permanece en el servidor y sólo se envían los
resultados de la petición al equipo que realiza la misma.
Una aplicación cliente que se ejecuta de forma local accede a los datos del
servidor de aplicaciones. Por ejemplo, podría consultar la base de datos de
empleados buscando los empleados que han nacido en noviembre. En lugar de
tener la base de datos completa, sólo se pasará el resultado de la consulta
desde el servidor a su equipo local.
Servidores de correo: Los servidores de correo funcionan como
servidores de aplicaciones, en el sentido de que son aplicaciones servidor y
cliente por separado, con datos descargados de forma selectiva del servidor al
cliente.
Servidores de fax: Los servidores de fax gestionan el tráfico de fax
hacia el exterior y el interior de la red, compartiendo una o más tarjetas módem
fax.
Servidores de comunicaciones: Los servidores de comunicaciones
gestionan el flujo de datos y mensajes de correo electrónico entre las propias
redes de los servidores y otras redes, equipos mainframes, o usuarios remotos
que se conectan a los servidores utilizando módems y líneas telefónicas.
Servidores de servicios de directorio: Los servidores de servicios de
directorio permiten a los usuarios localizar, almacenar y proteger información
en la red. Por ejemplo, cierto software servidor combina los equipos en grupos
locales (llamados dominios) que permiten que cualquier usuario de la red tenga
acceso a cualquier recurso de la misma.
La planificación para el uso de servidores especializados es importante con una red
grande. El planificador debe tener en cuenta cualquier crecimiento previsto de la red,
para que el uso de ésta no se vea perjudicado si es necesario cambiar el papel de un
servidor específico.
El papel del software en un entorno basado en servidor
Un servidor de red y su sistema operativo trabajan conjuntamente como una unidad.
Independientemente de lo potente o avanzado que pueda ser un servidor, resultará
inútil sin un sistema operativo que pueda sacar partido de sus recursos físicos. Los
sistemas operativos avanzados para servidor, como los de Microsoft y Novell, están
diseñados para sacar partido del hardware de los servidores más avanzados.
Ventajas de las redes basadas en servidor
Aunque resulta más compleja de instalar, gestionar y configurar, una red basada en
servidor tiene muchas ventajas sobre una red simple Trabajo en Grupo.
Compartir recursos: Un servidor está diseñado para ofrecer acceso a
muchos archivos e impresoras manteniendo el rendimiento y la seguridad de
cara al usuario.
La compartición de datos basada en servidor puede ser administrada y
controlada de forma centralizada. Como estos recursos compartidos están
localizados de forma central, son más fáciles de localizar y mantener que los
recursos situados en equipos individuales.
Seguridad: La seguridad es a menudo la razón primaria para
seleccionar un enfoque basado en servidor en las redes. En un entorno basado
en servidor, hay un administrador que define la política y la aplica a todos los
usuarios de la red, pudiendo gestionar la seguridad.
Copia de seguridad: Las copias de seguridad pueden ser programadas
varias veces al día o una vez a la semana, dependiendo de la importancia y el
valor de los datos. Las copias de seguridad del servidor pueden programarse
para que se produzcan automáticamente, de acuerdo con una programación
determinada, incluso si los servidores están localizados en sitios distintos de la
red.
Redundancia: Mediante el uso de métodos de copia de seguridad
llamados sistemas de redundancia, los datos de cualquier servidor pueden ser
duplicados y mantenidos en línea. Aun en el caso de que ocurran daños en el
área primaria de almacenamiento de datos, se puede usar una copia de
seguridad de los datos para restaurarlos.
Número de usuarios: Una red basada en servidor puede soportar
miles de usuarios. Este tipo de red sería, imposible de gestionar como red
Trabajo en Grupo, pero las utilidades actuales de monitorización y gestión de la
red hacen posible disponer de una red basada en servidor para grandes cifras
de usuarios.
Hardware: El hardware de los equipos cliente puede estar limitado a las
necesidades del usuario, ya que los clientes no necesitan la memoria adicional
(RAM) y el almacenamiento en disco necesarios para los servicios de servidor.
Diseño de una topología de red
La topología física está íntimamente ligada a los mecanismos de control de acceso
al medio utilizados, estableciéndose una gran dependencia entre estos dos elementos.
Naturalmente que cuando un diseñador de una red se plantea la topología a utilizar
lo primero que debe de analizar son los objetivos que se persiguen, y que pueden
incluir aspectos como:
La fiabilidad de la red. Es decir, utilizar una topología que haga que la
red sea lo más fiable posible, que responda a lo que el usuario le pide.
Con frecuencia otro objetivo será el poder tener caminos alternativos
para el caso de que algunos caminos de la red queden indisponibles.
Igualmente deberá de considerar la posibilidad de que los fragmentos
de los mensajes que se transmitan (en el caso de que se puedan fragmentar
por eficiencia de la red) puedan llegar desordenados y se precisen
mecanismos de reordenamiento.
Como en toda red, un objetivo básico deberá ser la detección y, en su
caso, recuperación de los errores en la transmisión.
La topología de las redes puede llegar a ser muy compleja y un objetivo,
con frecuencia, podrá ser el encontrar el camino más económico en la red
para llegar al destino.
Finalmente en todo diseño, igualmente en el de la topología,
intervendrán en gran medida factores de coste.
De otro lado, los objetivos de la topología deberán estar relacionados con requisitos
que se precisan en la red para la cual se está diseñando la topología.
Estos requisitos con frecuencia cubrirán aspectos como:
Buscar la longitud mínima real en el canal de comunicaciones. Al final
la topología se plasmará en enlaces de comunicaciones que hay que
establecer y se pretenderá con frecuencia la longitud mínima, ya que éste será
un factor importante del coste.
La red se va a establecer para una serie de actividades concretas y se
pretenderá el canal de comunicaciones más económico para esas
actividades.
Como toda red trataremos de que nos de el mejor servicio y para ello
trataremos de optimizar el tiempo de respuesta en función de los
requerimientos del servicio.
Uno de los aspectos que podría intervenir en el tiempo de respuesta es el tiempo
físico de transmisión y recepción y por tanto pretenderemos acortar al máximo los
retardos en transmisión y en recepción.
Topologías
Las topologías físicas más frecuentes en el mundo de las redes (no sólo las redes
de área local) son:
Jerárquica
Bus.
Estrella.
Anillo.
Malla.
Éstas se pueden combinar obteniendo una variedad de topologías híbridas más
complejas.
Jerárquica
Fué una de las primeras topologías diseñadas para redes locales (red inicial de PC's
de IBM) y una de las más utilizadas en redes WAN.
Consiste en la distribución jerárquica de las unidades en un bus donde la
información tiene que llegar siempre a la cabecera de jerarquía.
Algunas de las ventajas y desventajas más interesantes de este tipo de topologías,
son:
Entre las ventajas destacan la facilidad para cubrir áreas extensas (lo
que la faculta para establecer entornos de redes WAN) y las facilidades que
ofrece para establecer funciones de gestión de red al disponer de nodos
jerárquicos que pueden conocer e informa: de lo subordinado.
Entre las desventajas o inconvenientes destacan la posibilidad de
cuellos de botella en un nodo jerárquico por el que pase un tráfico elevado o
las dificultades para la descentralización de responsabilidades, que en última
instancia nos llevarían a un alto grado de centralización en el nodo de jerarquía
superior.
Bus
La topología en bus, a menudo, recibe el nombre de «bus lineal», porque los
equipos se conectan en línea recta. Éste es el método más simple y común utilizado
en las redes de equipos. Consta de un único cable llamado segmento central (trunk;
también llamado backbone o segmento) que conecta todos los equipos de la red en
una única línea.
Comunicación en el bus
Los equipos de una red con topología en bus se comunican enviando datos a un
equipo particular, mandando estos datos sobre el cable en forma de señales
electrónicas. Para comprender cómo se comunican los equipos en un bus necesita
estar familiarizado con tres conceptos:
Envío de la señal. Los datos de red en forma de señales electrónicas
se envían a todos los equipos de la red. La información sólo es aceptada por
aquel equipo cuya dirección coincida con la dirección codificada en la señal
original. Los restantes equipos rechazan los datos. En cada momento, sólo
puede haber un equipo enviando mensajes.
Como en cada momento sólo puede haber un equipo enviando datos en una
red en bus, el número de equipos conectados al bus afectará al rendimiento de
la red. Cuantos más equipos haya en un bus, más equipos estarán esperando
para transmitir datos por el bus y la red será más lenta.
No existe un método estándar para medir el impacto de un número
determinado de equipos en la velocidad de cualquier red dada. El efecto sobre
el rendimiento no sólo está relacionado con el número de equipos. Algunos de
los factores que afectarán al rendimiento de una red (además del número de
equipos conectados en red) son:
Características hardware de los equipos de la red.
Número total de órdenes emitidas esperando a ser ejecutadas.
Tipos de aplicaciones (por ejemplo, cliente-servidor o
compartición del sistema de archivos) que se están ejecutando en la
red.
Tipo de cable usado en la red.
Distancias entre los equipos en la red.
Los equipos conectados a un bus o transmiten datos a otros equipos de la red
o están escuchando datos procedentes de otros equipos de la red. No son
responsables de pasar datos de un equipo al siguiente. Por consiguiente, si
falla una equipo, esto no afecta al resto de la red.
Rebote de la señal. Como los datos, o la señal electrónica, se envían a
toda la red, viajan de un extremo a otro del cable. Si se permite a la señal que
continúe ininterrumpidamente, rebotará una vez y otra por el cable, y evitará
que otros equipos envíen señales. Por tanto, la señal debe ser detenida una
vez que haya tenido la oportunidad de alcanzar la dirección de destino
correcta.
Terminador. Para detener el rebote o eco de la señal, se coloca un
componente denominado terminador en cada uno de los extremos del cable
para absorber las señales libres. Al absorber la señal se libera el cable para
que otros equipos puedan enviar datos. Todos los extremos de cada segmento
de la red deben estar conectados a un terminador.
Interrupción de la comunicación en la red
Si el cable es separado físicamente en dos partes o se desconecta un extremo del
mismo, se produce una rotura en el cable. En cualquiera de estos casos, uno o ambos
extremos del cable no tendrán un terminador, la señal rebotará y la actividad de la red
se detendrá. Ésta es una de las posibles razones por las que una red puede «caer».
Los equipos de la red seguirán pudiendo funcionar como equipos aislados; sin
embargo, mientras el segmento esté interrumpido, no podrán comunicarse entre sí ni
acceder a los recursos compartidos. Los equipos del segmento caído intentarán
establecer una conexión; mientras lo hagan, el rendimiento de las estaciones será más
lento.
Expansión de la red
A medida que crece el tamaño físico de la instalación, la red también necesitará
crecer. El cable de la topología en bus puede alargarse utilizando uno de los dos
métodos siguientes:
Existe un componente denominado acoplador (barrel connector) que
puede conectar dos segmentos de cable entre sí para constituir un segmento
de cable más largo. No obstante, los conectores debilitan la señal y deben con
moderación. Es preferible tener un cable continuo a conectar varios más
pequeños con conectores. El uso de demasiados conectores puede evitar que
la señal sea recibida correctamente.
Se puede utilizar un dispositivo llamado repetidor para conectar dos
cables. Un repetidor amplifica la señal antes de reenviarla por el cable. Un
repetidor resulta mejor que un conector o un tramo de cable más largo, ya que
permite que una señal viaje más lejos y siga siendo recibida correctamente.
Estrella
En la topología en estrella, los segmentos de cable de cada equipo están
conectados a un componente centralizado llamado hub. Las señales son transmitidas
desde el equipo emisor a través del hub a todos los equipos de la red. Esta topología
surgió en los albores de la informática, cuando se conectaban equipos a un gran
equipo central o mainframe.
La red en estrella ofrece la ventaja de centralizar los recursos y la gestión. Sin
embargo, como cada equipo está conectado a un punto central, esta topología
requiere una gran cantidad de cables en una gran instalación de red. Además, si el
punto central falla, cae toda la red.
En una red en estrella, si falla un equipo (o el cable que lo conecta al hub), el equipo
afectado será el único que no podrá enviar o recibir datos de la red. El resto de la red
continuará funcionando normalmente.
Anillo
La topología en anillo conecta equipos en un único círculo de cable. A diferencia de
la topología en bus, no existen finales con terminadores. La señal viaja a través del
bucle en una dirección, y pasa a través de cada equipo que puede actuar como
repetidor para amplificar la señal y enviarla al siguiente equipo. El fallo de un equipo
puede tener impacto sobre toda la red.
La topología física de una red es el propio cable. La topología lógica de una red es
la forma en la que se transmiten las señales por el cable.
Pase de testigo
Uno de los métodos para transmitir datos alrededor de un anillo es el llamado pase
de testigo (un testigo es una secuencia especial de bits que viajan alrededor de una
red Token Ring. Cada red tiene únicamente un testigo). El testigo es pasado de equipo
en equipo hasta que llega a un equipo que tiene datos que enviar. El equipo emisor
modifica el testigo, pone una dirección electrónica en los datos y los envía por el anillo.
Los datos pasan por cada equipo hasta llegar al que tiene la dirección que coincide
con la dirección implantada en los datos. El equipo receptor devuelve un mensaje al
equipo emisor, indicando que los datos han sido recibidos, Después de la verificación,
el equipo emisor crea un nuevo testigo y lo libera en la red. El testigo circula por el
anillo hasta que una estación necesita enviar datos.
Puede parecer que el pase de testigo requiere mucho tiempo, pero el testigo viaja
realmente a una velocidad cercana a la de la luz. Un testigo puede circular por un
anillo de 200 metros de diámetro alrededor de unas 477.376 veces por segundo.
Malla
Una red con topología en malla ofrece una redundancia y fiabilidad superiores. En
una topología en malla, cada equipo está conectado a todos los demás equipos
mediante cables separados. Esta configuración ofrece caminos redundantes por toda
la red, de modo que si falla un cable, otro se hará cargo del tráfico. Aunque la facilidad
de solución de problemas y el aumento de la fiabilidad son ventajas muy interesantes,
estas redes resultan caras de instalar, ya que utilizan mucho cableado. En muchas
ocasiones, la topología en malla se utiliza junto con otras topologías para formar una
topología híbrida.
Hubs
Uno de los componentes de las redes que se ha convertido en un dispositivo
estándar en las mismas es el hub.
Hubs activos: La mayoría de los hubs son activos; es decir, regeneran
y retransmiten las señales del mismo modo que un repetidor. Como
generalmente los hubs tienen de ocho a doce puertos para conexión de
equipos de la red, a menudo se les llama repetidores multipuerto. Los hubs
activos requieren corriente eléctrica para su funcionamiento.
Hubs pasivos: Algunos tipos de hubs son pasivos; como ejemplos
están los paneles de conexión o los bloques de conexión (punch-down blocks).
Actúan como puntos de conexión y no amplifican o regeneran la señal; la señal
pasa a través del hub. Los hubs pasivos no necesitan corriente eléctrica para
funcionar.
Hubs híbridos: Los hubs híbridos son hubs avanzados que permiten
conectar distintos tipos de cables.
Consideraciones sobre hubs
Los sistemas basados en hubs son versátiles y ofrecen varias ventajas sobre los
sistemas que no utilizan hubs.
En la topología estándar de bus lineal, una rotura en el cable hará caer toda la red.
Sin embargo, utilizando hubs, una rotura en cualquiera de los cables conectados al
hub sólo afecta a un segmento limitado de la red. Un cable roto o desconectado sólo
afecta a una estación, mientras el resto de la red sigue funcionando.
Las topologías basadas en hubs incluyen los siguientes beneficios:
Los sistemas de cableado pueden ser modificados o ampliados a
medida que sea necesario.
Se pueden usar puertos diferentes para adaptarse a diversos sistemas
de cableado.
Se puede centralizar la monitorización de la actividad y el tráfico de la
red.
Muchos hubs activos tienen capacidades de diagnóstico que pueden indicar si una
conexión está funcionando o no.
Variaciones sobre las topologías estándar
Muchas topologías existentes son combinaciones híbridas de las topologías en bus,
estrella, anillo y malla.
Estrella-bus
La topología estrella-bus es una combinación de las topologías en bus y estrella. En
una topología en estrella-bus, varias redes con topología en estrella están conectadas
entre sí con segmentos de bus lineales.
Si una equipo cae, esto no afectará al resto de la red. Los restantes equipos pueden
seguir comunicándose. Si un hub deja de funcionar, todos los equipos conectados a
dicho hub no podrán comunicarse. Si un hub está conectado a otros hubs, estas
conexiones también se interrumpirán.
Estrella-anillo
La estrella-anillo (en ocasiones llamada anillo cableado en estrella) parece ser
similar a la topología estrella-bus. Tanto la estrella-anillo como la estrella-bus están
centradas en un hub que contiene el anillo o bus real. En una red en estrella-bus hay
segmentos lineales que conectan los hubs, mientras que los hubs de una red estrella-
anillo están conectados en forma de estrella al hub principal.
Trabajo en Grupo
Muchas pequeñas oficinas utilizan una red Trabajo en Grupo, una red de este tipo
puede configurarse con una topología física de estrella o bus. Sin embargo, como
todos los equipos de la red son iguales (cada una puede actuar como cliente y
servidor), la topología lógica puede resultar distinta.
Última actualización del tema completo: v.1.1.0
Cableado de una red
Principales tipos de cables
Actualmente, la gran mayoría de las redes están conectadas por algún tipo de
cableado, que actúa como medio de transmisión por donde pasan las señales entre
los equipos. Hay disponibles una gran cantidad de tipos de cables para cubrir las
necesidades y tamaños de las diferentes redes, desde las más pequeñas a las más
grandes.
Existe una gran cantidad de tipos de cables. Algunos fabricantes de cables publican
un catálogos con más de 2.000 tipos diferentes que se pueden agrupar en tres grupos
principales que conectan la mayoría de las redes:
Cable coaxial.
Cable de par trenzado (apantallado y no apantallado).
Cable de fibra óptica.
Cable coaxial
Hubo un tiempo donde el cable coaxial fue el más utilizado. Existían dos importantes
razones para la utilización de este cable: era relativamente barato, y era ligero, flexible
y sencillo de manejar.
Un cable coaxial consta de un núcleo de hilo de cobre rodeado por un aislante, un
apantallamiento de metal trenzado y
una cubierta externa.
El término apantallamiento hace
referencia al trenzado o malla de metal
(u otro material) que rodea algunos
tipos de cable. El apantallamiento
protege los datos transmitidos
absorbiendo las señales electrónicas
espúreas, llamadas ruido, de forma que
no pasan por el cable y no distorsionan
los datos. Al cable que contiene una lámina aislante y una capa de apantallamiento de
metal trenzado se le denomina cable apantallado doble. Para entornos que están
sometidos a grandes interferencias, se encuentra disponible un apantallamiento
cuádruple. Este apantallamiento consta de dos láminas aislantes, y dos capas de
apantallamiento de metal trenzado,
El núcleo de un cable coaxial transporta señales electrónicas que forman los datos.
Este núcleo puede ser sólido o de hilos. Si el núcleo es sólido, normalmente es de
cobre.
Rodeando al núcleo hay una capa aislante dieléctrica que la
separa de la malla de hilo. La malla de hilo trenzada actúa
como masa, y protege al núcleo del ruido eléctrico y de la
intermodulación (la intermodulación es la señal que sale de un
hilo adyacente).
El núcleo de conducción y la malla de hilos deben estar separados uno del otro. Si
llegaran a tocarse, el cable experimentaría un cortocircuito, y el ruido o las señales que
se encuentren perdidas en la malla circularían por el hilo de cobre. Un cortocircuito
eléctrico ocurre cuando dos hilos de conducción o un hilo y una tierra se ponen en
contacto. Este contacto causa un flujo directo de corriente (o datos) en un camino no
deseado. En el caso de una instalación eléctrica común, un cortocircuito causará el
chispazo y el fundido de un fusible o del interruptor automático. Con dispositivos
electrónicos que utilizan bajos voltajes, el resultado no es tan dramático, y a menudo
casi no se detecta. Estos cortocircuitos de bajo voltaje generalmente causan un fallo
en el dispositivo y lo habitual es que se pierdan los datos.
Una cubierta exterior no conductora (normalmente hecha de goma, Teflón o
plástico) rodea todo el cable.
El cable coaxial es más resistente a interferencias y atenuación que el cable de par
trenzado.
La malla de hilos protectora absorbe las señales electrónicas perdidas, de forma
que no afecten a los datos que se envían a través del cable de cobre interno. Por esta
razón, el cable coaxial es una buena opción para grandes distancias y para soportar
de forma fiable grandes cantidades de datos con un equipamiento poco sofisticado.
Tipos de cable coaxial
Hay dos tipos de cable coaxial:
Cable fino (Thinnet).
Cable grueso (Thicknet).
El tipo de cable coaxial más apropiado depende de 1as necesidades de la red en
particular.
Cable Thinnet (Ethernet fino). El cable Thinnet es un cable coaxial flexible de unos
0,64 centímetros de grueso (0,25 pulgadas). Este tipo de cable se puede utilizar para
la mayoría de los tipos de instalaciones de redes, ya que es un cable flexible y fácil de
manejar.
El cable coaxial Thinnet puede transportar una señal hasta una distancia
aproximada de 185 metros (unos 607 pies) antes de que la señal comience a sufrir
atenuación.
Los fabricantes de cables han acordado denominaciones específicas para los
diferentes tipos de cables. El cable Thinnet está incluido en un grupo que se denomina
la familia RG-58 y tiene una impedancia de 50 ohm. (La impedancia es la resistencia,
medida en ohmios, a la corriente alterna que circula en un hilo.)
La característica principal de la familia RG-58 es el núcleo central de cobre y los
diferentes tipos de cable de esta familia son:
RG-58/U: Núcleo de cobre sólido.
RG-58 A/U: Núcleo de hilos trenzados.
RG-58 C/U: Especificación militar de RG-58 A/U.
RG-59: Transmisión en banda ancha, como el cable de televisión.
RG-60: Mayor diámetro y considerado para frecuencias más altas que
RG-59, pero también utilizado para transmisiones de banda ancha.
RG-62: Redes ARCnet.
Cable Thicknet (Ethernet grueso). El cable Thicknet es un cable coaxial
relativamente rígido de aproximadamente 1,27 centímetros de diámetro. Al cable
Thicknet a veces se le denomina Ethernet estándar debido a que fue el primer tipo de
cable utilizado con la conocida arquitectura de red Ethernet. El núcleo de cobre del
cable Thicknet es más grueso que el del cable Thinnet.
Cuanto mayor sea el grosor del núcleo de cobre, más lejos puede transportar las
señales. El cable Thicknet puede llevar una señal a 500 metros. Por tanto, debido a la
capacidad de Thicknet para poder soportar transferencia de datos a distancias
mayores, a veces se utiliza como enlace central o backbone para conectar varias
redes más pequeñas basadas en Thinnet.
Un transceiver conecta el cable coaxial Thinnet a un cable coaxial Thicknet mayor.
Un transceiver diseñado para Ethernet Thicknet incluye un conector conocido como
«vampiro» o «perforador» para establecer la conexión física real con el núcleo
Thicknet. Este conector se abre paso por la capa aislante y se pone en contacto
directo con el núcleo de conducción. La conexión desde el transceiver a la tarjeta de
red se realiza utilizando un cable de transceiver para conectar el conector del puerto
de la interfaz de conexión de unidad (AUI) a la tarjeta. Un conector de puerto AUI para
Thicknet también recibe el nombre de conector Digital Intel Xerox (DIX) (nombre dado
por las tres compañías que lo desarrollaron y sus estándares relacionados) o como
conector dB-15.
Cable Thinnet frente a Thicknet. Como regla general, los cables más gruesos son
más difíciles de manejar. El cable fino es flexible, fácil de instalar y relativamente
barato. El cable grueso no se dobla fácilmente y, por tanto, es más complicado de
instalar. Éste es un factor importante cuando una instalación necesita llevar el cable a
través de espacios estrechos, como conductos y canales. El cable grueso es más caro
que el cable fino, pero transporta la señal más lejos.
Hardware de conexión del cable coaxial
Tanto el cable Thinnet como el Thicknet utilizan un componente de conexión
llamado conector BNC, para realizar las conexiones entre el cable y los equipos.
Existen varios componentes importantes en la familia BNC, incluyendo los siguientes:
El conector de cable BNC. El conector de cable BNC está soldado, o
incrustado, en el extremo de un cable.
El conector BNC T. Este conector conecta la tarjeta de red (NIC) del
equipo con el cable de la red.
Conector acoplador (barrel) BNC. Este conector se utiliza para unir
dos cables Thinnet para obtener uno de mayor longitud.
Terminador BNC. El terminador BNC cierra el extremo del cable del
bus para absorber las señales perdidas.
El origen de las siglas BNC no está claro, y se le han atribuido muchos nombres,
desde «British Naval Connector» a «Bayonet Neill-Councelman». Haremos referencia
a esta familia hardware simplemente como BNC, debido a que no hay consenso en el
nombre apropiado y a que en la industria de la tecnología las referencias se hacen
simplemente como conectores del tipo BNC.
Tipos de cable coaxial y normas de incendios
El tipo de cable que se debe utilizar depende del lugar donde se vayan a colocar los
cables en la oficina. Los cables coaxiales pueden ser de dos tipos:
Cloruro de polivinilo (PVC).
Plenum.
El cloruro de polivinilo (PVC) es un tipo de plástico utilizado para construir el
aíslante y la clavija del cable en la mayoría de los tipos de cable coaxial. El cable
coaxial de PVC es flexible y se puede instalar fácilmente a través de la superficie de
una oficina. Sin embargo, cuando se quema, desprende gases tóxicos.
Un plenum. Es el espacio muerto que hay en muchas construcciones entre el falso
techo y el piso de arriba; se utiliza para que circule aire frío y caliente a través del
edificio. Las normas de incendios indican instrucciones muy específicas sobre el tipo
de cableado que se puede mandar a través de esta zona, debido a que cualquier
humo o gas en el plenum puede mezclarse con el aire que se respira en el edificio.
El cableado de tipo plenum contiene materiales especiales en su aislamiento y en
1a clavija del cable. Estos materiales están certificados como resistentes al fuego y
producen una mínima cantidad de humo; esto reduce los humos químicos tóxicos. El
cable plenum se puede utilizar en espacios plenum y en sitios verticales (en una
pared, por ejemplo) sin conductos. Sin embargo, el cableado plenum es más caro y
menos flexible que el PVC.
Para instalar el cable de red en la oficina sería necesario consultar las normas de la
zona sobre electricidad y fuego para la regulación y requerimientos específicos.
Consideraciones sobre el cable coaxial
En la actualidad es difícil que tenga que tomar una decisión sobre cable coaxial, no
obstante, considere las siguientes características del cable coaxial.
Utilice el cable coaxial si necesita un medio que pueda:
Transmitir voz, vídeo y datos.
Transmitir datos a distancias mayores de lo que es posible con un
cableado menos caro
Ofrecer una tecnología familiar con una seguridad de los datos
aceptable.
Cable de par trenzado
En su forma más simple, un cable de par trenzado consta de dos hilos de cobre
aislados y entrelazados. Hay dos tipos de cables de par trenzado: cable de par
trenzado sin apantallar (UTP) y par trenzado apantallado (STP).
A menudo se agrupan una serie de hilos de par trenzado y se encierran en un
revestimiento protector para formar un cable. El número total de pares que hay en un
cable puede variar. El trenzado elimina el ruido eléctrico de los pares adyacentes y de
otras fuentes como motores, relés y transformadores.
Cable de par trenzado sin apantallar (UTP)
El UTP, con la especificación 10BaseT, es el tipo más conocido de cable de par
trenzado y ha sido el cableado LAN más utilizado en los últimos años. El segmento
máximo de longitud de cable es de 100 metros.
El cable UTP tradicional consta de dos hilos de cobre aislados. Las especificaciones
UTP dictan el número de entrelazados permitidos por pie de cable; el número de
entrelazados depende del objetivo con el que se instale el cable.
La especificación 568A Commercial Building Wiring Standard de la Asociación de
Industrias Electrónicas e Industrias de la Telecomunicación (EIA/TIA) especifica el tipo
de cable UTP que se va a utilizar en una gran variedad de situaciones y
construcciones. El objetivo es asegurar la coherencia de los productos para los
clientes. Estos estándares definen cinco categorías de UTP:
Categoría 1. Hace referencia al cable telefónico UTP tradicional que
resulta adecuado para transmitir voz, pero no datos. La mayoría de los cables
telefónicos instalados antes de 1983 eran cables de Categoría 1.
Categoría 2. Esta categoría certifica el cable UTP para transmisión de
datos de hasta 4 megabits por segundo (mbps), Este cable consta de cuatro
pares trenzados de hilo de cobre.
Categoría 3. Esta categoría certifica el cable UTP para transmisión de
datos de hasta 16 mbps. Este cable consta de cuatro pares trenzados de hilo
de cobre con tres entrelazados por pie.
Categoría 4. Esta categoría certifica el cable UTP para transmisión de
datos de hasta 20 mbps. Este cable consta de cuatro pares trenzados de hilo
de cobre.
Categoría 5. Esta categoría certifica el cable UTP para transmisión de
datos de hasta 100 mbps. Este cable consta de cuatro pares trenzados de hilo
de cobre.
Categoría 5a. También conocida como Categoría 5+ ó Cat5e. Ofrece
mejores prestaciones que el estándar de Categoría 5. Para ello se deben
cumplir especificaciones tales como una atenuación al ratio crosstalk (ARC) de
10 dB a 155 Mhz y 4 pares para la comprobación del Power Sum NEXT. Este
estándar todavía no está aprobado
Nivel 7. Proporciona al menos el doble de ancho de banda que la
Categoría 5 y la capacidad de soportar Gigabit Ethernet a 100 m. El ARC
mínimo de 10 dB debe alcanzarse a 200 Mhz y el cableado debe soportar
pruebas de Power Sum NEXT, más estrictas que las de los cables de
Categoría 5 Avanzada.
La mayoría de los sistemas telefónicos utilizan uno de los tipos de UTP. De hecho,
una razón por la que UTP es tan conocido es debido a que muchas construcciones
están preparadas para sistemas telefónicos de par trenzado. Como parte del proceso
previo al cableado, se instala UTP extra para cumplir las necesidades de cableado
futuro. Si el cable de par trenzado preinstalado es de un nivel suficiente para soportar
la transmisión de datos, se puede utilizar para una red de equipos. Sin embargo, hay
que tener mucho cuidado, porque el hilo telefónico común podría no tener
entrelazados y otras características eléctricas necesarias para garantizar la seguridad
y nítida transmisión de los datos del equipo.
La intermodulación es un problema posible que puede darse con todos los tipos de
cableado (la intermodulación se define como aquellas señales de una línea que
interfieren con las señales de otra línea.)
UTP es particularmente susceptible a la intermodulación, pero cuanto mayor sea el
número de entrelazados por pie de cable, mayor será la protección contra las
interferencias.
Cable de par trenzado apantallado (STP)
El cable STP utiliza una envoltura con cobre trenzado, más protectora y de mayor
calidad que la usada en el cable UTP. STP también utiliza una lámina rodeando cada
uno de los pares de hilos. Esto ofrece un excelente apantallamiento en los STP para
proteger los datos transmitidos de intermodulaciones exteriores, lo que permite
soportar mayores tasas de transmisión que los UTP a distancias mayores.
Componentes del cable de par trenzado
Aunque hayamos definido el cable de par trenzado por el número de hilos y su
posibilidad de transmitir datos, son necesarios una serie de componentes adicionales
para completar su instalación. Al igual que sucede con el cable telefónico, el cable de
red de par trenzado necesita unos conectores y otro hardware para asegurar una
correcta instalación.
Elementos de conexión
El cable de par trenzado utiliza conectores telefónicos RJ-45 para conectar a un
equipo. Éstos son similares a los conectores telefónicas RJ11. Aunque los conectores
RJ-11 y RJ-45 parezcan iguales a primera vista, hay diferencias importantes entre
ellos.
El conector RJ-45 contiene ocho conexiones de cable, mientras que el RJ-11 sólo
contiene cuatro.
Existe una serie de componentes que ayudan a organizar las grandes instalaciones
UTP y a facilitar su manejo.
Armarios y racks de distribución. Los armarios y los racks de distribución pueden
crear más sitio para los cables en aquellos lugares donde no hay mucho espacio libre
en el suelo. Su uso ayuda a organizar una red que tiene muchas conexiones.
Paneles de conexiones ampliables. Existen diferentes versiones que admiten
hasta 96 puertos y alcanzan velocidades de transmisión de hasta 100 Mbps.
Clavijas. Estas clavijas RJ-45 dobles o simples se conectan en paneles de
conexiones y placas de pared y alcanzan velocidades de datos de hasta 100 Mbps.
Placas de pared. Éstas permiten dos o más enganches.
Consideraciones sobre el cableado de par trenzado
El cable de par trenzado se utiliza si:
La LAN tiene una limitación de presupuesto.
Se desea una instalación relativamente sencilla, donde las conexiones
de los equipos sean simples.
No se utiliza el cable de par trenzado si:
La LAN necesita un gran nivel de seguridad y se debe estar
absolutamente seguro de la integridad de los datos.
Los datos se deben transmitir a largas distancias y a altas velocidades.
Diferencia entre las Categorías de cable UTP.
El estándar TIA/EIA 568 especifica el cable le Categoría 5 como un medio para la
transmisión de datos a frecuencias de hasta 100 MHz. El Modo de Transmisión
Asíncrona (Asynchronous Transfer Mode ATM), trabaja a 155 MHz. La Gigabit
Ethernet a 1 GHz.
La necesidad de incrementar el ancho de banda nunca cesa, cuanto más se tenga,
más se necesita. Las aplicaciones cada vez se vuelven más complejas, y los ficheros
cada vez son más grandes. A medida que su red se vaya congestionando con más
datos, la velocidad se va relentizando y no volverá a ser rápida nunca más. Las
buenas noticias son que la próxima generación de cableado está en marcha. Sin
embargo, tendrá que tener cuidado con el cableado que esté instalado hoy, y
asegurarse que cumplirá con sus necesidades futuras.
Categoría 5. La TIA/EIA 568A especifica solamente las Categorías para los cables
de pares trenzados sin apantallar (UTP). Cada una se basa en la capacidad del cable
para soportar prestaciones máximas y mínimas. Hasta hace poco, la Categoría 5 era
el grado superior especificado por el estándar TIA/EIA. Se definió para ser capaz de
soportar velocidades de red de hasta 100 Mbps en transmisiones de voz/datos a
frecuencias de hasta100 MHz. Las designaciones de Categoría están determinadas
por las prestaciones UTP. El cable de Categoría 5 a100 MHz, debe tener el NEXT de
32 dB/304,8 mts. y una gama de atenuación de 67dB/304,8 mts, Para cumplir con el
estándar, los cables deben cumplir solamente las mínimos estipulados, Con cable de
Categoría 5 debidamente instalado, podrá esperar alcanzar las máximas prestaciones,
las cuales, de acuerdo con los estándares, alcanzarán la máxima velocidad de
traspaso de Mbps,
Categoría 5a. La principal diferencia entre la Categoría 5 (568A) y Categoría 5a
(568A-5) es que algunas de las especificaciones han sido realizadas de forma más
estricta en la versión más avanzada. Ambas trabajan a frecuencias de 100 MHz. Pero
la Categoría 5e cumple las siguientes especificaciones: NEXT: 35 dB; PS-NEXT: 32
dB, ELFEXT: 23.8 dB; PS-ELFEXT: 20.8 dB, Pérdida por Retorno: 20.1 dB, y Retardo:
45 ns, Con estas mejoras, podrá tener transmisiones Ethernet con 4 pares, sin
problemas, full-duplex, sobre cable UTP. En el futuro, la mayoría de las instalaciones
requerirán cableado de Categoría 5e así como sus componentes.
Categoría 6 y posteriores. Ahora ya puede obtener un cableado de Categoría 6,
aunque el estándar no ha sido todavía creado. Pero los equipos de trabajo que
realizan los estándares están trabajando en ello. La Categoría 6 espera soportar
frecuencias de 250 MHz, dos veces y media más que la Categoría 5. En un futuro
cercano, la TIA/EIA está estudiando el estándar para la Categoría 7, para un ancho de
banda de hasta 600 MHz. La Categoría 7, usará un nuevo y aún no determinado tipo
de conector.
Cable de fibra óptica
En el cable de fibra
óptica las señales que se
transportan son señales
digitales de datos en forma
de pulsos modulados de
luz. Esta es una forma
relativamente segura de
enviar datos debido a que, a diferencia de los cables de cobre que llevan los datos en
forma de señales electrónicas, los cables de fibra óptica transportan impulsos no
eléctricos. Esto significa que el cable de fibra óptica no se puede pinchar y sus datos
no se pueden robar.
El cable de fibra óptica es apropiado para transmitir datos a velocidades muy altas y
con grandes capacidades debido a la carencia de atenuación de la señal y a su
pureza.
Composición del cable de fibra óptica
Una fibra óptica consta de un cilindro de vidrio extremadamente delgado,
denominado núcleo, recubierto por una capa de vidrio concéntrica, conocida como
revestimiento. Las fibras a veces son de plástico. El plástico es más fácil de instalar,
pero no puede llevar los pulsos de luz a distancias tan grandes como el vidrio.
Debido a que los hilos de
vidrio pasan las señales en
una sola dirección, un
cable consta de dos hilos
en envolturas separadas.
Un hilo transmite y el otro recibe. Una capa de plástico de refuerzo alrededor de cada
hilo de vidrio y las fibras Kevlar ofrecen solidez. En el conector de fibra óptica, las
fibras de Kevlar se colocan entre los dos cables. Al igual que sus homólogos (par
trenzado y coaxial), los cables de fibra óptica se encierran en un revestimiento de
plástico para su protección.
Las transmisiones del cable de fibra óptica no están sujetas a intermodulaciones
eléctricas y son extremadamente rápidas, comúnmente transmiten a unos 100 Mbps,
con velocidades demostradas de hasta 1 gigabit por segundo (Gbps). Pueden
transportar una señal (el pulso de luz) varios kilómetros.
Consideraciones sobre el cable de fibra óptica
El cable de fibra óptica se utiliza si:
Necesita transmitir datos a velocidades muy altas y a grandes distancias
en un medio muy seguro.
El cable de fibra óptica no se utiliza si:
Tiene un presupuesto limitado.
No tiene el suficiente conocimiento para instalar y conectar los
dispositivos de forma apropiada.
El precio del cable de fibra óptica es competitivo con el precio del cable de cobre
alto de gama. Cada vez se hace más sencilla la utilización del cable de fibra óptica, y
las técnicas de pulido y terminación requieren menos conocimientos que hace unos
años.
Transmisión de la señal
Se pueden utilizar dos técnicas para transmitir las señales codificadas a través de
un cable: la transmisión en banda base y la transmisión en banda ancha.
Transmisión en banda base
Los sistemas en banda base utilizan señalización digital en un único canal. Las
señales fluyen en forma de pulsos discretos de electricidad o luz. Con la transmisión
en banda base, se utiliza la capacidad completa del canal de comunicación para
transmitir una única señal de datos. La señal digital utiliza todo el ancho de banda del
cable, constituyendo un solo canal. El término ancho de banda hace referencia a la
capacidad de transferir datos, o a la velocidad de transmisión, de un sistema de
comunicaciones digital, medido en bits por segundo (bps).
La señal viaja a lo largo del cable de red y, por tanto, gradualmente va
disminuyendo su intensidad, y puede llegar a distorsionarse. Si la longitud del cable es
demasiado larga, la señal recibida puede no ser reconocida o puede ser tergiversada.
Como medida de protección, los sistemas en banda base a veces utilizan
repetidores para recibir las señales y retransmitirlas a su intensidad y definición
original. Esto incrementa la longitud útil de un cable.
Transmisión en banda ancha
Los sistemas de banda ancha utilizan señalización analógica y un rango de
frecuencias. Con la transmisión analógica, las señales son continuas y no discretas.
Las señales circulan a través del medio físico en forma de ondas ópticas o
electromagnéticas. Con la transmisión en banda ancha, el flujo de la señal es
unidireccional.
Si el ancho de banda disponible es suficiente, varios sistemas de transmisión
analógica, como la televisión por cable y transmisiones de redes, se pueden mantener
simultáneamente en el mismo cable.
A cada sistema de transmisión se le asigna una parte del ancho de banda total.
Todos los dispositivos asociados con un sistema de transmisión dado, por ejemplo,
todas los equipos que utilicen un cable LAN, deben ser configuradas, de forma que
sólo utilicen las frecuencias que están dentro del rango asignado.
Mientras que los sistemas de banda base utilizan repetidores, los sistemas de
banda ancha utilizan amplificadores para regenerar las señales analógicas y su
intensidad original.
En la transmisión en banda ancha, las señales circulan en una sola dirección, de
forma que debe existir dos caminos para el flujo de datos para que una señal alcance
todos los dispositivos. Hay dos formas comunes de realizar esto:
A través de una configuración de banda ancha con división del medio, el
ancho de banda se divide en dos canales, cada uno usando una frecuencia o
rango de frecuencias diferentes. Un canal transmite señales y el otro las recibe.
Configuración en banda ancha con doble cable, a cada dispositivo se
unen dos cables. Un cable se utiliza para enviar y el otro para recibir.
Incremento del rendimiento del ancho de banda
El incremento de la velocidad de transmisión de datos es tan importante como el
aumento del tamaño de la red y del tráfico de los datos. Maximizando el uso del canal
de datos, podemos intercambiar más datos en menos tiempo. Al formato más básico
de transmisión de datos o de información se le denomina unidireccional o simplex.
Esto significa que los datos se envían en una única dirección, desde el emisor al
receptor. Ejemplos de transmisiones unidireccionales son la radio y la televisión. Con
la transmisión unidireccional, los problemas que se encuentran durante la transmisión
no se detectan ni corrigen. Incluso el emisor no tiene seguridad de que los datos son
recibidos.
En el siguiente nivel de transmisión de datos, llamado transmisión alterna o half-
duplex, los datos se envían en ambas direcciones, pero en un momento dado sólo se
envían en una dirección. Ejemplos de tecnología que utilizan la comunicación alterna
son las radios de onda corta y los walkie-talkies. Con la transmisión alterna se puede
incorporar detección de errores y peticiones para reenvío de datos erróneos.
La World Wide Web es una forma de transmisión de datos alterna. Se envía una
petición a una página Web y se espera mientras la está devolviendo. La mayoría de
las comunicaciones por módem utilizan transmisión de datos alterna.
El método más eficiente para la transmisión de datos consiste en la utilización de la
transmisión bidireccional o full-duplex, donde los datos pueden ser transmitidos y
recibidos al mismo tiempo. Un buen ejemplo es una conexión de cable que no sólo
permite que se reciban canales de televisión, sino que además soporta el teléfono y la
conexión a Internet. Un teléfono es una conexión bidireccional porque permite hablar
al mismo tiempo a las dos partes. Los módems, por diseño, son dispositivos alternos.
Éstos envían o reciben datos, conmutando entre el modo de transmisión y el modo de
recepción. Se puede crear un canal de módem bidireccional usando dos módems y
dos líneas telefónicas. Lo único que se necesita es que los dos equipos estén
conectados y configurados para soportar este tipo de comunicación.
El sistema de cableado de IBM
IBM ha desarrollado su propio sistema de cableado completo con sus propios
números, estándares, especificaciones y denominaciones. Sin embargo, muchos de
estos parámetros son similares a especificaciones diferentes de las de IBM.
IBM introdujo su sistema de cableado en 1984. El objetivo de este sistema era
asegurar que el cableado y los conectores pudieran satisfacer las especificaciones de
sus equipos. La especificación de IBM incluye los siguientes componentes:
Conectores de cable.
Placas.
Paneles de distribución.
Tipos de cables.
El único componente del cableado de IBM que es totalmente distinto de los demás
es el conector, que es diferente del BNC estándar y de otros conectores. Hay
conectores de IBM tipo A, conocidos como conectores de datos universales. No son ni
machos ni hembras; se pueden conectar a otros colocando uno sobre otro. Estos
conectores de IBM necesitan paneles de distribución y placas especiales para adaptar
su configuración única.
El sistema de cableado de IBM clasifica el cable en varios tipos. Por ejemplo, en el
sistema de IBM, al cable de categoría 3 (cable UTP de voz) se le denomina de Tipo 3.
Las definiciones del cable especifican cuál es el cable más apropiado para un entorno
o aplicación dada. El hilo indicado en el sistema se ajusta a los estándares American
Wire Gauge (AWG).
AWG: La medida estándar del cable
A menudo, las medidas del cable se expresan con un número seguido de las
iniciales AWG (AWG es un sistema de medida para hilos que especifica su grosor).
Conforme el grosor del hilo aumenta, el número AWG disminuye. A menudo el hilo de
teléfono se utiliza como punto de referencia; tiene un grosor de 22 AWG. Un hilo con
un grosor de 14 AWG es más grueso que el hilo telefónico y uno de 26 AWG es más
delgado que el del teléfono.
Sistema de cableado IBM
Tipo Etiqueta estándar Descripción
IBM
Tipo 1 Cable de par Dos pares de hilos de 22 AWG
trenzado apantallado rodeados por una cubierta
(STP). exterior trenzada; usado para
equipos y unidades de acceso
multiestación (MAU).
Tipo 2 Cable de voz y Cable apantallado de datos y
datos. voz con dos pares trenzados de
hilos de 22 AWG para datos, una
cubierta trenzada exterior y
cuatro pares trenzados de hilos
de 26 AWG para voz.
Tipo 3 Cable de voz. Consta de cuatro cables de par
trenzado no apantallados,
sólidos, de 22 ó 24 AWG.
Tipo 4 No definido.
Tipo 5 Cable de fibra óptica. Dos fibras ópticas multimodo
de 62,5/125 micras (el estándar
de la industria).
Tipo 6 Cable de conexión Dos cables de par trenzado de
de datos. 26 AWG con doble lámina y
apantallamiento trenzado.
Tipo 7 No definido.
Tipo 8 Cable de moqueta. Situado en una regleta del
suelo para utilizar bajo moquetas;
dos cables de par trenzado de 26
AWG; limitado a la mitad de
distancia que el cable de Tipo 1.
Tipo 9 Cable plenum Cumple las normas de
incendios. Dos cables de par
trenzado apantallados.
Una Unidad de acceso multiestación (Multistation Access Unit, MAU) es un
dispositivo hub en una red Token Ring que conecta los equipos en una distribución
física en estrella, pero utiliza el anillo lógico requerido en las redes Token Ring.
Selección del cableado
Para determinar cuál es el mejor cable para un lugar determinado habrá que tener
en cuenta distintos factores:
Carga de tráfico en la red
Nivel de seguridad requerida en la red
Distancia que debe cubrir el cable?
Opciones disponibles del cable
Presupuesto para el cable
Cuanto mayor sea la protección del cable frente al ruido eléctrico interno y externo,
llevará una señal clara más lejos y más rápido. Sin embargo, la mayor velocidad,
claridad y seguridad del cable implica un mayor coste.
Al igual que sucede con la mayoría de los componentes de las redes, es importante
el tipo de cable que se adquiera. Si se trabaja para una gran organización y se escoge
el cable más barato, inicialmente los contables estarían muy complacidos, pero pronto
podrían observar que la LAN es inadecuada en la velocidad de transmisión y en la
seguridad de los datos.
El tipo de cable que se adquiera va a estar en función de las necesidades del sitio
en particular. El cableado que se adquiere para instalar una LAN para un negocio
pequeño tiene unos requerimientos diferentes del cableado necesario para una gran
organización, como por ejemplo, una institución bancaria.
Logística de la instalación
En una pequeña instalación donde las distancias son pequeñas y la seguridad no es
un tema importante, no tiene sentido elegir un cable grueso, caro y pesado.
Apantallamiento
El nivel de apantallamiento requerido afectará al coste del cable. La mayoría de las
redes utilizan algún tipo de cable apantallado. Será necesario un mayor
apantallamiento cuanto mayor sea el ruido del área por donde va el cable. También el
mismo apantallamiento en un cable de tipo plenum será más caro.
Intermodulación
La intermodulación y el ruido pueden causar graves problemas en redes grandes,
donde la integridad de los datos es fundamental. El cableado barato tiene poca
resistencia a campos eléctricos exteriores generados por líneas de corriente eléctrica,
motores, relés y transmisores de radio. Esto lo hace susceptible al ruido y a la
intermodulación.
Característic Cable Cable Cable de Cable de
as coaxial coaxial par trenzado fibra óptica
Thinnet Thicknet (10Base T)1
(10Base2) (10Base5)
Coste del Más que Más que UTP: menos Más que
cable UTP Thinnet caro Thinnet, pero
STP: más que menos que
Thinnet Thicknet.
Longitud útil 185 500 metros UTP y STP: 2
del cable2 metros (unos (unos 1.640 100 metros kilómetros
607 pies) pies) (unos 328 pies) (6.562 pies).
Velocidad de 4-100 4-100 Mbps UTP:4-100 100 Mbps o
transmisión Mbps Mbps STP:16- más (>
500 Mbps 1Gbps).
Flexibilidad Bastante Menos UTP: más Menos
flexible flexible que flexible flexible que
Thinnet STP: menos Thicknet
flexible que
UTP
Facilidad de Sencillo de Medianame UTP: muy Difícil de
instalación instalar nte sencillo de sencillo; a instalar.
instalar menudo
preinstalado
STP:
medianamente
sencillo
Susceptibilid Buena Buena UTP: muy No
ad a resistencia a resistencia a susceptible susceptible a
interferencias las las STP: buena las
interferencias interferencias resistencia interferencias.
Característic Las Las UTP: Las Soporta
as especiales componentes componentes mismas que los voz, datos y
de soporte de soporte hilos vídeo.
electrónico electrónico telefónicos; a
son menos son menos menudo
caras que las caras que las preinstaladas
del cable de del cable de en
par trenzado par trenzado construcciones.
STP: Soporta
índices de
transmisión
mayores que
UTP
Usos Medio Redes UTP: sitios Instalación
presentados para Thinnet más pequeños de cualquier
grandes con tamaño que
sitios con presupuesto requiera
altas limitado velocidad y
necesidades STP: Token una gran
de seguridad Ring de integridad y
cualquier seguridad en
tamaño los datos.
1
Esta columna ofrece información sobre el cable de par trenzado sin apantallar
(UPT) y para el cable de par trenzado apantallado (STP).
2
La longitud útil del cable puede variar con instalaciones de redes especificas.
Conforme la tecnología mejora, también se incrementa la longitud útil del cable.
Velocidad de transmisión
La velocidad de transmisión se mide en megabits por segundo. Un punto de
referencia estándar para la transmisión de la LAN actual en un cable de cobre es de
100 Mbps. El cable de fibra óptica trasmite a más de 1 Gbps.
Coste
Los cables de grado más alto pueden transportar datos con seguridad a grandes
distancias, pero son relativamente caros; los cables de menor grado, los cuales
proporcionan menos seguridad en los datos a distancias más cortas, son relativamente
más baratos.
Atenuación de la señal
Los diferentes tipos de cables tienen diferentes índices de atenuación; por tanto, las
especificaciones del cable recomendadas especifican límites de longitud para los
diferentes tipos. Si una señal sufre demasiada atenuación, el equipo receptor no podrá
interpretarla. La mayoría de los equipos tienen sistemas de comprobación de errores
que generarán una retransmisión si la señal es demasiado tenue para que se
entienda. Sin embargo, la retransmisión lleva su tiempo y reduce la velocidad de la
red.
La tarjeta de Red
La función de la tarjeta de red
Las tarjetas de red, también denominadas NIC (Network Interface Cards, tarjetas de
interfaz de red), actúan como la interfaz o conexión física entre el equipo y el cable de
red. Las tarjetas están instaladas en una ranura de expansión en cada uno de los
equipos y en el servidor de la red.
Después de instalar la tarjeta de red, el cable de red se une al puerto de la tarjeta
para realizar la conexión física entre el equipo y el resto de la red.
La función de la tarjeta de red es:
Preparar los datos del equipo para el cable de red.
Enviar los datos a otro equipo.
Controlar el flujo de datos entre el equipo y el sistema de cableado.
Recibir los datos que llegan por el cable y convertirlos en bytes para que
puedan ser comprendidos por la unidad de procesamiento central del equipo
(CPU).
En un nivel más técnico, la tarjeta de red contiene el hardware y la programación
firmware (rutinas software almacenadas en la memoria de sólo lectura, ROM) que
implementa las funciones de Control de acceso al medio y Control de enlace lógico en
el nivel de enlace de datos del modelo OSI.
Preparación de los datos
Antes de enviar los datos por la red, la tarjeta de red debe convertirlos de un formato
que el equipo puede comprender a otro formato que permita que esos datos viajen a
través del cable de red.
Los datos se mueven por el equipo a través de unos caminos denominados buses.
Realmente éstos son varios caminos de datos colocados uno al lado del otro. Como
los caminos están juntos (paralelos), los datos se pueden mover en grupos en lugar de
ir de forma individual (serie).
A los buses más antiguos, como aquellos utilizados en el primer equipo personal de
IBM, se les conoce como buses de 8 bits porque en un momento dado podían mover 8
bits de datos. El equipo PC/AT utilizó un bus de 16 bits, lo que significa que en un
momento dado podía mover 16 bits de datos. Los equipos actuales utilizan buses de
32 bits. Cuando los datos circulan en un bus del equipo, se dice que están circulando
de forma paralela porque los 32 bits se están moviendo juntos. Piense en un bus de 32
bits como en una autovía de 32 carriles con 32 coches circulando juntos (de forma
paralela), cada uno llevando un bit de datos.
Sin embargo, en un cable de red, los datos deben circular en un solo flujo de bits.
Cuando los datos circulan en un cable de red se dice que están circulando en una
transmisión en serie, porque un bit sigue a otro. En otras palabras, el cable es una
autovía de un solo carril, y los datos siempre circulan en una sola dirección. El equipo
puede estar enviando o recibiendo datos, pero nunca podrá estar haciendo las dos
cosas al mismo tiempo.
La tarjeta de red toma los datos que circulan en paralelo y los reestructura, de forma
que circulen por el cable de la red, que es un camino en serie de un bit. Esto se
consigue convirtiendo las señales digitales del equipo en señales ópticas o eléctricas
que pueden circular por los cables de la red. La componente responsable de esto es el
transceptor (transmisor/receptor).
Direcciones de red
Además de la transformación de los datos, la tarjeta de red también tiene que
anunciar su propia localización, o dirección, al resto de la red para diferenciarla de las
demás tarjetas de red.
Una comisión del Institute of Electrical and Electronics Engineers (IEEE) asigna
bloques de direcciones a cada fabricante de tarjetas de red. Los fabricantes graban las
direcciones en los chips de la tarjeta mediante un proceso conocido como «marcado»
de la dirección en la tarjeta. Con este proceso, cada tarjeta de red (y, por tanto, cada
equipo) tiene una dirección única en la red.
La tarjeta de red también participa en otras funciones, como tomar datos del equipo
y prepararlos para el cable de la red:
1. El equipo y la tarjeta de red deben estar en comunicación para pasar
datos desde el equipo a la tarjeta. En las tarjetas que pueden utilizar acceso
directo a memoria (DMA), el equipo asigna una pequeña parte de su espacio
de memoria a la tarjeta de red.
2. La tarjeta de red envía una señal al equipo, pidiendo los datos del
equipo.
3. El bus del equipo traslada los datos desde la memoria del equipo a la
tarjeta de red.
A menudo, los datos se mueven más deprisa por el bus o el cable de lo que la
tarjeta de red puede gestionarlos, y entonces los datos se envían al búfer de la tarjeta,
una parte reservada de la RAM. Aquí se mantienen temporalmente durante la
transmisión y recepción de los datos.
Envío y control de datos
Antes de que la tarjeta de red emisora envíe datos a la red, mantiene un diálogo
electrónico con la tarjeta de red receptora, de forma que ambas tarjetas se pongan de
acuerdo en lo siguiente:
Tamaño máximo de los grupos de datos que van a ser enviados.
Cantidad de datos que se van a enviar antes de que el receptor de su
confirmación.
Intervalos de tiempo entre las cantidades de datos enviados.
Cantidad de tiempo que hay que esperar antes de enviar la
confirmación.
Cantidad de datos que puede tener cada tarjeta antes de que haya
desbordamiento.
Velocidad de la transmisión de datos.
Si una tarjeta de red más moderna, rápida y sofisticada necesita comunicarse con
una tarjeta de red más lenta y antigua, ambas necesitan encontrar una velocidad de
transmisión común a la que puedan adaptarse. Algunas tarjetas de red más modernas
incorporan circuitos que permiten que las tarjetas más rápidas se ajusten a la
velocidad de las tarjetas más lentas.
Cada tarjeta de red le indica a la otra sus parámetros, aceptando o rechazando los
parámetros de la otra tarjeta. Después de haber determinado todos los detalles de
comunicación, las dos tarjetas comienzan a enviar y a recibir datos.
Opciones y parámetros de configuración
Las tarjetas de red a menudo tienen una serie de opciones que se deben configurar
para que la tarjeta funcione apropiadamente. Algunos de los diseños más antiguos
utilizan interruptores DIP externos. Algunos ejemplos de opciones que se pueden
configurar:
Interrupción (IRQ).
Las tarjetas de red más antiguas se configuran por medio de software, jumpers, o
una combinación de los dos; consulte la documentación de la tarjeta para ver la
configuración software o jumpers apropiados. Las tarjetas más modernas utilizan la
tecnología Plug and Play (PnP) ; como consecuencia, las tarjetas más antiguas que
necesitan una configuración manual, han quedado obsoletas.
Dirección del puerto base de Entrada/Salida (E/S).
Dirección base de memoria.
Transceptor.
Líneas de petición de interrupción (IRQ)
Las líneas de petición de interrupción (IRQ) son líneas hardware por las que
dispositivos como puertos de E/S, teclado, unidades de disco y tarjetas de red, pueden
enviar interrupciones o peticiones al microprocesador del equipo.
Las líneas de petición de interrupción se incorporan en el hardware interno del
equipo, y se les asignan diferentes niveles de prioridad, de forma que el
microprocesador pueda determinar la importancia de las peticiones de servicios
recibidas.
Cuando la tarjeta de red envía una petición al equipo, utiliza una interrupción (envía
una señal electrónica a la CPU del equipo). Cada dispositivo del equipo debe utilizar
una línea de petición de interrupción diferente. La línea de interrupción se especifica
cuando se configura el dispositivo. Algunos ejemplos son:
IR Equipo con un procesador 80486 (o superior)
Q
2 EGA/VGA (Adaptador de gráficos mejorado/adaptador
(9) de gráficos de vídeo).
3 Disponible (A menos que sea utilizado como segundo
puerto serie [COM2, COM4] o ratón de bus).
4 COM1, COM3.
5 Disponible (A menos que sea utilizado como segundo
puerto paralelo [LPT2] o como tarjeta de sonido).
6 Controlador de disquete.
7 Puerto paralelo (LPT1).
8 Reloj de tiempo real.
10 Disponible
11 Disponible
12 Ratón (PS/2).
13 Coprocesador matemático.
14 Controlador de disco duro.
15 Disponible (A menos que sea utilizado para controlador
secundario de disco duro).
Para la tarjeta de red se pueden utilizar IRQ3 o IRQ5, en la mayoría de los casos. Si
se encuentra disponible, se recomienda IRQ5, y es la que se utiliza por omisión para la
mayoría de los sistemas. Para conocer qué IRQ están siendo utilizadas, utilice una
herramienta de diagnóstico del sistema.
Puerto base de E/S
El puerto base de E/S especifica un canal por donde fluye la información entre el
hardware del equipo (como la tarjeta de red) y su CPU. El puerto es para la CPU como
una dirección.
Cada dispositivo hardware en un sistema debe tener un número de puerto base de
E/S diferente. Los números de puerto, en formato hexadecimal (sistema que utiliza
base 16 en lugar de base 10 para su numeración) de la tabla que se muestra a
continuación, normalmente están disponibles para asignar a una tarjeta de red, a
menos que ya se estén usando. Aquellas que se muestran con un dispositivo al lado,
son direcciones que normalmente se utilizan para los dispositivos. Compruebe la
documentación del equipo para determinar las direcciones que ya están siendo
utilizadas.
Configuración del puerto base de E/S
Puerto Dispositivo Puerto Dispositivo
200 a Puerto de juegos 300 a Tarjeta de red.
20F 30F
210 a 310 a Tarjeta de red.
21F 31F
220 a 320 a Controlador de disco
22F 32F duro (para Modelo 30
PS/2).
230 a Ratón de bus 330 a
23F 33F
240 a 340 a
24F 34F
250 a 350 a
25F 35F
260 a 360 a
26F 36F
270 a LPT3 370 a LPT2
27F 37F
280 a 380 a
28F 38F
290 a 390 a
29F 39F
2A0 a 3A0 a
2AF 3Af
2B0 a 3B0 a LPT1
2BF 3BF
2C0 a 3C0 a EGA/VGA.
2CF 3CF
2D0 a 3D0 a CGA/MCGA
2DF 3DF (también EGA/VGA, en
modos de vídeo en
color).
2E0 a 3E0 a
2EF 3EF
2F0 a COM2 3F0 a Controlador de
2FF 3FF disquete; COM1.
Dirección de memoria base
La dirección de memoria base identifica una posición en la memoria (RAM) de un
equipo. La tarjeta de red utiliza esta posición como un área de búfer para guardar los
datos que llegan y que salen. A este parámetro, a veces se le denomina dirección de
inicio RAM.
Una trama de datos es un paquete de información transmitido como una unidad en
una red. A menudo, la dirección base de memoria para una tarjeta de red es D8000.
(Para algunas tarjetas de red, el cero final se elimina de la dirección base de memoria,
por ejemplo, D8000 sería D800.) Cuando una tarjeta de red se configura, se debe
seleccionar una dirección de memoria base que no esté siendo utilizada por otro
dispositivo.
Las tarjetas de red que no utilizan la RAM del sistema no tienen un parámetro para
la dirección de memoria base. Algunas tarjetas de red contienen un parámetro que
permite especificar la cantidad de memoria que hay que anular para guardar las
tramas de datos. Por ejemplo, para algunas tarjetas se pueden especificar 16 KB o 32
KB de memoria. Cuanta más memoria se especifique, mayor será el rendimiento en la
red, pero quedará menos memoria disponible para otros usos.
Selección del transceptor
La tarjeta de red puede tener otros parámetros que deben ser definidos durante la
configuración. Por ejemplo, algunas tarjetas vienen con un transceptor externo y otro
incluido en la tarjeta.
Normalmente la elección de la tarjeta se realiza con jumpers. Los jumpers son
pequeños conectores que se conectan a dos pines para determinar los circuitos que
utilizará la tarjeta.
Compatibilidad de tarjetas, buses y cables
Para asegurar la compatibilidad entre el equipo y la red, la tarjeta debe tener las
siguientes características:
Coincidir con la estructura interna del equipo (arquitectura del bus de
datos).
Tener el tipo de conector de cable apropiado para el cableado.
Por ejemplo, una tarjeta que funciona en la comunicación de un equipo Apple en
una red en bus, no funcionará en un equipo de IBM en un entorno de anillo: el anillo de
IBM necesita tarjetas que son físicamente diferentes de las utilizadas en un bus; y
Apple utiliza un método de comunicación de red diferente.
Arquitectura del bus de datos
En un entorno de equipos personales, existen cuatro tipos de arquitecturas de bus:
ISA, EISA, Micro Channel y PCI. Cada uno de los tipos es físicamente diferente a los
demás. Es imprescindible que la tarjeta de red y el bus coincidan.
Arquitectura estándar de la industria (ISA)
ISA es la arquitectura utilizada en equipos IBM PC, XT y AT, así como en sus
clones. Permite incorporar al sistema varios adaptadores por medio de conectores de
placas que se encuentran en las ranuras o slots de expansión. En 1984 ISA se amplió
de 8 bits a 16 bits cuando IBM introdujo el equipo IBM PC/AT. ISA hace referencia a la
propia ranura de expansión (una ranura de 8 bits o de 16 bits). Las ranuras de 8 bits
son más pequeñas que las de 16 bits, que realmente constan de dos ranuras o
conectores, una junto a la otra. Una tarjeta de 8 bits podría estar en un slot de 16 bits,
pero una de 16 bits no podría estar en una de 8 bits.
ISA fue la arquitectura estándar de equipos personales hasta que Compaq y otras
compañías desarrollaron el bus EISA.
Arquitectura estándar ampliada de la industria (EISA)
Es el estándar de bus introducido en 1988 por una asociación de nueve compañías
de la industria de los equipos: AST Research, Compaq, Epson, Hewlett-Packard, NEC,
Olivetti, Tandy, Wyse Technology y Zenith.
EISA ofrece un camino de datos de 32 bits y mantiene la compatibilidad con ISA,
además de ofrecer una serie de características adicionales introducidas por IBM en su
Bus de Arquitectura Micro Channel.
Arquitectura Micro Channel
En 1988, IBM introdujo este estándar al tiempo que se anunció su equipo PS/2. La
arquitectura Micro Channel es física y eléctricamente incompatible con el bus ISA. A
diferencia del bus ISA, las funciones Micro Channel son buses de 16 o 32 bits y se
pueden controlar de forma independiente por varios procesadores de control (master)
del bus.
Interconexión de componentes periféricos (PCI)
Es un bus local de 32 bits utilizado en la mayoría de los equipos Pentium y en las
Apple Power Macintosh. La arquitectura de bus PCI actual posee la mayoría de los
requerimientos para ofrecer la funcionalidad Plug and Play. Plug and Play es una
filosofía de diseño y un conjunto de especificaciones de la arquitectura de un equipo
personal. El objetivo de Plug and Play es permitir los cambios realizados en la
configuración de un equipo personal, sin intervención del usuario.
Conectores y cableado de red
La tarjeta de red realiza tres funciones importantes coordinando las actividades
entre el equipo y el cableado:
Realiza la conexión física con el cable.
Genera las señales eléctricas que circulan por el cable.
Controla el acceso al cable siguiendo unas reglas específicas.
Para seleccionar la tarjeta de red apropiada para la red, primero es necesario
determinar el tipo de cable y los conectores que tendrá.
Cada tipo de cable tiene características físicas diferentes, a las que la tarjeta de red
debe adaptarse. Cada tarjeta se ha construido para aceptar al menos un tipo de cable.
Actualmente el cable de par trenzado y el de fibra óptica son los tipos de cables más
comunes.
Algunas tarjetas de red tienen más de un conector de interfaz. Por ejemplo, es
común que una tarjeta de red tenga un conector Thinnet, uno Thicknet y uno para par
trenzado.
Si una tarjeta tiene más de un conector de interfaz y no tiene detección de interfaz
predeterminada, debe realizar una selección configurando jumpers en la propia tarjeta
o usando una opción seleccionable por software. La documentación de la tarjeta de
red debe contener información sobre cómo se puede configurar la tarjeta de forma
apropiada.
Una conexión de red Thicknet utiliza un cable de interfaz de conexión de unidad
(AUI) 15-pin para conectar el conector 15-pin (DB-15) de la parte posterior de la tarjeta
de red a un transceiver [Link] transceiver externo utiliza un conector del tipo
«vampiro» para conectar el cable thicknet.
El puerto del joystick y el puerto del transceiver externo AUI son parecidos, pero
algunos pines del joystick tienen una tensión de 5 voltios, lo que podría ser perjudicial
tanto para el hardware de la red como para el equipo. Es necesario familiarizarse con
la configuración hardware específica para determinar si el conector es para un joystick
o para una tarjeta de red. De manera similar, tenga cuidado de no confundir los
puertos SCSI de 25 pines con los puertos de impresora paralelos. Algunos dispositivos
SCSI más antiguos se comunicaban a través del mismo tipo de conector DB-25 que
estos puertos paralelos, pero ningún dispositivo funcionará cuando se enchufe en un
conector erróneo.
Una conexión de par trenzado utiliza un conector RJ-45,. El conector RJ-45 es
similar al conector telefónico RJ-11, pero tiene un tamaño mayor y tiene ocho
conductores; un RJ-11 sólo tiene cuatro conductores.
Rendimiento de la red
Debido al efecto que causa en la transmisión de datos, la tarjeta de red produce un
efecto bastante significativo en el rendimiento de toda la red. Si la tarjeta es lenta, los
datos no se moverán por la red con rapidez. En una red en bus, donde no se puede
utilizar la red hasta que el cable esté libre, una tarjeta lenta puede incrementar el
tiempo de espera para todos los usuarios.
Después de identificar los requerimientos físicos de la tarjeta de red (el bus del
equipo, el tipo de conector que necesita la tarjeta, el tipo de red donde operará), es
necesario considerar otros factores que afectarán a las posibilidades de la tarjeta.
Aunque todas las tarjetas de red se ajustan a ciertos estándares y especificaciones
mínimas, algunas características de las tarjetas mejoran de forma importante el
servidor, el cliente y todo el rendimiento de la red.
Se puede incrementar la velocidad de los datos a través de la tarjeta incorporando
las siguientes mejoras:
Acceso directo a memoria (DMA). Con este método, el equipo pasa
los datos directamente desde el búfer de la tarjeta de red a la memoria de el
equipo, sin utilizar el microprocesador del equipo.
Memoria de tarjeta compartida. En este método, la tarjeta de red
contiene RAM que comparte con el equipo. El equipo identifica esta RAM como
si realmente estuviera instalada en el equipo.
Memoria del sistema compartida. En este sistema, el procesador de
la tarjeta de red selecciona una parte de la memoria del equipo y la utiliza para
procesar datos.
Bus mastering (Control de bus). Con el bus mastering, la tarjeta de
red toma temporalmente el control del bus del equipo, evitando la CPU del
equipo y llevando los datos directamente a la memoria del sistema del equipo.
Esto incrementa la velocidad de las operaciones del equipo, liberando al
procesador del equipo para realizar otras tareas. Las tarjetas con bus
mastering pueden ser caras, pero pueden mejorar el rendimiento de la red de
un 20 a un 70 por 100. Las tarjetas de red EISA, Micro Channel y PCI ofrecen
bus mastering.
RAM buffering. A menudo el tráfico en la red va demasiado deprisa
para que la mayoría de las tarjetas de red puedan controlarlo. Los chips de
RAM en la tarjeta de red sirven de búfer. Cuando la tarjeta recibe más datos de
los que puede procesar inmediatamente, el buffer de la RAM guarda algunos
de los datos hasta que la tarjeta de red pueda procesarlos. Esto acelera el
rendimiento de la tarjeta y ayuda a evitar que haya un cuello de botella en la
tarjeta.
Microprocesador de la tarjeta. Con un microprocesador, la tarjeta de
red no necesita que el equipo le ayude a procesar los datos. La mayoría de las
tarjetas incorporan sus propios procesadores que aceleran las operaciones de
la red.
Servidores
Debido al alto volumen de tráfico en la red, los servidores deberían estar equipados
con tarjetas del mayor rendimiento posible.
Estaciones
Las estaciones de trabajo pueden utilizar las tarjetas de red más baratas, si las
actividades principales en la red están limitadas a aplicaciones, como procesamiento
de texto, que no generan altos volúmenes de tráfico en la red. Aunque recuerde que
en una red en bus, una tarjeta de red lenta puede incrementar el tiempo de espera
para todos los usuarios. Otras aplicaciones, como las de bases de datos o ingeniería,
se vendrán abajo rápidamente con tarjetas de red inadecuadas.
Tarjetas de red especializadas
En la mayoría de las situaciones, bastará con utilizar tarjetas estándar para conectar
el equipo con la red física, pero existen algunas situaciones que requieren el uso de
conexiones de red especializadas y, por tanto, necesitarán tarjetas de red
especializadas.
Tarjetas de red sin hilos
Algunos entornos requieren una alternativa a las redes de equipo cableadas.
Existen tarjetas de red sin hilos que soportan los principales sistemas operativos de
red.
Las tarjetas de red sin hilos suelen incorporar una serie de características. Éstas
incluyen:
Antena omnidireccional interior y cable de antena.
Software de red para hacer que la tarjeta de red funcione en una red en
particular.
Software de diagnóstico para localización de errores.
Software de instalación.
Estas tarjetas de red se pueden utilizar para crear una LAN totalmente sin hilos, o
para incorporar estaciones sin hilos a una LAN cableada.
Normalmente, estas tarjetas de red se utilizan para comunicarse con una
componente llamada concentrador sin hilos que actúa como un transceptor para enviar
y recibir señales.
Un concentrador es un dispositivo de comunicaciones que combina señales de
varias fuentes, como terminales en la red, en una o más señales antes de enviarlas a
su destino.
Tarjetas de red de fibra óptica
Conforme la velocidad de transmisión aumenta para acomodarse a las aplicaciones
con un gran ancho de banda y los flujos de datos multimedia son comunes en las
intranets actuales, las tarjetas de red de fibra óptica permiten conexiones directas a
redes de fibra óptica de alta velocidad. Recientemente, estas tarjetas han llegado a
tener un precio competitivo, y su uso es cada vez más corriente.
PROM de inicialización remota
En algunos entornos, la seguridad es tan importante que las estaciones de trabajo
no tienen unidades de disquete individuales. Sin éstas, los usuarios no pueden copiar
la información en un disquete o disco duro y, por tanto, no pueden sacar los datos de
su lugar de trabajo.
Sin embargo, como los equipos normalmente se arrancan desde una unidad de
disquete o desde un disco duro, tiene que existir otra fuente para que el software inicie
(arranque) el equipo y lo conecte a la red. En estos entornos, la tarjeta de red puede
ser equipada con un chip especial llamado PROM (memoria programable de sólo
lectura) de inicialización remota que contenga el código que inicie el equipo y conecte
al usuario a la red.
Con las PROM de inicialización remota, las estaciones de trabajo sin disco se
pueden unir a la red cuando se inician.
Redes sin hilos
El entorno sin hilos
El entorno sin hilos es una opción de red, a veces apropiada y otras veces
necesaria. Actualmente, los fabricantes ofrecen más productos a precios atractivos, lo
que significa que en un futuro se incrementarán las ventas y la demanda. Conforme se
incremente la demanda, el entorno sin hilos crecerá y mejorará.
La frase «entorno sin hilos» es engañosa, ya que implica una red completamente
libre de cableado. En la mayoría de los casos, esto no es cierto. Realmente la mayoría
de las redes sin cables constan de componentes sin hilos que se comunican con una
red que utiliza cableado, es una red de componentes mezclados llamada red híbrida.
Posibilidades de las redes sin hilos
Las redes sin hilos están llamando la atención porque los componentes sin hilos
pueden:
Ofrecer conexiones temporales a una red cableada existente.
Ayudar a proporcionar respaldo a una red existente.
Ofrecer algún grado de portabilidad.
Extender las redes más allá de los límites de las conexiones físicas.
Utilidad de la conexión de redes sin hilos
La dificultad intrínseca en la instalación de las redes con cable es un factor que
empujará a una mayor aceptación de los entornos sin cable. La conexión sin cable
puede ser especialmente útil para redes:
En sitios concurridos, como áreas de recepción y salas de espera.
Para usuarios que están constantemente moviéndose, como médicos y
enfermeras en hospitales.
Áreas y edificios aislados.
Departamentos donde la ubicación física cambia frecuentemente y de
forma no predecible.
Estructuras, como construcciones históricas, donde el cableado
representa un reto.
Tipos de redes sin hilos
Las redes sin hilos se pueden dividir en tres categorías, basándose en su
tecnología:
LAN.
LAN extendidas.
Computación móvil.
La diferencia fundamental entre estas categorías radica en las facilidades de
transmisión. Las LAN y las LAN extendidas sin hilos utilizan transmisores y receptores
propiedad de la compañía en donde funciona la red. La computación móvil utiliza
medios de transporte público, como las compañías telefónicas de servicios de larga
distancia, junto con compañías telefónicas locales y sus servicios públicos, para
transmitir y recibir señales.
LAN
Excepto por el medio utilizado, una red sin hilos típica opera de forma similar a una
red cableada: en cada una de los equipos se instala una tarjeta de red sin hilos con un
transceptor, y los usuarios se comunican con la red como si estuvieran utilizando
equipos con cables.
Puntos de acceso
El transceptor, a veces llamado punto de acceso, transmite y recibe señales de los
equipos circundantes y pasa datos entre los equipos sin hilos y la red cableada.
Estas LAN sin hilos utilizan pequeños transceptores fijados en la pared para
conectarse a la red con hilos. Estos transceptores establecen contacto por radio con
los dispositivos de red portátiles. Observe que esto no es una verdadera LAN sin hilos,
porque utiliza un transceptor colocado en la pared para conectarse a una LAN
cableada estándar.
Técnicas de transmisión
Las LAN sin hilos utilizan cuatro técnicas para transmitir datos:
1. Transmisión infrarroja.
2. Transmisión láser.
3. Transmisión por radio de banda estrecha (frecuencia única).
4. Transmisión por radio de amplio espectro.
Transmisión infrarroja. Todas las redes sin hilos infrarrojas operan utilizando un
rayo de luz infrarroja para llevar los datos entre los dispositivos. Estos sistemas
necesitan generar señales muy fuertes, porque las señales de transmisión débiles son
susceptibles de interferencias desde fuentes de luz, como ventanas.
Este método puede transmitir señales a altas velocidades debido al gran ancho de
banda de la luz infrarroja. Una red infrarroja normalmente puede transmitir a 10 Mbps.
Hay cuatro tipos de redes infrarrojas:
Redes de línea de visión. Como su nombre indica, esta versión de
redes de infrarrojos transmite sólo si el transmisor y el receptor tienen una línea
de visión despejada entre ellos.
Redes infrarrojas de dispersión. En esta tecnología, las transmisiones
emitidas rebotan en paredes y suelo y, finalmente, alcanzan el receptor. Éstas
son efectivas en un área limitada de unos 30,5 metros.
Redes reflectoras. Los transceptores ópticos situados cerca de los
equipos transmiten a una posición común que redirige las transmisiones a el
equipo apropiada.
Telepunto óptico de banda ancha. Esta LAN sin hilos infrarroja ofrece
servicios de banda ancha y es capaz de ofrecer requerimientos multimedia de
alta calidad que pueden alcanzar los ofrecidos por una red cableada.
Aunque su velocidad y conveniencia están despertando interés, los infrarrojos tienen
dificultad para transmitir a distancias mayores de 30,5 metros (100 pies). También
están supeditados a interferencias de la fuerte luz ambiental que se encuentra en los
entornos comerciales.
Trasmisión láser. La tecnología láser es similar a la infrarroja, ya que necesita una
línea de visión directa y cualquier persona o cosa que interfiera el rayo láser bloqueará
la transmisión.
Transmisión por radio de banda estrecha (frecuencia única). Este método es
similar a la transmisión desde una estación de radio. El usuario sintoniza el transmisor
y el receptor a una cierta frecuencia. Ésta no necesita situarse en la línea de visión,
porque el rango de transmisión es de 3.000 metros (9.842 pies). Sin embargo, como la
señal es de alta frecuencia, está supeditada a la atenuación del acero y los muros.
La radio de banda estrecha es un servicio de suscripción. Los suministradores de
este servicio tienen todos los requerimientos de licencia de la FCC u organismo
nacional equivalente. Este método es relativamente lento; la transmisión está en el
rango de los 4,8 Mbps.
Transmisión por radio de amplio espectro. La radio de amplio espectro transmite
señales en un rango de frecuencias. Esto ayuda a evitar los problemas de las
comunicaciones de banda estrecha.
Las frecuencias disponibles se dividen en canales, conocidos como hops o saltos,
que se pueden comparar con una etapa de un viaje que incluye la intervención de una
serie de paradas entre el punto de inicio y el destino. Los adaptadores de amplio
espectro sintonizan en un hop específico por una cantidad de tiempo predeterminada,
y después pasan a un hop diferente. Una secuencia de saltos determina la
coordinación. los equipos de la red están todas sincronizadas para coordinar el hop.
Este tipo de señalización ofrece una cierta seguridad incorporada, ya que el algoritmo
de salto de frecuencia de la red tendría que conocerse para obtener el flujo de datos.
Para aumentar la seguridad y evitar que los usuarios no autorizados escuchen la
emisión, el emisor y el receptor pueden cifrar la transmisión.
La tecnología de radio de amplio espectro ofrece una red realmente sin hilos. Por
ejemplo, dos o más equipos equipados con adaptadores de red de amplio espectro y
un sistema operativo con capacidades de red predeterminadas puede actuar como
una red Trabajo en Grupo sin cables de conexión. Además, las redes sin hilos se
pueden vincular a una red existente añadiendo una interfaz apropiada a uno de los
equipos de la red.
Aunque algunas implementaciones de radio de amplio espectro pueden ofrecer
velocidades de transmisión de 4Mbps a distancias de unos 3,22 kilómetros (dos millas)
en exteriores y 244 metros (800 pies) en interiores, la velocidad típica de 250 Kbps
(Kilobits por segundo) hace que este método sea bastante más lento que otras
opciones de red sin hilos.
Transmisión punto a punto
El método punto a punto de comunicación de datos no entra claramente dentro de
las presentes definiciones de redes. Utiliza una tecnología punto a punto que transfiere
datos desde una equipo a otro en lugar de comunicarse entre varios equipos y
periféricos. Sin embargo, los componentes adicionales como transceptores de host y
transceptores únicos están disponibles. Éstos se pueden implementar en equipos
individuales o en equipos que ya están en una red para formar una red de
transferencia de datos sin hilos.
Esta tecnología implica la transferencia de datos serie sin hilos con estas
características:
Utiliza un enlace de radio punto a punto para la transmisión de datos
rápida y libre de errores.
Atraviesa paredes, techos y suelos.
Soporta índices de datos desde 1,2 a 38,4 Kbps hasta 61 metros (200
pies) en interiores o unos 0,5 kilómetros (0.30 millas) con transmisión a la vista.
Este tipo de sistema transfiere datos entre equipos, o entre equipos y otros
dispositivos como impresoras o lectores de código de barras.
LAN extendidas
Otros tipos de componentes sin hilos pueden funcionar en un entorno LAN
extendido, de forma similar a su contrapartida cableada. Por ejemplo, un bridge LAN
sin hilos puede conectar redes separadas hasta 4,8 kilómetros (tres millas).
Conexión sin hilos multipunto
Un bridge sin hilos es un componente que ofrece una forma sencilla de poder
conectar edificios sin utilizar cables. De la misma forma que un puente ofrece un
camino entre dos puntos, un bridge sin hilos ofrece una camino de datos entre dos
edificaciones. Con variaciones que dependen de condiciones atmosféricas y
geográficas, esta distancia puede ser superior a 4,8 kilómetros (tres millas).
Aunque es costoso, tal componente se podría justificar porque elimina el gasto de
las líneas alquiladas.
Bridge sin hilos de gran alcance
Si los bridges sin hilos no llegan lo suficientemente lejos, otra alternativa a
considerar son los bridges sin hilos de gran alcance. Éstos también utilizan tecnología
de radio de amplio espectro para ofrecer bridges Ethernet y Token Ring, pero para una
distancia superior a 40 kilómetros (unas 25 millas).
Como con los bridge sin hilos originales, el coste de los bridge de gran alcance se
podría justificar porque elimina la necesidad de la línea T1 o enlaces de microondas.
Una línea T1 es una línea de comunicaciones de alta velocidad que puede tener
comunicaciones digitales y acceso a Internet a una velocidad de 1,544 Mbps.
Computación móvil
Las redes móviles sin hilos utilizan servicios telefónicos y servicios públicos para
recibir y transmitir señales utilizando:
Comunicación de paquetes vía radio.
Redes celulares.
Estaciones de satélite.
Los empleados que están de viaje pueden utilizar esta tecnología con equipos
portátiles o asistentes digitales personales (PDA) para intercambiar mensajes de
correo electrónico, archivos u otra información.
Aunque esta forma de comunicación tiene sus ventajas, es lenta. La velocidad de
transmisión oscila entre los 8 kbps y los 19,2 kbps. La velocidad es menor cuando se
incluye la corrección de errores.
La computación móvil incorpora adaptadores sin hilos que utilizan tecnología
telefónica celular para conectar equipos portátiles con redes cableadas. Los equipos
portátiles utilizan pequeñas antenas para comunicarse con las torres de radio en áreas
circundantes. Los satélites en órbita cercanos a la tierra recogen las señales de baja
potencia de los dispositivos de red móviles y portátiles.
Comunicación de paquetes vía radio
Este sistema divide una transmisión en paquetes.
Un paquete es una unidad de información transmitida como un todo de un
dispositivo a otro en la red.
Estos paquetes de radio son similares a otros paquetes de la red. Éstos incluyen:
La dirección fuente.
La dirección destino.
Información de corrección de errores.
Los paquetes se conectan a un satélite que los transmite. Sólo los dispositivos con
la dirección correcta pueden recibir los paquetes transmitidos.
Redes celulares
Los datos de paquetes celulares digitales (Cellular Digital Packet Data, CDPD)
utilizan la misma tecnología y algunos de los sistemas de los teléfonos móviles
celulares. Ofrecen transmisiones de datos de equipo sobre redes de voz analógicas,
siempre y cuando el sistema no esté ocupado. Ésta es una tecnología muy rápida que
sufre retrasos de sólo unos segundos, haciéndola suficientemente fiable para
transmisiones en tiempo real.
Como en las restantes redes sin hilos, debe haber una forma de enlazar la red
celular con una red cableada existente. Una unidad de interfaz Ethernet (EIU) puede
ofrecer esta conexión.
Estaciones de satélite
Los sistemas de microondas son una buena opción para la interconexión de
edificios en sistemas pequeños y con cortas distancias, como un campus o un parque
industrial.
La transmisión de microondas es actualmente el método de transmisión a larga
distancia más utilizado. Es excelente para la comunicación entre dos puntos a la vista
como:
Enlaces de satélite a tierra.
Entre dos edificios.
A través de grandes áreas uniformes y abiertas, como extensiones de
agua o desiertos.
Un sistema de microondas consta de:
Dos transceptores de radio: uno para generar (estación de transmisión)
y otro para recibir (estación de recepción) la transmisión.
Dos antenas orientables apuntadas frente a frente para realizar la
comunicación de la transmisión de señales por los transceptores. Estas
antenas, a menudo, se instalan en torres para ofrecer un mayor rango y para
evitar todo aquello que pudiera bloquear sus señales.
Métodos de acceso
La función de los métodos de acceso
Se denomina método de acceso al conjunto de reglas que definen la forma en que
un equipo coloca los datos en la red y toma los datos del cable. Una vez que los datos
se están moviendo en la red, los métodos de acceso ayudan a regular el flujo del
tráfico de la red.
Control del tráfico en el cable
Una red es de alguna forma como la vía de un tren, por la que circulan varios trenes.
Además de la vía, suele haber estaciones de tren. Cuando un tren está en la vía, el
resto de los trenes deben respetar un procedimiento que gobierna cómo y cuándo
entran en el flujo de tráfico. Sin dicho procedimiento, la entrada de un tren podría
colisionar con otro que ya estuviese en la vía.
Sin
embargo, hay diferencias importantes entre un sistema de
vías de tren y una red de equipos. En una red, parece
que todo el tráfico se mueve simultáneamente, sin interrupción. No obstante, esta
apariencia es una ilusión; en realidad, los equipos toman turnos para acceder a la red
durante breves períodos de tiempo. La mayor diferencia está en la mayor velocidad en
la que se mueve el tráfico de la red.
Varios equipos pueden compartir el acceso al cable. Sin embargo, si dos equipos
tratasen de colocar datos en el cable a la vez, los paquetes de datos de un equipo
podrían colisionar con los paquetes de datos del otro equipo, y ambos conjuntos de
paquetes de datos podrían dañarse.
Si un usuario va a enviar los datos a otro usuario a través de la red, o se va a
acceder a los datos de un servidor, tiene que haber una forma para que los datos
puedan acceder al cable sin interferirse entre ellos. Y el equipo de destino debe tener
una garantía para que los datos no se destruyan en una colisión durante la
transmisión.
Los métodos de acceso tienen que ser consistentes en la forma de manipular los
datos. Si los equipos utilizasen métodos de acceso distintos, la red podría tener
problemas, debido a que unos métodos podrían dominar el cable.
Los métodos de acceso previenen que los equipos accedan simultáneamente al
cable. Al asegurar que sólo un equipo coloca los datos en el cable de la red, los
métodos de acceso aseguran que el envío y recepción de datos de la red se realiza de
forma ordenada.
Principales métodos de acceso
Los tres métodos diseñados para prevenir el uso simultáneo del medio de la red
incluyen:
Métodos de acceso múltiple por detección de portadora
Por detección de colisiones
Con anulación de colisiones.
Métodos de paso de testigo que permiten una única oportunidad para el
envío de datos.
Métodos de prioridad de demandas.
Método de acceso múltiple por detección de portadora por detección de
colisiones (CSMA/CD)
Al utilizar el método conocido como acceso múltiple por detección de portadora por
detección de colisiones (CSMA/CD), cada uno de los equipos de la red, incluyendo a
los clientes y a los servidores, comprueban el cable para detectar el tráfico de la red.
Los equipos sólo pueden transmitir datos si el cable está libre.
Un equipo sólo puede enviar datos cuando «detecta» que el cable está libre y que
no hay tráfico en el cable. Una vez que el equipo haya trasmitido los datos al cable,
ningún equipo puede transmitir datos hasta que éstos hayan llegado a su destino y el
cable vuelva a estar libre. Recuerde que si dos o más equipos tratan de enviar datos
en el mismo instante de tiempo, habrá una colisión de datos. Cuando eso ocurre, los
dos equipos implicados dejarán de transmitir datos
durante un período de tiempo aleatorio y volverán a
transmitir los datos. Cada equipo determina su propio
período de espera, por lo que se reduce la posibilidad de que los dos equipos vuelvan
a transmitir simultáneamente.
Teniendo esto en cuenta, comprenderá el nombre del método de acceso, acceso
múltiple por detección de portadora por detección de colisiones (CSMA/CD). Los
equipos oyen o «detectan» el cable (detección de portadora). Normalmente, muchos
equipos de la red intentan transmitir datos (acceso múltiple); primero, cada uno oye
para detectar posibles colisiones. Si un equipo detecta una posible colisión, espera un
período de tiempo aleatorio antes de volver a intentar transmitir (detección de
colisiones).
La posibilidad de detección de colisiones es el parámetro que impone una limitación
en cuanto a distancia en CSMA/CD. Debido a la atenuación, el debilitamiento de una
señal transmitida a medida que se aleja del origen, el mecanismo de detección de
colisiones no es apropiado a partir de 2.500 metros (1.5 millas). Los segmentos no
pueden detectar señales a partir de esa distancia y, por tanto, no se puede asegurar
que un equipo del otro extremo esté transmitiendo. Si más de un equipo transmite
datos en la red al mismo tiempo, se producirá una colisión de datos y los datos se
estropearán.
Método de contención
CSMA/CD es conocido como un método de contención debido a que se contiene, o
retiene, a los equipos de la red hasta que haya una oportunidad para enviar los datos.
Puede verlo como una forma pesada de colocar los datos en la red, pero las
implementaciones actuales de CSMA/CD son tan rápidas que los usuarios no perciben
que se está utilizando este método.
Consideraciones sobre CSMA/CD
A mayor cantidad de equipos en la red, mayor tráfico de red. A medida que aumenta
el tráfico, tienden a aumentar la anulación de colisiones y las colisiones, que ralentizan
la red, de forma que CSMA/CD puede convertirse en un método de acceso lento.
Después de cada colisión, ambos equipos tendrán que retransmitir sus datos. Si la
red está muy saturada, es posible que los intentos de ambos equipos produzcan
colisiones en la red con los paquetes de otros equipos. Si ocurre esto, tendremos
cuatro equipos (los dos originales y los dos equipos cuyos paquetes han colisionado
con los paquetes retransmitidos) que tienen que volver a transmitir. Este aumento de
las retransmisiones puede hacer que la red quede paralizada.
La ocurrencia de este problema depende del numero de usuarios que intenten
utilizar la red y de las aplicaciones que estén utilizando. Las aplicaciones de bases de
datos tienen a colocar en la red más datos que las aplicaciones de procesamiento de
textos.
Dependiendo de los componentes hardware, del cableado y del software de red, la
utilización de una red CSMA/CD con muchos usuarios utilizando aplicaciones de
bases de datos puede llegar a ser frustrante, debido al elevado tráfico de la red.
Método de acceso múltiple por detección de
portadora con anulación de colisiones (CSMA/CA)
El acceso múltiple por detección de portadora con
anulación de colisiones (CSMA/CA) es el método de
acceso menos popular. En CSMA/CA, cada equipo
indica su intención de transmitir antes de transmitir los
datos. De esta forma, los equipos detectan cuándo
puede ocurrir una colisión; esto permite evitar transmitir
colisiones. Al informar de la intención de transmitir datos
aumenta el tráfico en el cable y ralentiza el rendimiento
de la red.
Método de acceso paso de testigo
En el método de acceso conocido como paso de
testigo, circula por el cable del anillo equipo en equipo
un paquete especial denominado testigo. Cuando un
equipo del anillo necesita enviar datos a través de la red, tiene que esperar a un
testigo libre. Cuando se detecta un testigo libre, el equipo se apodera de él si tiene
datos que enviar.
Ahora el equipo puede enviar datos. Los datos se transmiten en tramas junto con
información adicional como cabeceras y finales (trailers).
Mientras un equipo está utilizando el testigo, los otros equipos no pueden transmitir
datos. Debido a que sólo puede haber un equipo utilizando el testigo, no se producen
colisiones ni contención y no se pierde tiempo esperando a que los equipos vuelvan a
enviar los testigos debido al tráfico de la red.
Método de acceso prioridad de demandas
La prioridad de demandas es un método de acceso relativamente nuevo y está
diseñado para el estándar Ethernet 100 Mbps conocido como 100VG-AnyLAN. Ha sido
estandarizado por el Instituto de ingenieros eléctricos y electrónicos (IEEE) como la
especificación 802.12.
Este método de acceso está basado en el hecho de que los nodos repetidores y
finales son los dos componentes que forman todas las redes 100VG-AnyLAN. Los
repetidores gestionan el acceso a la red haciendo búsquedas round-robin de
peticiones de envío de todos los nodos de red. El repetidor o hub es el responsable de
conocer todas las direcciones, enlaces y nodos finales, y de comprobar que todos
están funcionando. De acuerdo con la definición de 100VG-AnyLAN, un nodo final
puede ser un equipo, un bridge, un router o un switch.
Contención de la prioridad de demandas
Al igual que en CSMA/CD, dos equipos que utilicen el método de acceso con
prioridad de demandas pueden causar contención si transmiten exactamente en el
mismo instante. Sin embargo, con prioridad de demandas, es posible implementar un
esquema en que ciertos tipos de datos tengan prioridad si existe contención. Si el hub
o repetidor recibe dos peticiones al mismo tiempo, primero se servirá la petición que
tenga mayor prioridad. Si las dos peticiones tienen la misma prioridad, ambas
peticiones se servirán alternando entre las dos.
En una red con prioridad de demandas, los equipos pueden recibir y transmitir al
mismo tiempo debido al esquema de cableado definido por este método de acceso. En
este método se utilizan cuatro pares de hilos, que permiten dividir por cuatro las
transmisiones, transmitiendo cada uno de los hilos del cable señales a 25 MHz.
Consideraciones sobre la prioridad de demandas
En una red con prioridad de demandas, sólo hay comunicación entre el equipo que
envía, el hub y el equipo que recibe. Esto es más eficiente que CSMA/CD, que
transmite avisos a toda la red. En prioridad de demandas, cada hub conoce los nodos
finales y los repetidores que están conectados a él directamente, mientras que en el
entorno CSMA/CD, cada hub conoce la dirección de cada nodo de la red.
La prioridad de demandas tiene varias ventajas respecto a CSMA/CD, entre las que
se incluyen:
El uso de cuatro pares de hilos. Al utilizar cuatro pares de hilos, los
equipos pueden enviar y recibir al mismo tiempo.
Las transmisiones se realizan a través del hub. Las transmisiones no
se envían a todos los equipos de la red. Los equipos no compiten por acceder
al cable, pero trabajan bajo el control centralizado del hub.
Características de los distintos métodos de acceso
Prioridad
Característi CSMA/C CSMA/C Paso de
de
ca o función D A testigo
demandas
Basado Basado
Tipo de en envíos a en envíos a Basado Basado
comunicación todos los todos los en testigo en hub.
equipos equipos
Tipo de
Contenció Contenció Sin Contenció
método de
n n contención n
acceso
Tipo de Token
100VG-
método de Ethernet LocalTalk Ring
AnyLAN.
acceso ArcNet
Envío de datos en una red
Inicialmente, se puede pensar que los datos se envían desde un equipo a otro como
una serie continua de unos y ceros. De hecho, los datos se dividen en paquetes
pequeños y manejables, cada uno dividido con la información esencial para ir desde el
origen hasta el destino. Los paquetes son bloques básicos que constituyen la
comunicación de datos por la red.
La función de los paquetes en las comunicaciones en red
Normalmente los datos existen como archivos de gran tamaño. En cambio, las redes
no podrían funcionar si los equipos colocasen a la vez grandes cantidades de datos en
la red. Un equipo que envíe grandes cantidades de datos hace que otros equipos
tengan que esperar (incrementando la frustración de los otros usuarios) mientras se
transmiten los datos. Esto no es lo que se llama «compartir»; esto es «monopolizar la
red». Hay dos razones por las que la colocación de grandes bloques de datos en el
cable ralentiza la red:
Las grandes cantidades de datos enviados como un único bloque
colapsan la red y hacen imposible la interacción y comunicación apropiada
debido a que un equipo está desbordando el cable con datos.
El impacto de la retransmisión de grandes bloques de datos multiplica el
tráfico de la red.
Estos efectos se minimizan cuando estos grandes bloques de datos se dividen en
paquetes más pequeños para una mejor gestión del control de errores en la
transmisión. De esta forma, sólo se afecta a una pequeña cantidad de datos, y por
tanto, sólo se tienen que volver a transmitir pequeñas cantidades de datos, facilitando
la recuperación de un error.
Para que varios usuarios puedan transmitir a la vez datos por la red de forma rápida
y sencilla, hay que dividir los datos en bloques pequeños y manejables. De esta forma,
los usuarios pueden compartir su acceso a la red. Estos bloques se denominan
paquetes, o tramas. Aunque los términos de «paquete» y «trama» se suelen utilizar
indistintamente, hay algunas diferencias dependiendo del tipo de red.
Utilizaremos el término «paquete» para hacer referencia a «una unidad de
información transmitida como una entidad desde un dispositivo a otro de la red».
«Dispositivo» es un término genérico utilizado para un subsistema informático.
Normalmente a las impresoras, puertos serie y unidades de disco se les conoce como
dispositivos; tales subsistemas suelen necesitar su propio software controlador,
denominado controladores del dispositivo. Los paquetes son las unidades básicas de
la comunicación en la red. Cuando se dividen datos en paquetes, se aceleran las
transmisiones individuales de forma que cada equipo de la red tenga más
oportunidades de transmitir y recibir datos. En el equipo de destino (receptor), se
reúnen los paquetes y se reorganizan en el orden de los datos originales.
Cuando el sistema operativo de la red del equipo de origen divide los datos en
paquetes, añade a cada trama una información de control especial. Esto hace posible:
El envío de los datos originales en pequeños paquetes.
La reorganización de los datos en el orden apropiado cuando lleguen a
su destino.
La comprobación de errores una vez que se hayan reorganizado los
datos.
Estructura de un paquete
Los paquetes pueden contener datos de varios tipos incluyendo:
Información, como mensajes o archivos.
Ciertos tipos de datos de control y comandos, como peticiones de
servicio.
Códigos de control de sesión, como la corrección de errores, que indica
la necesidad de una retransmisión.
Componentes de un paquete
Todos los paquetes tienen varias propiedades en común. Entre ellas se incluyen:
Una dirección de origen que identifica al equipo que realiza el envío.
Los datos que se quieren transmitir.
Una dirección de destino que identifica al destinatario.
Instrucciones que indican a los componentes de la red cómo pasar los
datos.
Información que indica al equipo de destino cómo conectar el paquete
con el resto de los paquetes para reorganizar el bloque completo de datos.
Información de comprobación de errores que asegura que los datos
lleguen intactos.
Los componentes de un paquete se agrupan en tres secciones: cabecera, datos y
final.
Cabecera
La cabecera incluye:
Una señal de alerta que indica que el paquete se está transmitiendo.
La dirección del origen.
La dirección del destino.
Información de reloj para sincronizar la transmisión.
Datos
Esta parte describe los datos que se están enviando actualmente. Dependiendo de
la red, esta parte del paquete tiene un tamaño variable. La sección de datos en la
mayoría de las redes varía entre 512 bytes o 0.5 kilobytes (KB) y 4 KB.
Debido a que la mayoría de los datos de origen suelen tener más de 4 KB, hay que
dividir los datos en bloques más pequeños para que puedan ser colocados en
paquetes. Para realizar la transmisión de un archivo grande, habrá que enviar muchos
paquetes.
Final
El contenido exacto del final varía en función del método de comunicación o
protocolo. Sin embargo, el final suele tener un componente de comprobación de
errores denominado código de redundancia cíclica (CRC). El CRC es un número
generado en el origen por un cálculo matemático sobre el paquete. Cuando el paquete
llega al destino se vuelve a realizar el cálculo. Si el resultado de los dos cálculos
coincide, indica que los datos del paquete se han mantenido estables. Si el cálculo del
destino es distinto del cálculo del origen, significa que los datos han cambiado durante
la transmisión. En dicho caso, la rutina de CRC indica al equipo origen que vuelva a
transmitir los datos.
Un protocolo es un conjunto de reglas o estándares diseñado para permitir que los
equipos puedan conectarse entre sí e intercambiar datos reduciendo los errores en la
medida de lo posible.
Las redes tienen distintos formatos para los paquetes y permiten paquetes de
distintos tamaños. El límite del tamaño del paquete determina cuántos paquetes puede
crear el sistema operativo de red para un conjunto de datos de gran tamaño.
Ethernet
Con el paso del tiempo, Ethernet se ha convertido en el medio de acceso más
conocido para equipos de sobremesa y se utiliza en entornos de red pequeños y
grandes. Ethernet es un estándar que no pertenece a ninguna industria, y que ha
tenido una gran aceptación por los fabricantes de hardware de red. Casi no existen
problemas relacionados con la utilización de productos hardware para Ethernet de
distintos fabricantes.
Orígenes de Ethernet
A finales de los sesenta la Universidad de Hawai desarrolló una WAN denominada
ALOHA. (Una WAN extiende la tecnología de una LAN sobre un área geográfica más
grande. La universidad ocupaba un área extensa y buscaba cómo conectar los
equipos que estaban dispersos en el campus. Una de las características
fundamentales de la red de la universidad era que utilizaba CSMA/CD como método
de acceso.
Esta red fue la base para la arquitectura de red Ethernet actual. En 1972, Robert
Metcalfe y David Boggs inventaron un esquema de cableado y comunicación en el
Centro de Investigación de Xerox en Palo Alto (PARC) y en 1975 introdujeron el primer
producto Ethernet. La versión original de Ethernet estaba diseñada como un sistema
de 2.94 megabits por segundo (Mbps) para conectar unos 100 equipos sobre un cable
de 1 kilómetro (0.62 millas).
La Ethernet de Xerox tuvo tanto éxito que Xerox, Intel Corporation y Digital
Equipment Corporation diseñaron un estándar para Ethernet a 10 Mbps.
Especificaciones de Ethernet
En 1978, la Organización internacional de normalización (ISO) creó un conjunto de
especificaciones para la conexión de dispositivos diferentes. Este conjunto de
estándares se conoce como modelo de referencia OSI (OSI quiere decir Interconexión
de Sistemas Abiertos). La especificación Ethernet realiza las mismas funciones que los
niveles físico y de enlace de datos de este modelo. Estas especificaciones afectan a
cómo se conecta el hardware y a cómo se intercambia la información. En la década de
los ochenta el IEEE publicó el Proyecto 802. Este proyecto generó estándares para el
diseño y compatibilidad de componentes hardware que operaban en los niveles físico
y de enlace de datos. El estándar que pertenecía a Ethernet es la especificación 802.3
de IEEE.
Características de Ethernet
Actualmente, Ethernet es la arquitectura de red más popular. Esta arquitectura de
banda base utiliza una topología en bus, normalmente transmite a 10 Mbps y utiliza
CSMA/CD para regular el segmento de cable principal.
El medio Ethernet es pasivo, lo que significa que no requiere una fuente de
alimentación, por lo que no fallará a no ser que el medio esté cortado físicamente o no
esté terminado correctamente.
Aspectos básicos de Ethernet
Características básicas de Ethernet
Topologías: Bus lineal o bus en estrella
Tipo de arquitectura: Banda base.
Método de acceso: CSMA/CD.
Especificación: IEEE 802.3.
Velocidad de transferencia: 10 Mbps ó 100 Mbs.
Tipo de cable: Grueso, fino, UTP y STP
El formato de trama de Ethernet
Ethernet divide los datos en paquetes en un formato que es diferente al de los
paquetes de otras redes: Ethernet divide los datos en tramas. Se pueden utilizar los
términos de «paquete» y «trama» de forma indistinta; en el contexto de Ethernet se
utiliza el término de «trama». Una trama es un paquete de información transmitido
como una unidad. Una trama Ethernet puede tener entre 64 y 1.518 bytes, pero la
propia trama Ethernet necesita utilizar al menos 18 bytes; así pues, el tamaño de los
datos de una trama Ethernet está entre 46 y 1.500 bytes. Cada trama contiene
información de control y tiene la misma estructura básica.
Por ejemplo, la trama Ethernet II, utilizada por el Protocolo de control de
transmisión/Protocolo Internet (TCP/IP), que se transmite a través de la red, consta de
las secciones que aparecen en la siguiente tabla (TCP/IP se ha convertido en el
estándar de hecho para la transmisión de datos en redes, incluyendo a Internet):
Componentes de una trama Ethernet II
Preámbulo: Indica el principio de la trama.
Destino y origen: Las direcciones de origen y destino.
Tipo: Se utiliza para identificar el protocolo del nivel de red,
normalmente, IP o IPX (Intercambio de paquetes entre redes de Novell).
Comprobación de redundancia cíclica (CRC): Campo de
comprobación de errores para determinar si la trama ha llegado sin errores.
Los estándares IEEE a 10 Mbps
Las redes Ethernet incluyen una variedad de alternativas de cableado y topologías.
Existen cuatro topologías Ethernet de 10 Mbps:
10BaseT.
10Base2.
10Base5.
10BaseFL.
10Broad36
Estándar 10BaseT
En 1990, el comité IEEE publicó la especificación 802.3 para Ethernet en par
trenzado. El resultado, 10BaseT (10 Mbps, Banda base sobre par trenzado), es una
red Ethernet que suele utilizar cable de par trenzado sin apantallar (UTP) para la
conexión de equipos. Normalmente 10BaseT suele utilizar UTP, pero también se
puede utilizar cable de par trenzado apantallado (STP) sin cambiar ninguno de los
parámetros de 10BaseT.
La mayoría de las redes de este tipo están configuradas en forma de estrella, pero
internamente utilizan un sistema de comunicación en bus como el de otras
configuraciones Ethernet. Normalmente, el hub de una red 10BaseT sirve como un
repetidor multipuerto y se suele situar en los armarios de conexiones del edificio. Cada
equipo está colocado en el extremo de un cable que está conectado al hub. Cada
equipo tiene dos pares de hilos; un par se utiliza para recibir datos y otro par se utiliza
para transmitir datos.
La longitud máxima de un segmento 10BaseT es 100 metros (328 pies). Se pueden
utilizar repetidores para aumentar esta limitación. La longitud mínima del cable entre
equipos es de 2,5 metros (unos 8 pies). Una LAN 10BaseT puede gestionar 1.024
equipos.
El cable UTP permite la transmisión de datos a 10 Mbps. Es fácil realizar cambios
cambiando un cable en el panel de conexiones. Un cambio en el panel de conexiones
no afectará a otros dispositivos de la red; esto difiere de una red con bus Ethernet
tradicional.
Los hubs más recientes permiten la conexión a tipos de cable Ethernet fino y
grueso. De esta forma, también es fácil convertir el cable Ethernet grueso a cable
10BaseT conectando un transceiver mini 10BaseT al puerto AUI de la tarjeta de red.
Resumen de las especificaciones de 10BaseT:
Cable: UTP Categoría 3, 4 ó 5.
Conectores: RJ-45 al final del cable.
Transceiver: Cada equipo necesita uno; algunas tarjetas lo tienen
incorporado.
Distancia del transceiver al hub: Máximo de 100 metros (328 pies).
Backbones para los hubs: Cable coaxial o de fibra óptica para unir
grandes redes locales o para cargar con el tráfico entre redes más pequeñas.
Número total de equipos por LAN sin componentes de
conectividad: 1024 por especificación.
Estándar 10Base2
Otra topología es 10Base2, y se da este nombre a la especificación 802.3 de IEEE
porque transmite a 10 Mbps en un hilo de banda base y puede llevar una señal hasta
casi el doble de 100 metros (la distancia actual es de 185 metros).
Este tipo de red utiliza cable coaxial fino, que tiene un segmento de red máximo de
185 metros (607 pies) y una longitud mínima de 0,5 metros entre estaciones. También
existe la limitación de hasta 30 equipos por segmento de 185 metros.
Entre los componentes del cableado con cable fino están:
Conectores BNC de barril.
Conectores BNC T.
Terminadores BNC.
El cableado con cable fino normalmente utiliza una topología de bus local. Los
estándares de IEEE para cable fino no permiten la utilización de un cable transceiver
del conector T del bus al equipo. En su lugar, se conecta directamente el conector T a
la NIC.
Se puede utilizar un conector BNC de barril para conectar los segmentos de cable
fino y poder extender la longitud del cable. Por ejemplo, si necesita una longitud de
cable para nueve metros de largo, pero sólo tiene uno de 7,5 metros y otro de 1,5
metros de cable fino, puede unir los dos segmentos de cable con un conector BNC de
barril. Sin embargo, la utilización de conectores de barril debe evitarse en la medida de
lo posible ya que cada conexión reduce la calidad de la señal y añade el riesgo de la
separación y desconexión.
Una red de cable fino es una forma económica de dar soporte a un departamento
pequeño o a un grupo de trabajo. El cable que se utiliza para este tipo de redes es:
Relativamente barato.
Fácil de instalar.
Fácil de configurar.
Una red de cable fino puede soportar hasta 30 nodos (equipos y repetidores) por
segmento de cable, como por la especificación 802.3.
La regla 5-4-3
Una red de cable fino puede combinar hasta cinco segmentos de cable conectados
por cuatro repetidores; pero sólo puede hacer tres segmentos con estaciones
conectadas. A los dos segmentos que no se pueden utilizar se les conoce como
«enlaces entre repetidores». Esto se conoce como la regla 5-4-3.
Debido a que los límites de Ethernet son demasiado estrictos para proyectos de
cierta envergadura, se pueden utilizar repetidores para unir segmentos Ethernet y
ampliar la longitud total de la red a 925 metros.
Resumen de las especificaciones 10Base2
Longitud máxima del segmento: 185 metros.
Conexión a la tarjeta de red: Conector BNC T.
Segmentos y repetidores: Se pueden unir cinco segmentos utilizando
cuatro repetidores.
Equipos por segmento: 30 equipos por segmento por especificación.
Segmentos que pueden tener equipos: Se pueden utilizar equipos en
tres de los cinco segmentos.
Longitud máxima total de la red: 925 metros.
Estándar 10Base5
La especificación de IEEE para esta topología es de 10 Mbps y segmentos de 500
metros (cinco veces 100 metros). También se denomina Ethernet estándar.
Esta topología hace uso del cable coaxial grueso. Normalmente, el cable grueso
utiliza una topología en bus y puede soportar hasta 100 nodos (estaciones, repetidores
y demás) por segmento backbone. El backbone, o segmento principal, es el cable
principal desde el que se conectan los cables de los transceivers a las estaciones y
repetidores. Las distancias y tolerancias para cable grueso son mayores que las de
cable fino: un segmento de cable grueso puede tener hasta 500 metros y una longitud
máxima de la red de 2.500 metros.
Entre los componentes de un cableado con cable grueso
se incluyen:
Transceivers. Se trata de dispositivos que
pueden enviar y recibir, proporcionar comunicación
entre el equipo y el cable principal de la LAN, y están
situados en las conexiones de los vampiros sobre el
cable.
Cables de transceiver. El cable que conecta
el transceiver a la NIC.
Conectores DIX (o AUI). Estos son los conectores del cable del
transceiver.
Conectores serie, incluyendo N conectores de barril y N terminales
serie. Los componentes del cable grueso funcionan de la misma forma que los
componentes del cable fino.
AUI son unas siglas que significan Interfaz de conexión de unidad y es un conector
de 15 pines (DB-15) que se suele utilizar para conectar una tarjeta de red a un cable
Ethernet.
La regla 5-4-3 para cable grueso
En una red Ethernet con cable grueso puede tener un máximo de cinco segmentos
backbone conectados utilizando repetidores (basados en la especificación IEEE
802.3), de los cuales sólo tres pueden tener equipos conectados. La longitud de los
cables de los transceivers no se utiliza para medir la distancia permitida por el cable
grueso; sólo se utiliza la propia longitud del cable grueso desde un extremo hasta el
otro.
Entre dos conexiones, la longitud mínima del segmento de cable es de 2,5 metros.
El cable grueso se diseñó para soportar un backbone para un departamento grande en
un edificio.
Resumen de las especificaciones 10base5
Longitud máxima del segmento: 500 metros.
Transceivers: Conectados al segmento (en la conexión).
Distancia máxima entre el equipo y el transceiver: 50 metros.
Distancia mínima entre transceivers: 2,5 metros.
Segmentos y repetidores: Se pueden unir cinco segmentos utilizando
cuatro repetidores.
Segmentos que pueden tener equipos: Se pueden conectar equipos
en tres de los cinco segmentos.
Longitud total máxima de los segmentos unidos: 2.500 metros.
Número máximo de equipos por segmento: 100 por especificación.
Combinación de cable grueso y cable fino
En redes de tamaño considerable es frecuente combinar cables Ethernet grueso y
fino. El cable grueso es bueno para backbones, mientras que el cable fino se suele
utilizar para segmentos secundarios o ramas. Esto significa que el cable grueso es el
cable que se suele utilizar para distancias largas. El cable grueso tiene un núcleo de
cobre más grueso y puede, por tanto, llevar señales a una distancia mayor que el
cable fino. El transceiver se conecta al cable grueso y el conector AUI del cable del
transceiver se conecta a un repetidor. Las ramas de cable fino se conectan al repetidor
y conectan los equipos a la red.
Estándar 10BaseFL
El comité de IEEE publicó una especificación para Ethernet en cable de fibra óptica
El resultado, 10 BaseFL (10 Mbps, banda base sobre cable de fibra óptica) es una red
Ethernet que suele utilizar cable de fibra óptica para conectar los equipos y los
repetidores.
La principal razón para utilizar 10BaseFL es para trabajar con cables largos entre
repetidores, como puede ser entre edificios.
Longitud máxima del segmento: 2.000 metros.
Número máximo de nodos por segmento: 2
Atenuación máxima: 3,75 dB/km para las transmisiones con una
longitud de onda de 850 nm; 1,5 dB/km para transmisiones en 1300 nm
Número máximo de segmentos: 1.024
Número máximo de segmentos con nodos: 1.024
Número máximo de concentradores (hub) encadenados: 4
Estándar 10Broad36
10Broad36 soporta un ratio de transmisión de 10 Mb/s y utiliza un cable de banda
ancha. 36 hace referencia a la distancia máxima en metros (3600) soportada entre dos
estaciones. El cable de banda ancha usado con 10Broad36 es el mismo cable coaxial
usado por el sistema de televisión por cable (CATV).
El sistema de cable de banda ancha soporta la transmisión de múltiples servicios
sobre un sólo cable dividiendo cada banda por frecuencias separadas, asignando cada
frecuencia a un servicio. Esta es la técnica es la utilizada en el sistema de transmisión
de TV por cable donde cada canal usa una frecuencia distinta. Esta capacidad es la
que permite a 10Broad36 compartir el cable con otro tipo de servicio como el vídeo.
Otra de las ventajas de 10Broad36 es que soporta distancias de transmisión de la
señal mayores que otro tipo de señales de banda base sobre cable coaxial como
10Base5 y 10Base2. Un sólo segmento de 10Broad36 puede tener 1800 m. de
longitud. Todas las redes basadas en 10Broad36 tienen que tener un terminador (head
end). El terminador puede estar al final de de un único segmento o al principio de
múltiples segmentos. Si unimos varios segmentos podemos alcanzar una distancia
total de 3600 m.
10Broad36 conecta las estaciones de trabajo al cable central a través de conectores
AUI y la distancia máxima al Back-Bone es de 50 m. por lo que técnicamente es
posible obtener una distancia máxima de 3700 m..
El sistema de transmisión en banda ancha se diferencia del sistema de transmisión
en banda base en el flujo de transmisión de la señal. La señal en banda ancha viaja en
un sólo sentido, el flujo es unidireccional, al contrario que en banda base que es
bidireccional. Para que las señales alcancen todos los dispositivos en la red, debe
haber dos caminos para el flujo de los datos. Esto puede lograrse a través de un solo
"cable" o de una configuración de "cable dual".
En la configuración de un sólo cable, la transmisión se produce sobre
dos canales, cada uno con un rango de frecuencia distinto. Un canal se utiliza
para transmitir la señal y otro para recibirla. Cuando la señal se transmite viaja
hasta el terminador. El terminador incluye un conversor de frecuencia que
cambia la frecuencia de la señal y la re-transmite en la dirección opuesta a lo
largo del mismo cable. La señal se recibe entonces por todos los dispositivos
en el cable.
En una configuración de cable dual, cada estación se conecta a dos
cables, uno de ellos se utiliza para transmitir y la señal llega hasta el
terminador por donde continua hasta el otro cable sin cambiar la frecuencia,. La
señal puede recibirse por todos los dispositivos a través de este segundo
cable.
Cuando se introdujo 10Broad36 ofrecía la ventaja de soportar una mayor longitud de
segmentos que 10Base5 y 10Base2. Pero esta ventaja disminuyó con la introducción
de la fibra FOIRL y del estándar 10Base-F, ya que 10Broad36 no soporta el sistema
de trabajo Full-duplex.
Características de 10Broad36:
Ratio de transmisión: 10 Mb/s (no soporta full-duplex)
Tipo de cable: coaxial 75 Ohmios (Cable banda ancha CATV)
Longitud máxima del segmento: 1.800 metros.
Longitud máxima de múltiples segmentos: 3.600 m.
Sistema de señal: Frecuencia modulada (RF)
Los estándares IEEE a 100 Mbps
En la actualidad los estándares IEEE a 10 Mbps se están viendo rápidamente
reemplazados por los estándares IEEE a 100 Mbps, que incluyen la posibilidad de
atender a aplicaciones que requieren un ancho de banda elevado como:
Diseño asistido por equipo (CAD).
Fabricación asistida por equipo (CAM).
Vídeo.
Almacenamiento de imágenes y documentos.
Dos estándares Ethernet que se ajustan a estas nuevas demandas son:
Ethernet 100BaseVG-AnyLAN.
Ethernet 100BaseX (Fast Ethernet).
Tanto Ethernet 100BaseVG-AnyLAN como Fast Ethernet son entre 5 y 10 veces
más rápidos que las Ethernet estándar. Además, son bastante compatibles con el
cableado de 10Base T. Esto significa permitir actualizaciones plug and play a
instalaciones 10BaseT existentes.
Estándar 100VG-AnyLAN
El 100VG (calidad de voz) AnyLAN es una tecnología de red emergente que
combina elementos de las arquitecturas Ethernet y Token Ring. Originalmente fue
desarrollada por Hewlett-Packard, y ahora está siendo refinada y comprobada por el
comité 802.12 de la IEEE. La especificación 802.12 es un estándar para la transmisión
de tramas Ethernet 802.3 y paquetes Token Ring 802.5.
A esta tecnología se la conoce con cualquiera de los nombres siguientes y todos se
refieren al mismo tipo de red:
100VG-AnyLAN.
100Base VG.
VG.
AnyLAN.
Especificaciones
Algunas de las especificaciones actuales de la 100VG-AnyLAN incluyen:
Una tasa mínima de 100 Mbps.
La posibilidad de soportar topologías en estrella en cascada con cables
de par trenzado de Categoría 3, 4 y 5 y con fibra óptica.
El método de acceso de prioridad de demandas que permita dos niveles
de prioridad (alta y baja).
La posibilidad de permitir una opción de filtrado de tramas en hub para
aumentar la privacidad.
Soporte para tramas Ethernet y paquetes Token Ring.
Topología
Una red 100VG-AnyLAN está construida en una topología en estrella en la que
todos los equipos están conectados a un hub y estos a un hub padre o central. Si
añadimos hubs hijo al hub central podemos ampliar la red. Los hubs hijo actúan como
equipos para los hubs padre. Los hubs padre controlan la transmisión de los equipos
conectados a sus hijos.
Consideraciones
Esta topología requiere sus propios hubs y sus propias tarjetas. Además, las
longitudes de los cables 100BaseVG están limitadas respecto a 10BaseVG y otras
implementaciones de Ethernet. La longitud máxima de cable desde el hub 100BaseVG
a un equipo no puede superar los 250 metros (unos 820 pies). Si queremos aumentar
este límite necesitamos un equipamiento especial que se utiliza para aumentar el
tamaño de una LAN. Estos límites de longitud de cable se traducen en que
100BaseVG necesita más armarios de conexiones que 10BaseVG.
Estándar Ethernet 100BaseX
Este estándar, a veces denominado Fast Ethernet, es una extensión del estándar
Ethernet existente. Utiliza cable UTP de Categoría 5 y utiliza CSMA/CD en una
topología de bus en estrella, similar a 10BaseT, donde todos los cables están
conectados a un hub.
Especificaciones del medio
100BaseX incorpora tres especificaciones para el medio:
100BaseT4 (UTP de Categoría 3, 4, o 5 de 4 pares).
100BaseTX (UTP de Categoría 5 de 2 pares o STP).
100BaseFX (cable de fibra óptica de dos hilos).
Especificaciones del medio 100BaseX
Valor Representa Significado actual
100 Velocidad de 100 Mbps.
transmisión
Base Tipo de señal Banda base.
T4 Tipo de cable Indica que se trata de cable de
par trenzado utilizando cuatro
pares de los utilizados en
transmisión telefónica.
TX Tipo de cable Indica que se trata de cable de
par trenzado utilizando dos pares
de los utilizados en transmisión
de datos.
FX Tipo de cable Indica que se trata de un
enlace de fibra óptica que utiliza
un cable de fibra óptica de dos
hilos de fibra.
Consideraciones de rendimiento
La arquitectura Ethernet puede utilizar varios protocolos de comunicación y puede
conectar entornos de computación diversos como NetWare, UNIX, Windows y
Macintosh.
Segmentación
Se puede aumentar el rendimiento de Ethernet dividiendo un segmento con muchas
conexiones en dos segmentos con menos conexiones y uniéndolos con un bridge o
con un router. Esto reduce el tráfico en cada segmento. Debido a que en cada
segmento hay menos equipos intentando transmitir, aumenta el rendimiento.
Considere la división en segmentos si aumenta el número de equipos conectados a
la red o si hay nuevas aplicaciones que demandan un ancho de banda elevado, como
son los programas de bases de datos o de vídeo.
Sistemas operativos de red en Ethernet
Ethernet trabaja con los sistemas operativos de red más populares:
Microsoft Windows 95, Windows 98 y Windows ME.
Microsoft Windows NT Workstation y Windows NT Server.
Microsoft Windows 2000 Professional y Windows 2000 Server.
Microsoft LAN Manager.
Microsoft Windows para trabajo en grupo.
Novell NetWare.
IBM LAN Server.
AppleShare.
UNIX.
Especificaciones Ethernet (IEEE 802.3)
10Base2 10Base5 10BaseT
Topología Bus Bus Bus en
estrella.
Tipo de RG-58 (Cable Cable grueso; Cable de par
cable coaxial fino) cable del trenzado sin
transceiver apantallar de
apantallado de Categoría 3, 4 o
un centímetro 5.
(3/8 pulgada)
Conexión a Conector Conector DIX RJ-45.
la NIC BNC T o AUI
Resistencia 50 50 No se aplica
del terminador,
Ώ (ohmios)
Impedancia, 50± 2 50± 2 85-115 en par
Ώ trenzado sin
apantallar; 135-
165 en par
trenzado
apantallado.
Distancia 0.5 metros 2,5 metros (8 100 metros
entre equipos pies) entre (328 pies) entre
(23 pulgadas) conexiones y un el transceiver (el
máximo de 50 equipo) y el hub.
metros (164
pies) entre la
conexión y el
equipo
Longitud 185 metros 500 metros 100 metros
máxima de un (607 pies) (1.640 pies) (328 pies).
segmento de
cable
Número 5 (utilizando 4 5 (utilizando 4 No se aplica.
máximo de repetidores); repetidores) ;
segmentos sólo puede sólo puede
conectados haber 3 haber 3
segmentos con segmentos con
equipos equipos
conectados conectados
Longitud 925 metros 2.460 metros No se aplica.
total máxima (3.035 pies) (8.000 pies)
de la red
Número 30 (En la red 100 1 (Cada
máximo de puede llegar a estación tiene
equipos por haber un su propio cable
segmento máximo de al hub. Puede
1.024 equipos) haber hasta 12
equipos por hub
y un máximo de
1.024
transceivers por
LAN sin ningún
tipo de
conectividad).
Token Ring
La arquitectura Token Ring fue desarrollada a mediados de los ochenta por IBM. Es
el método preferido de IBM y es el que se suele encontrar en instalaciones de minis y
mainframes. Aunque la popularidad en el mercado ha descendido en favor de
Ethernet, sigue jugando un papel importante en el mercado de las redes.
Introducción
La versión de Token Ring de IBM se introdujo en 1984 en todo el entorno de IBM
incluyendo:
Equipos personales.
Equipos de tamaño medio.
Mainframes y en el entorno de Arquitectura de sistemas en red (SNA).
SNA es la arquitectura de red de IBM.
El objetivo de la versión de Token Ring de IBM era facilitar una estructura de
cableado sencilla utilizando cable de par trenzado que conectase un equipo a la red
mediante un enchufe de pared, y en el que el cableado principal se encontrase
localizado en un lugar centralizado.
En 1985, la Token Ring de IBM se convirtió en un estándar del Instituto de
estandarización nacional americano (ANSI)/IEEE. (ANSI es una organización que se
creó en Estados Unidos en 1918 para el desarrollo y adopción de estándares
comerciales y de comunicación; ANSI es el equivalente americano del ISO.)
Características de Token Ring
Una red Token Ring es una implementación del estándar IEEE 802.5. Sus métodos
de acceso de paso de testigo a través del anillo, además de su cableado físico,
permite distinguir unas redes Token Ring de otras.
Arquitectura
La arquitectura de una red Token Ring típica comienza con un anillo físico. Sin
embargo, en su implementación de IBM, un anillo cableado en estrella, los equipos de
la red se conectan a un hub central. El anillo lógico representa el sentido de circulación
para los testigos entre equipos. El anillo de cable físico actual está en el hub. Los
usuarios son parte de un anillo, pero se conectan a él a través de un hub.
Características básicas de Token Ring
Una red Token Ring incluye estas características:
Topología del cableado del anillo en estrella.
Método de acceso de paso de testigo.
Cableado de par trenzado
apantallado y sin apantallar (Tipos 1, 2
y 3 de IBM).
Velocidades de transferencia
entre 4 y 16 Mbps.
Transmisión banda base.
Especificaciones 802.5.
Formatos de trama
El formato básico de la trama de datos de Token Ring consta de cabecera, datos y
final. El campo de datos suele formar la mayor parte de la trama.
Componentes de una trama de datos de Token Ring
Delimitador de inicio: Indica el inicio de la trama.
Control de acceso: Indica la prioridad de la trama y se trata de un
testigo o de una trama de datos.
Control de trama: Contiene información sobre el Control de acceso al
medio para todos los equipos o información de «estación final» para un solo
equipo.
Dirección de destino: Indica la dirección del equipo que recibe la
trama.
Dirección de origen: Indica el equipo que envió la trama.
Información o datos: Contiene los datos enviados.
Secuencia de control de la trama: Contiene información de
comprobación de errores CRC.
Delimitador de fin: Indica el final de la
trama.
Estado de la trama: Indica si la trama
fue reconocida, copiada, o si la dirección de
destino estaba disponible.
Funcionamiento de una red Token Ring
Cuando el primer equipo de Token Ring entra en
línea, la red genera un testigo. El anillo es una
formación de bits predeterminada (una serie de datos)
que permite a un equipo colocar datos en los cables. El
testigo viaja a través de la red preguntando a cada
equipo hasta que un equipo indica que quiere transmitir
datos y se apodera del testigo y ningún equipo puede
transmitir hasta que no tome el control del testigo.
Una vez que una equipo se apodera del token, envía
una trama de datos a través de la red. La trama viaja por la red hasta que alcanza el
equipo con una dirección que coincida con la dirección de destino de la trama. El
equipo de destino copia la trama en su búfer de recepción y marca la trama en el
campo de estado de la trama para indicar que se ha recibido la información.
La trama continúa por el anillo hasta que llegue al equipo que la envió, de forma que
se valida la transmisión. A continuación, el equipo que envía retira la trama del anillo y
transmite un testigo nuevo a éste.
En la red sólo puede haber un testigo activo y el testigo puede viajar sólo en una
dirección del anillo.
¿Circula el testigo en el sentido de las agujas del reloj o en sentido contrario?
Realmente, la respuesta no importa. La dirección depende de las conexiones del
hardware. Se puede hacer que el testigo viaje en el orden que desee. Los diseñadores
de los hubs determinan el orden en que direcciona cada puerto y usted puede
determinar el orden en que se conectan los equipos al hub. El estándar IEEE 802.5
dice que es en el sentido de las agujas del reloj, y la sección 3 de la publicación SC30-
3374 de IBM dice que es en el sentido contrario de las agujas del reloj.
El paso de testigos es determinante, lo que significa que un equipo no puede
imponer su turno en la red, tal y como ocurre en un entorno CSMA/CD. Si el testigo
está disponible, el equipo puede utilizarlo para enviar datos. Cada equipo actúa como
un repetidor unidireccional, regenera el testigo y lo continúa pasando.
Control del sistema
El primer equipo que se active queda designado por el sistema Token Ring para
controlar la actividad de la red. El equipo encargado del control asegura que las
tramas se están entregando y recibiendo correctamente. Esto se realiza comprobando
las tramas que circulan por el anillo más de una vez y asegura que sólo hay un testigo
en la red.
El proceso de monitorización se denomina de baliza (beaconing). El equipo
encargado del control envía una baliza cada siete segundos. La baliza pasa de equipo
en equipo por todo el anillo. Si un equipo no recibe la baliza de su vecino, notifica a la
red su falta de conexión. Envía un mensaje que contiene su dirección y la dirección del
vecino que no le ha enviado la baliza y el tipo de baliza. A partir de esta información,
se intenta diagnosticar el problema y tratar de repararlo sin dividir la red. Si no se
puede realizar la reconfiguración de forma automática es necesaria la intervención
manual.
Reconocimiento de un equipo
Cuando un equipo de la red entra en línea, el sistema Token Ring lo inicializa de
forma que pueda formar parte del anillo. Esta inicialización incluye:
Comprobación de direcciones duplicadas.
Notificación a otros equipos de la red de su existencia.
Componentes hardware
El hardware para redes Token Ring está basado en el hub, que es el que forma el
anillo. Una red Token Ring puede tener varios hubs. El cableado que se utiliza para
conectar los equipos a los hubs es STP o UTP; para extender las conexiones se
pueden utilizar cables adaptadores. El cable de fibra óptica es especialmente
apropiado para redes Token Ring. Junto con los repetidores, el cable de fibra óptica
puede extender enormemente el rango de las redes Token Ring. El cableado para
componentes se realiza con cuatro tipos de conectores. Otro tipo de hardware para
Token Ring incluye a los filtros, paneles de conexiones y tarjetas de red.
El hub
En una red Token Ring, el hub es conocido con varios nombres y todos con el
mismo significado. Entre estos están:
MAU (Unidad de acceso multiestación).
MSAU (Unidad de acceso multiestación).
SMAU (Unidad de acceso multiestación inteligente).
Los cables conectan los clientes y los servidores a la MSAU, que funciona como
otros hubs pasivos. El anillo interno se convierte automáticamente en un anillo externo
por cada conexión que se realice.
Capacidad del hub
Una MSAU IBM tiene 10 puertos de conexión. Puede conectar hasta 8 equipos. En
cambio, una red Token Ring no está limitada a un anillo (hub). Cada anillo puede tener
hasta 33 hubs.
Cada red basada en MSAU puede soportar hasta 72 equipos que utilicen cable sin
apantallar o hasta 260 equipos que utilicen cable apantallado.
Otros fabricantes ofrecen hubs con más capacidad; la capacidad depende del
fabricante y del modelo de hub.
Cuando se llena un Token Ring, es decir, cuando cada puerto de la MSAU tiene una
equipo conectada, podemos añadir otro anillo (MSAU) para ampliar la red.
La única regla que hay que seguir es que cada MSAU tiene que estar conectada de
forma que se convierta en parte del anillo. Los puntos de conexión de entrada y de
salida utilizan cables adaptadores para conectar varias MSAU de forma que sigan
formando un anillo.
Tolerancia a fallos incorporada
En una red con paso de testigo pura, un equipo que falle detiene la continuación del
testigo. De hecho, esto detiene la red. Las MSAU se diseñaron para detectar la
ocurrencia de fallos de una NIC. Este procedimiento salta el equipo que falla de forma
que el testigo pueda continuar.
En las MSAU de IBM, las conexiones o los equipos que no funcionen correctamente
se saltan automáticamente y se desconectan del anillo. Así pues, un fallo en un equipo
o en una conexión no afectará al resto de la red Token Ring.
Cableado
El cable STP o UTP conecta los equipos con los hubs en una red Token Ring. El
cableado para Token Ring es IBM del Tipo 1, 2 y 3. La mayoría de las redes utilizan
cableado UTP de Tipo 3 del sistema de cableado IBM.
El cable conexión entre el equipo y la MSAU no puede tener más de 101 metros
(330 pies) si es del Tipo 1. Cuando se utiliza cable STP, el equipo puede llegar a estar
a una distancia máxima de 100 metros (unos 328 pies) de la MSAU. En cambio esta
distancia es de 45 metros (unos 148 pies) cuando se utilice cable UTP. La longitud
mínima para cable con o sin apantallar es de 2,5 metros (unos 8 pies).
De acuerdo con IBM, la longitud máxima del cable de Tipo 3 desde una MSAU hasta
un equipo o un servidor de archivos es de 46 metros (150 pies). Sin embargo, algunos
fabricantes afirman que la transmisión de datos entre MSAU y equipo es fiable hasta
152 metros (500 pies).
La longitud máxima entre una MSAU y otra está limitada a 152 metros (500 pies).
Cada red Token Ring sólo puede acomodar a 260 equipos con cable STP y 72
equipos con UTP.
Cables de conexión (patch cables)
Los cables de conexión (patch cables) realizan la conexión entre un equipo y una
MSAU. También pueden unir dos MSAU. En el sistema de cableado de IBM, estos
cables son del Tipo 6, y sólo pueden llegar a medir 46 metros (150 pies). Un cable de
conexión sólo permite 46 metros entre un equipo y una MSAU.
El sistema de cableado de IBM también recomienda el cable de conexión de Tipo 6
para:
Incrementar la longitud de cables de Tipo 3.
Conectar directamente los equipos a las MSAU.
Conectores
Las redes Token Ring suelen utilizar estos tipos de conectores para conectar los
cables a los componentes:
Conectores de medios (MIC) para conectar cables de Tipo 1 y de Tipo
2. Éstos son los conectores de Tipo A de IBM, conocidos universalmente como
conectores de datos universales. No son ni macho ni hembra; para conectar
uno a otro basta con girarlo.
Conectores de teléfono RJ-45 (8 pines) para cable de Tipo 3.
Conectores de teléfono RJ-11 (4 pines) para cable de Tipo 3.
Filtros para realizar la conexión entre una NIC Token Ring y un conector
de teléfono estándar RJ-11/RJ-45.
Filtros
Los filtros son necesarios en equipos que utilizan cable telefónico de par trenzado
de Tipo 3, ya que tienen que convertir los conectores del cable y reducen el ruido de la
línea.
Paneles de conexiones (patch panel)
Una panel de conexión (patch panel) se utiliza para organizar los cables que hay
entre una MSAU y un módulo de conexiones telefónicas. (Un módulo de conexiones
es un tipo de hardware que proporciona conexiones terminales para conectar los
extremos del cable de red.)
Repetidores
La utilización de repetidores puede aumentar las distancias de los cables Token
Ring. Un repetidor vuelve a generar y a temporizar la señal Token Ring para aumentar
las distancias entre MSAU en la red. Si utiliza un par de repetidores, puede llegar a
separar las MSAU hasta 365 metros (1.200 pies) si utiliza cable de Tipo 3, o 730
metros (2.400 pies) si utiliza cable de Tipo 1 o de Tipo 2.
Tarjetas de red
Las tarjetas de red para Token Ring están disponibles en los modelos 4 Mbps y 16
Mbps. Las tarjetas de 16 Mbps permiten una trama de mayor longitud que realiza
menos transmisiones para la misma cantidad de datos.
La implementación de tarjetas para Token Ring necesita una atención especial, ya
que una red Token Ring sólo puede funcionar a dos velocidades: 4 Mbps o 16 Mpbs.
Si la red es una red a 4 Mbps, puede utilizar las tarjetas de 16 Mbps ya que pueden
trabajar en el modo de 4 Mbps. Sin embargo, una red a 16 Mbps no aceptará las
tarjetas de 4 Mbps, ya que no pueden aumentar su velocidad.
Aunque hay varios fabricantes que fabrican NIC y componentes para Token Ring, la
mayoría son vendidas por IBM.
Cable de fibra óptica
Debido a la mezcla de las series de datos (las series son un flujo de datos byte a
byte), a las altas velocidades y a la transmisión de datos en una única dirección, las
redes Token Ring son muy apropiadas para utilizar cable de fibra óptica. Aunque es
más caro, el cable de fibra óptica puede aumentar enormemente el rango de una red
Token Ring (hasta 10 veces de lo que permite el cable de cobre).
El futuro de las redes Token Ring
Aunque Ethernet es más popular, la tecnología Token Ring sigue activa y continúa
creciendo. Muchas grandes compañías están eligiendo Token Ring para aplicaciones
de misión crítica. Estas redes son redes conectadas con bridges que permiten
protocolos como la Arquitectura de sistemas en red (SNA), NetBIOS, Protocolo de
control de transmisión/Protocolo Internet (TCP/IP) e IPX. Las aplicaciones basadas en
redes locales como correo electrónico, distribución de software e imágenes influyen en
su crecimiento. Una vez conocidas las necesidades de ampliación de una compañía
basta con añadir nuevos anillos unidos con bridges. Normalmente cada anillo permite
entre 50 y 80 usuarios. Los usuarios actuales de Token Ring se enfrentan a estos
desafíos:
Requerimientos de complejidad, manejabilidad, costes y espacio para
varios bridges de dos puertos.
Congestión de los bridges.
Congestión de los segmentos.
Actualización a las tecnologías de alta velocidad.
Un concepto reciente y relativamente nuevo para las redes Token Ring es el de la
utilización de switches para proporcionar alternativas de alto rendimiento y de bajo
coste utilizando bridges y routers. La idea de los switches es mover un dispositivo de
una Token Ring a otra de forma electrónica. Estos conmutadores funcionan como los
de un panel de conexiones. Los vendedores de hubs ofrecen una variedad de estos
nuevos conmutadores para Token Ring.
Especificaciones para Token Ring
Topología: Anillo.
Tipo de cable: Cable de par trenzado apantallado o sin apantallar.
Resistencia del terminador, Ώ (ohmios): No se aplica.
Impedancia (Ώ): 100-120 UTP, 150 STP.
Longitud máxima del segmento de cable: Entre 45 y 400 metros,
dependiendo del cable.
Distancia mínima entre equipos: 2,5 metros.
Número máximo de segmentos conectados: 33 unidades de acceso
multiestación (MSAU).
Número máximo de equipos por segmento:
Sin apantallar: 72 equipos por hub;
Apantallado: 260 equipos por hub.
AppleTalk y ArcNet
La arquitectura AppleTalk se utiliza en el entorno de Apple Macintosh, mientras que
la arquitectura ArcNet se utiliza en entornos basados en equipos personales. Con la
llegada de Ethernet, la popularidad de ArcNet descendió.
El entorno AppleTalk
Apple Computer, Inc. introdujo AppleTalk en 1983 como una arquitectura de red
para grupos pequeños. Las funciones de la red están incorporadas en los equipos
Macintosh, lo que hace de la configuración de una red Apple Talk una tarea muy
sencilla respecto a las otras redes.
Los términos básicos que se utilizan en entorno de Apple pueden llegar a
confundirse porque suenan de forma similar a los términos que se utilizan en otros
entornos, pero se refieren a otros aspectos de una red Apple.
AppleTalk
AppleTalk es la arquitectura de red de Apple y está incluida en el software del
sistema operativo de Macintosh. Esto quiere decir, que las capacidades de la red
están incluidas en cada Macintosh. AppleTalk Phase 1 está anticuada. AppleTalk
Phase 2 es la versión actual de AppleTalk. La arquitectura es una colección de
protocolos que se corresponden con el modelo de referencia OSI.
Cuando un dispositivo conectado a una red Apple Talk entra en línea, ocurren tres
cosas en este orden:
1. El dispositivo comprueba si hay guardada una dirección de una sesión
de red anterior. Si no es así, el dispositivo se asigna una dirección aleatoria
entre un rango de direcciones permitidas.
2. El dispositivo informa de la dirección para comprobar si hay otro
dispositivo utilizándola.
3. Si no hay otro dispositivo utilizando la dirección, el dispositivo guarda la
dirección para utilizarla la próxima vez en la que el dispositivo entre en línea.
LocalTalk
A las redes Apple Talk se las suele denominar como redes LocalTalk. LocalTalk
utiliza CSMA/CD como método de acceso en un bus o en una topología de árbol con
cable de par trenzado apantallado, aunque también acepta cable de fibra óptica y
UTP, LocalTalk no es caro, ya que está incorporado en el hardware de Macintosh.
Pero debido a su modesto rendimiento (la tasa máxima de LocalTalk es 230,4 Kbps) y
debido a que las NIC de LocalTalk para PC son obsoletas, LocalTalk no está tan
difundido como Ethernet o Token Ring.
LocalTalk también hace referencia a los componentes del cableado físico, así como
al protocolo de nivel de enlace de datos. Entre ellos se incluyen:
Cables.
Módulos conectores.
Cables alargadores.
El cable más utilizado es el STP y se suele utilizar en bus o en estrella. Una red
LocalTalk permite hasta un máximo de 32 dispositivos.
Debido a las limitaciones de LocalTalk, otros fabricantes prefieren otros cableados.
Por ejemplo, Farallon PhoneNet puede gestionar 254 dispositivos. PhoneNet utiliza
cable y conectores telefónicos y se puede implementar como una red en bus o
conectado a un hub central para formar una topología en estrella.
AppleShare
AppleShare es el servidor de archivos en una red AppleTalk. El software del cliente
se incluye con cada copia del sistema operativo de Apple. También hay un servidor de
impresión AppleShare, que está basado en un gestor de impresión basado en
servidor.
Zonas
Las redes LocalTalk se pueden unir en una red más grande utilizando agrupaciones
lógicas denominadas zonas. Cada subred conectada está identificada por un nombre
de zona. Los usuarios en una red LocalTalk pueden acceder a los servicios en otra red
seleccionando dicha zona. Esto es de utilidad para acceder a servidores de archivos
en varias redes pequeñas, de forma que se amplíe el tamaño de la red. Las redes que
utilicen otras arquitecturas, como Token Ring, también se pueden unir de esta forma a
una red AppleTalk.
De la misma forma, los grupos de trabajo de una red LocalTalk se pueden dividir en
zonas para aliviar la congestión de una red saturada. Por ejemplo, cada zona tendría
su propio servidor de impresión.
EtherTalk
EtherTalk permite que los protocolos de red AppleTalk funcionen en cable coaxial
Ethernet.
La tarjeta EtherTalk permite a un equipo Macintosh conectarse a una red Ethernet
802.3. El software de EtherTalk se incluye con la tarjeta y es compatible con AppleTalk
Phase 2.
TokenTalk
La tarjeta TokenTalk es una tarjeta de expansión que permite conectar un Macintosh
a una red Token Ring 802.5. El software de Token Talk se incluye con la tarjeta y es
compatible con Apple Talk Phase 2.
Consideraciones sobre AppleTalk
Los equipos de otras marcas también pueden utilizar AppleTalk. Entre ellas se
incluyen:
Equipos personales IBM y compatibles.
Mainframes IBM.
Equipos VAX de Digital Equipment Corporation.
Algunos equipos UNIX.
El entorno ArcNet
Datapoint Corporation desarrolló la Attached Resource Computer Network (ArcNet)
en 1977. Se trata de una arquitectura de red sencilla, barata y flexible desarrollada
para redes del tamaño de un grupo de trabajo. Las primeras tarjetas ArcNet se
vendieron en 1983.
La tecnología ArcNet es anterior a los estándares del Proyecto 802 de IEEE y no se
ajusta demasiado al documento 802.4. Éste especifica los estándares para redes en
bus con paso de testigo utilizando cable de banda ancha. Una red ArcNet puede tener
una topología en bus o en estrella.
Funcionamiento de ArcNet
ArcNet utiliza un método de acceso de paso de testigo en una topología de bus en
estrella con una tasa de transmisión de 2,5 Mbps. ArcNet Plus, una sucesora de la
ArcNet original, permite una tasa de transmisión de 20 Mbps.
Debido a que ArcNet es una arquitectura de paso de testigo, para que un equipo en
una red ArcNet pueda transmitir datos tiene que tener el testigo. El testigo se mueve
de un equipo a otro de acuerdo con el orden en que estén conectados en el hub,
independientemente de cómo estén situados físicamente. Esto significa que el testigo
se mueve en orden del equipo 1 al equipo 2 (en las conexiones del hub), aunque el
equipo 1 esté en un extremo del edificio y el equipo esté en el otro extremo del edificio.
El paquete ArcNet estándar contiene:
Una dirección de destino
Una dirección de origen
Hasta 508 bytes de datos (o 4.096 bytes de datos en ArcNet Plus).
Hardware
Cada equipo está conectado por cable a un hub. Los hubs pueden ser pasivos,
activos o inteligentes.
El cableado estándar utilizado para ArcNet es cable coaxial de 93 ohmios RG-62
A/U. ArcNet también permite par trenzado y fibra óptica. Las distancias entre equipos
varían en función del cableado y de la topología.
Si se utiliza cable coaxial con conectores BNC y hubs activos para una topología en
estrella, la longitud máxima de un cable entre una estación y el hub es de 610 metros
(2.000 pies). En cambio, en un segmento de bus lineal, la distancia máxima es de 305
metros (1.000 pies).
Cuando se utiliza cable de par trenzado sin apantallar con conectores RJ-11 o RJ-
45, la longitud máxima del cable entre dispositivos es de 244 metros (800 pies) en
topologías en estrella y en bus.
Especificaciones de ArcNet
Topología: Serie o estrella.
Tipo de cable: RG-62 o RG-59 (coaxial).
Resistencia del terminador, Ώ (ohmios): No se aplica.
Impedancia, Ώ: RG-62: 93; RG-59: 75.
Longitud máxima del cable con cable coaxial, topología en estrella:
610 metros (2.000 pies).
Longitud máxima del cable con cable coaxial, topología en bus:
305 metros (1.000 pies).
Longitud máxima del cable con cable de par trenzado: 244 metros
(800 pies).
Distancia mínima entre equipos: Depende del cable.
Número máximo de segmentos conectados: No se permite la
conexión de segmentos.
Número máximo de equipos por segmento: Depende del cable
utilizado.
Introducción a los Sistemas Operativos de Red
Al igual que un equipo no puede trabajar sin un sistema operativo, una red de
equipos no puede funcionar sin un sistema operativo de red. Si no se dispone de
ningún sistema operativo de red, los equipos no pueden compartir recursos y los
usuarios no pueden utilizar estos recursos.
Dependiendo del fabricante del sistema operativo de red, tenemos que el software
de red para un equipo personal se puede añadir al propio sistema operativo del equipo
o integrarse con él.
NetWare de Novell es el ejemplo más familiar y famoso de sistema operativo de red
donde el software de red del equipo cliente se incorpora en el sistema operativo del
equipo. El equipo personal necesita ambos sistema operativos para gestionar
conjuntamente las funciones de red y las funciones individuales.
El software del sistema operativo de red se integra en un número importante de
sistemas operativos conocidos, incluyendo Windows 2000 Server/Professional,
Windows NT Server/Workstation, Windows 95/98/ME y Apple Talk.
Cada configuración (sistemas operativos de red y del equipo separados, o sistema
operativo combinando las funciones de ambos) tiene sus ventajas e inconvenientes.
Por tanto, nuestro trabajo como especialistas en redes es determinar la configuración
que mejor se adapte a las necesidades de nuestra red.
Coordinación del software y del hardware
El sistema operativo de un equipo coordina la interacción entre el equipo y los
programas (o aplicaciones) que está ejecutando. Controla la asignación y utilización de
los recursos hardware tales como:
Memoria.
Tiempo de CPU.
Espacio de disco.
Dispositivos periféricos.
En un entorno de red, los servidores proporcionan recursos a los clientes de la red y
el software de red del cliente permite que estos recursos estén disponibles para los
equipos clientes. La red y el sistema operativo del cliente están coordinados de forma
que todos los elementos de la red funcionen correctamente.
Multitarea
Un sistema operativo multitarea, como su nombre indica, proporciona el medio que
permite a un equipo procesar más de una tarea a la vez. Un sistema operativo
multitarea real puede ejecutar tantas tareas como procesadores tenga. Si el número
de tareas es superior al número de procesadores, el equipo debe ordenar los
procesadores disponibles para dedicar una cierta cantidad de tiempo a cada tarea,
alternándolos hasta que se completen las citadas tareas. Con este sistema, el equipo
parece que está trabajando sobre varias tareas a la vez.
Existen dos métodos básicos de multitarea:
Con prioridad. En una multitarea con prioridad, el sistema operativo
puede tomar el control del procesador sin la cooperación de la propia tarea.
Sin prioridad (cooperativo). En una multitarea sin prioridad, la propia
tarea decide cuándo deja el procesador. Los programa escritos para sistemas
de multitarea sin prioridad deben incluir algún tipo de previsión que permita
ejercer el control del procesador. No se puede ejecutar ningún otro programa
hasta que el programa sin prioridad haya abandonado el control del
procesador.
El sistema multitarea con prioridad puede proporcionar ciertas ventajas dada la
interacción entre el sistema operativo individual y el Sistema Operativo de Red
(sistema operativo de red). Por ejemplo, cuando la situación lo requiera, el sistema con
prioridad puede conmutar la actividad de la CPU de una tarea local a una tarea de red.
Componentes software
El software cliente de red debe instalarse sobre el sistema operativo existente, en
aquellos sistemas operativos de equipo que no incluyan funciones propias de red.
Otros sistemas operativos, como Windows NT/2000, integran el sistema operativo de
red y sistema operativo del equipo. A pesar de que estos sistema integrados tienen
algunas ventajas, no evitan la utilización de otros Sistema Operativo de Red. Es
importante considerar la propiedad de interoperabilidad cuando se configuran entornos
de red multiplataforma. Se dice que los elementos o componentes de los sistemas
operativos «interoperan» cuando pueden funcionar en diferentes entornos de trabajo.
Por ejemplo, un servidor NetWare puede interoperar (es decir, acceder a los recursos)
con servidores NetWare y servidores Windows NT/2000.
Un sistema operativo de red:
Conecta todos los equipos y periféricos.
Coordina las funciones de todos los periféricos y equipos.
Proporciona seguridad controlando el acceso a los datos y periféricos.
Las dos componentes principales del software de red son:
El software de red que se instala en los clientes.
El software de red que se instala en los servidores.
Software de cliente
En un sistema autónomo, cuando un usuario escribe un comando que solicita el
equipo para realizar una tarea, la petición circula a través del bus local del equipo
hasta la CPU del mismo. Por ejemplo, si quiere ver un listado de directorios de uno de
los discos duros locales, la CPU interpreta y ejecuta la petición y, a continuación,
muestra el resultado del listado de directorios en una ventana.
Sin embargo, en un entorno de red, cuando un usuario inicia una petición para
utilizar un recurso que está en un servidor en otra parte de la red, el comportamiento
es distinto. La petición se tiene que enviar, o redirigir, desde el bus local a la red y
desde allí al servidor que tiene el recurso solicitado. Este envío es realizado por el
redirector.
Redirector
Un redirector procesa el envío de peticiones. Dependiendo del software de red, este
redirector se conoce como «Shell» o «generador de peticiones». El redirector es una
pequeña sección del código de un Sistema Operativo de Red que:
Intercepta peticiones en el equipo.
Determina si la peticiones deben continuar en el bus del equipo local o
deben redirigirse a través de la red a otro servidor
La actividad del redirector se inicia en un equipo cliente cuando el usuario genera la
petición de un recurso o servicio de red. El equipo del usuario se identifica como
cliente, puesto que está realizando una petición a un servidor. El redirector intercepta
la petición y la envía a la red.
El servidor procesa la conexión solicitada por los redirectores del cliente y les
proporciona acceso a los recursos solicitados. En otras palabras, los servicios del
servidor solicitados por el cliente.
Designadores
Normalmente, el sistema operativo proporcionará diferentes opciones para acceder
al directorio cuando necesite acceder a un directorio compartido y tenga los
correspondientes permisos para realizarlo. Por ejemplo, con Windows NT/2000, podría
utilizar el icono Conectar a unidad de red del Explorador de Windows NT/2000 para
conectarse a la unidad de red. También, puede asignar una unidad. La asignación de
unidades consiste en asignar una letra o nombre a una unidad de disco, de forma que
el sistema operativo o el servidor de la red puede identificarla y localizarla. El redirector
también realiza un seguimiento de los designadores de unidades asociados a recursos
de red.
Periféricos
Los redirectores pueden enviar peticiones a los periféricos, al igual que se envían a
los directorios compartidos. La petición se redirige desde el equipo origen y se envía a
través de la red al correspondiente destino. En este caso, el destino es el servidor de
impresión para la impresora solicitada.
Con el redirector, podemos referenciar como LPT1 o COM1 impresoras de red en
lugar de impresoras locales. El redirector intercepta cualquier trabajo de impresión
dirigido a LPT1 y lo envía a la impresora de red especificada.
La utilización del redirector permite a los usuarios no preocuparse ni de la ubicación
actual de los datos o periféricos ni de la complejidad del proceso de conexión o
entrada. Por ejemplo, para acceder a los datos de un ordenador de red, el usuario sólo
necesita escribir el designador de la unidad asignado a la localización del recurso y el
redirector determina el encaminamiento actual.
Software de servidor
El software de servidor permite a los usuarios en otras máquinas, y a los equipos
clientes, poder compartir los datos y periféricos del servidor incluyendo impresoras,
trazadores y directorios.
Si un usuario solicita un listado de directorios de un disco duro remoto compartido.
El redirector envía la petición por la red, se pasa al servidor de archivos que contiene
el directorio compartido. Se concede la petición y se proporciona el listado de
directorios.
Compartir recursos
Compartir es el término utilizado para describir los recursos que públicamente están
disponibles para cualquier usuario de la red. La mayoría de los sistemas operativos de
red no sólo permiten compartir, sino también determinar el grado de compartición. Las
opciones para la compartición de recursos incluyen:
Permitir diferentes usuarios con diferentes niveles de acceso a los
recursos.
Coordinación en el acceso a los recursos asegurando que dos usuarios
no utilizan el mismo recurso en el mismo instante.
Por ejemplo, un administrador de una oficina quiere que una persona de la red se
familiarice con un cierto documento (archivo), de forma que permite compartir el
documento. Sin embargo, se controla el acceso al documento compartiéndolo de
forma que:
Algunos usuarios sólo podrán leerlo.
Algunos usuarios podrán leerlo y realizar modificaciones en él.
Gestión de usuarios
Los sistemas operativos de red permiten al administrador de la red determinar las
personas, o grupos de personas, que tendrán la posibilidad de acceder a los recursos
de la red. El administrador de una red puede utilizar el Sistema Operativo de Red para:
Crear permisos de usuario, controlados por el sistema operativo de red,
que indican quién puede utilizar la red.
Asignar o denegar permisos de usuario en la red.
Eliminar usuarios de la lista de usuarios que controla el sistema
operativo de red.
Para simplificar la tarea de la gestión de usuarios en una gran red, el sistema
operativo de red permite la creación de grupos de usuarios. Mediante la clasificación
de los individuos en grupos, el administrador puede asignar permisos al grupo. Todos
los miembros de un grupo tendrán los mismos permisos, asignados al grupo como una
unidad. Cuando se une a la red un nuevo usuario, el administrador puede asignar el
nuevo usuario al grupo apropiado, con sus correspondientes permisos y derechos.
Gestión de la red
Algunos sistemas operativos de red avanzados incluyen herramientas de gestión
que ayudan a los administradores a controlar el comportamiento de la red. Cuando se
produce un problema en la red, estas herramientas de gestión permiten detectar
síntomas de la presencia del problema y presentar estos síntomas en un gráfico o en
otro formato. Con estas herramientas, el administrador de la red puede tomar la
decisión correcta antes de que el problema suponga la caída de la red.
Selección de un sistema operativo de red
El sistema operativo de red determina estos recursos, así como la forma de
compartirlos y acceder a ellos.
En la planificación de una red, la selección del sistema operativo de red se puede
simplificar de forma significativa, si primero se determina la arquitectura de red
(cliente/servidor o Trabajo en Grupo) que mejor se ajusta a nuestras necesidades. A
menudo, esta decisión se basa en los tipos de seguridad que se consideran más
adecuados. La redes basadas en servidor le permiten incluir más posibilidades
relativas a la seguridad que las disponibles en una red Trabajo en Grupo. Por otro
lado, cuando la seguridad no es una propiedad a considerar, puede resultar más
apropiado un entorno de red Trabajo en Grupo.
Después de identificar las necesidades de seguridad de la red, el siguiente paso es
determinar los tipos de interoperabilidad necesaria en la red para que se comporte
como una unidad. Cada sistema operativo de red considera la interoperabilidad de
forma diferente y, por ello, resulta muy importante recordar nuestras propias
necesidades de interoperabilidad cuando se evalúe cada Sistema Operativo de Red.
Si la opción es Trabajo en Grupo, disminuirán las opciones de seguridad e
interoperabilidad debida a las limitaciones propias de esta arquitectura. Si la opción
seleccionada se basa en la utilización de un servidor, es necesario realizar
estimaciones futuras para determinar si la interoperabilidad va a ser considerada como
un servicio en el servidor de la red o como una aplicación cliente en cada equipo
conectado a la red. La interoperabilidad basada en servidor es más sencilla de
gestionar puesto que, al igual que otros servicios, se localiza de forma centralizada. La
interoperabilidad basada en cliente requiere la instalación y configuración en cada
equipo. Esto implica que la interoperabilidad sea mucho más difícil de gestionar.
No es raro encontrar ambos métodos (un servicio de red en el servidor y
aplicaciones cliente en cada equipo) en una misma red. Por ejemplo, un servidor
NetWare, a menudo, se implementa con un servicio para los equipos Apple, mientras
que la interoperabilidad de las redes de Microsoft Windows se consigue con una
aplicación cliente de red en cada equipo personal.
Cuando se selecciona un sistema operativo de red, primero se determinan los
servicios de red que se requieren. Los servicios estándares incluyen seguridad,
compartición de archivos, impresión y mensajería; los servicios adicionales incluyen
soporte de interoperabilidad para conexiones con otros sistemas operativos. Para
cualquier Sistema Operativo de Red, es necesario determinar los servicios de
interoperabilidad o clientes de red a implementar para adecuarse mejor a las
necesidades.
Los sistemas operativos de red basados en servidor más importantes son Microsoft
Windows NT 4, Windows 2000 Server y Novell NetWare 3.x, 4.x y 5.x. Los sistemas
operativos de red Trabajo en Grupo más importantes son AppleTalk, Windows 95 y 98
y UNIX (incluyendo Linux y Solaris).
Sistemas operativos de Novell
Introducción a NetWare
El sistema operativo de red NetWare está formado por aplicaciones de servidor y
cliente. La aplicación cliente se diseña para ejecutarse sobre una variedad importante
de los sistemas operativos que residen en los clientes. Los usuarios clientes pueden
acceder a la aplicación servidor a partir de ordenadores que ejecuten MS-DOS,
Microsoft Windows (versiones 3.x, 95 y 98 y Windows NT), OS/2, Apple Talk o UNIX. A
menudo, NetWare es la opción que se utiliza como sistema operativo en entornos de
múltiples sistemas operativos mezclados.
La versión 3.2 de NetWare es un Sistema Operativo de Red de 32 bits que admite
entornos Windows (versiones 3.x, 95 y 98 y Windows NT), UNIX, Mac OS y MS-DOS.
Con la versión NetWare 4.11, también denominada IntranetWare, Novell introdujo su
nuevo Sistema Operativo de Red, los Servicios de directorios de Novell (NDS). La
versión 5, última versión distribuida, se centra en la integración de LAN, WAN,
aplicaciones de red, intranets e Internet en una única red global.
Los Servicios de directorios de Novell (NDS) proporcionan servicios de nombre y
seguridad, encaminamiento, mensajería, publicación Web y servicios de impresión y
de archivos. Mediante la utilización de la arquitectura de directorios X.500, organiza
todos los recursos de red, incluyendo usuarios, grupos, impresoras, servidores y
volúmenes. NDS también proporciona una entrada única para el usuario, que permite
a éste poder entrar en cualquier servidor de la red y tener acceso a todos sus
permisos y derechos habituales.
Otros Sistema Operativo de Red proporcionan software de cliente para la
interoperabilidad con servidores NetWare. Por ejemplo, Windows NT proporciona
Servicios de enlace para NetWare (Gateway Services GSNW). Con este servicio, un
servidor Windows NT puede obtener acceso a servicios de archivo e impresión
NetWare.
Servicios NetWare
Con el Cliente NetWare instalado, cualquier estación cliente puede obtener todas las
ventajas de los recursos proporcionados por un servidor NetWare. Algunos de los
servicios más importantes que proporciona, son:
Servicios de archivos
Los servicios de archivos de NetWare forman parte de la base de datos NDS. NDS
proporciona un único punto de entrada para los usuarios y permite a los usuarios y
administradores ver de la misma forma los recursos de la red. Dependiendo del
software de cliente instalado, podrá ver la red completa en un formato conocido para el
sistema operativo de la estación de trabajo. Por ejemplo, un cliente Microsoft Windows
puede asignar una unidad lógica a cualquier volumen o directorio de un servidor de
archivos de NetWare, de forma que los recursos de NetWare aparecerán como
unidades lógicas en sus equipos. Estas unidades lógicas funcionan igual que cualquier
otra unidad en sus equipos.
Seguridad
NetWare proporciona seguridad de gran alcance, incluyendo:
Seguridad de entrada. Proporciona verificación de autenticación
basada en el nombre de usuario, contraseña y restricciones de cuentas y de
tiempo.
Derechos de Trustee. Controla los directorios y archivos a los que
puede acceder un usuario y lo que puede realizar el usuario con ellos.
Atributos de archivos y directorios. Identifica los tipos de acciones
que se pueden llevar a cabo en un archivo (visualizarlo, escribir en él, copiarlo,
buscarlo u ocultarlo o suprimirlo).
Servicios de impresión
Los servicios de impresión son transparentes (invisibles) al usuario de un equipo
cliente. Cualquier petición de impresión por parte de un cliente es redirigida al servidor
de archivos, donde se envía al servidor de impresión y, finalmente, a la impresora. El
mismo equipo puede actuar como servidor de archivos y servidor de impresión.
Permite compartir dispositivos de impresión que se conectan al servidor, a la estación
de trabajo o, directamente, a la red por medio de las propias tarjetas de red (NIC) de
los dispositivos. Los servicios de impresión de NetWare pueden admitir hasta 256
impresoras.
Envío de mensajes a otros
Por medio de algunos comandos sencillos, los usuarios pueden enviar un breve
mensaje a otros usuarios de la red. Los mensajes se pueden enviar a grupos o de
forma individual. Si todos los receptores pertenecen al mismo grupo, es conveniente
enviar el mensaje al grupo en lugar de enviarlo de forma individual. Los usuarios
también pueden activar o desactivar este comando para sus estaciones de trabajo.
Cuando un usuario desactiva este comando, no recibirá ningún mensaje enviado.
Los mensaje también se pueden controlar a través del Servicio de control de
mensajes (Message Handling Service – MHS). MHS se puede instalar en cualquier
servidor y configurarse como una infraestructura de mensajes completamente
interconectada para una distribución de correo electrónico. MHS admite los programas
más habituales de correo electrónico.
Interoperabilidad
No siempre se puede conseguir la interoperabilidad completa de un Sistema
Operativo de Red. Es especialmente cierta cuando se conectan dos redes diferentes,
como NetWare y Windows NT. Un entorno NetWare, caracterizado por sus servicios
de directorio y Windows NT que trabaja sobre la base de un modelo de dominio, son
esencialmente incompatibles. Para solucionar este problema, Windows NT desarrolló
NWLink y GSNW que le permiten interoperar. Estos servicios permiten a un servidor
en una red Windows NT actuar como un enlace a la red NetWare. Cualquier estación
en la red Windows NT puede solicitar recursos o servicios disponibles en la red
NetWare, pero deben realizar la petición a través del servidor Windows NT. A
continuación, el servidor actuará como cliente en la red NetWare, pasando las
peticiones entre las dos redes.
Sistemas operativos de red de Microsoft
Introducción a Windows NT
A diferencia del sistema operativo NetWare, Windows NT combina el sistema
operativo del equipo y de red en un mismo sistema. Windows NT Server configura un
equipo para proporcionar funciones y recursos de servidor a una red, y Windows NT
Workstation proporciona las funciones de cliente de la red.
Windows NT trabaja sobre un modelo de dominio. Un dominio es una colección de
equipos que comparten una política de seguridad y una base de datos común. Cada
dominio tiene un nombre único. Dentro de cada dominio, se debe designar un servidor
como Controlador principal de dominio (PDC, Primary Domain Controller). Este
servidor mantiene los servicios de directorios y autentifica cualquier usuario que quiera
entrar en el sistema. Los servicios de directorios de Windows NT se pueden
implementar de varias formas utilizando la base de datos de seguridad y de las
cuentas.
Existen cuatro modelos de dominio diferentes.
Dominio único. Un único servidor mantiene la base de datos de
seguridad y de las cuentas.
Maestro único. Una red con maestro único puede tener diferentes
dominios, pero se designa uno como el maestro y mantiene la base de datos
de las cuentas de usuario.
Maestro múltiple. Una red con maestro múltiple incluye diferentes
dominios, pero la base de datos de las cuentas se mantiene en más de un
servidor. Este modelo se diseña para organizaciones muy grandes.
Confianza-completa. «Confianza completa» significa que existen
varios dominios, pero ninguno está designado como maestro. Todos los
dominios confían completamente en el resto.
Servicios de Windows NT
Los servicios más importantes que Windows NT Server y Workstation proporcionan
a una red:
Servicios de archivos
Existen dos mecanismos que permiten compartir archivos en una red Windows NT.
El primero se basa en un proceso sencillo de compartición de archivos, como puede
ser una red Trabajo en Grupo. Cualquier estación o servidor puede publicar un
directorio compartido en la red y especificar los atributos de los datos (sin acceso,
lectura, agregar, cambio, control total). La gran diferencia entra los sistemas operativos
Windows NT y Windows 95 /98 es que para compartir un recurso de Windows NT
debe tener permisos de administrador. El siguiente nivel de compartición obtiene las
ventajas completas de las características de seguridad de Windows NT. Puede asignar
permisos a nivel de directorio y a nivel de archivos. Esto le permite restringir el acceso
a grupos o usuarios determinados. Para poder obtener las ventajas de un proceso de
compartición de archivos más avanzado, es necesario utilizar el sistema de archivos
de Windows NT (NTFS). Durante la instalación de Windows NT, puede seleccionar
entre un sistema de archivos NTFS o un sistema FAT-16 bits (MS-DOS). Puede
instalar ambos sistemas sobre unidades fijas diferentes o sobre particiones distintas de
un mismo disco duro, pero cuando el equipo esté trabajando en modo MS-DOS, no
estarán disponibles los directorios de NTFS. Cualquier cliente que no utilice NTFS
puede compartir la red, pero está limitado para publicar recursos compartidos y no
puede utilizar las ventajas de las utilidades de seguridad de NTFS.
Seguridad
Al igual que los Sistema Operativo de Red más importantes, Windows NT
proporciona seguridad para cualquier recurso de la red. El servidor de dominio en una
red Windows NT mantiene todos los registros de las cuentas y gestiona los permisos y
derechos de usuario. Para acceder a cualquier recurso de la red, el usuario debe tener
los derechos necesarios para realizar la tarea y los permisos adecuados para utilizar el
recurso.
Impresión
En una red Windows NT, cualquier servidor o cliente puede funcionar como servidor
de impresión. Compartir una impresora de red implica que esté disponible para
cualquier usuario de red (sujeto a las reglas de compartición). Cuando se instala una
impresora, primero se pregunta si la impresora está designada como impresora local
(Mi PC) o como impresora de red. Si se selecciona como impresora de red, aparece
un cuadro de diálogo mostrando todas las impresoras de red disponibles. Todo lo que
tiene que hacer es seleccionar aquella que desea utilizar. Recuerde que puede instalar
más de una impresora en una máquina.
Además, si está instalando una impresora local, se preguntará si quiere compartir la
impresora con otros usuarios de la red.
Servicios de red
Windows NT proporciona diferentes servicios de red que ayudan a facilitar una red
de ejecución uniforme. Algunos servicios son:
Servicio de mensajería. Monitoriza la red y recibe mensajes
emergentes para el usuario.
Servicio de alarma. Envía las notificaciones recibidas por el servicio de
mensajería.
Servicio de exploración. Proporciona una lista de servidores
disponibles en los dominios y en los grupos de trabajo.
Servicio de estación. Se ejecuta sobre una estación de trabajo y es
responsable de las conexiones con el servidor. Además, se conoce como el
redirector.
Servicio de Servidor. Proporciona acceso de red a los recursos de un
equipo.
Interoperabilidad
El protocolo de red NWLink se diseña para que Windows NT sea compatible con
NetWare. Los servicios disponibles son:
Servicios de enlace para NetWare (Gateway Services for NetWare
GSNW). Todos los clientes de Windows NT, dentro de un dominio, deben
conectarse con un servidor NetWare a través de una única fuente. GSNW
proporciona la conexión basada en gateway entre un dominio de Windows NT
y un servidor NetWare. Esto funciona correctamente en condiciones de bajo
volumen, pero provocará una bajada en el rendimiento cuando se incremente
el número de peticiones.
Servicios de cliente para NetWare (Client Services for NetWare
CSNW). Este servicio activa una estación Windows NT para acceder a los
servicios de archivo e impresión de un servidor NetWare. Se incluye como
parte de GSNW.
Servicios de archivos e impresión para NetWare (File and Print
Services for NetWare FPNW). Esta utilidad permite a los clientes de NetWare
acceder a los servicios de archivo e impresión de Windows NT. No forma parte
del paquete de Windows NT y debe adquirirse por separado.
Gestor de los servicios de directorio para NetWare (Directory
Service Manager for NetWare DSMN). Esta utilidad adicional integra la
información de cuentas de los grupos y de usuarios de Windows NT y
NetWare. No forma parte del paquete de Windows NT y debe adquirirse por
separado.
Herramienta de migración para NetWare. Esta herramienta la utilizan
los administradores que están convirtiendo NetWare en Windows NT. Envía la
información de las cuentas de un servidor NetWare a un controlador de
dominio de Windows NT.
Otros sistemas operativos de red
Aunque Windows NT y NetWare constituyen los sistemas operativos de red más
habituales del mercado, no son los únicos disponibles. Incluir también algunos de los
sistemas operativos menos conocidos como AppleTalk, Unix y Banyan Vines. Además,
veremos la utilización de Windows para Grupos de trabajo, Windows 95 y Windows 98
para configurar redes Trabajo en Grupo, o como clientes en otras redes.
Muchas compañías de software han desarrollado software LAN Trabajo en Grupo.
Realizar una búsqueda en Internet le ayudará a localizar estas posibles opciones.
Sistema operativo de red AppleTalk
El sistema operativo de red AppleTalk está completamente integrado en el sistema
operativo de cada equipo que ejecuta el Mac OS. Su primera versión, denominada
LocalTalk, era lenta en comparación con los estándares de hoy en día, pero trajo
consigo la interconexión de los usuarios que rápidamente hicieron uso de ella. Todavía
forma parte del Apple Sistema Operativo de Red una forma de interconexión por el
puerto de serie de LocalTalk.
La implementación actual de AppleTalk permite posibilidades de interconexión
Trabajo en Grupo de alta velocidad entre equipos Apple, así como interoperabilidad
con otros equipos y sistemas operativos de red. No obstante, esta interoperabilidad no
forma parte, obviamente, del sistema operativo de Apple; En su lugar, los usuarios de
equipos distintos de Apple pueden conectar más fácilmente sus recursos a un sistema
operativo de red de Apple mediante Apple IP, la implementación Apple del protocolo
de red TCP/IP. Apple IP permite a usuarios no Apple acceder a los recursos de Apple,
como pueden ser archivos de bases de datos.
Los equipos que forman parte del sistema operativo en red de Apple pueden
conectarse a otras redes utilizando servicios proporcionados por los fabricantes de los
Sistema Operativo de Red que se están ejecutando en los correspondientes
servidores de red. Toda la comunidad Windows NT Server, Novell NetWare y Linux
proporcionan servicios de interoperabilidad Apple para sus respectivas plataformas.
Esto permite a los usuarios de Apple, conectados en red, hacer uso de los recursos
disponibles en estos servidores de red.
El formato de los servicios de directorio de AppleTalk se basa en las características
denominadas «zonas». Se trata de grupos lógicos de redes y recursos (una red Apple
Talk Fase 1 está formada por no más de una zona, mientras que una red de Fase 2
puede tener hasta 255 zonas. Sin embargo, las dos son incompatibles y no resulta
sencillo mantenerlas en la misma estructura de cableado de red). Estas zonas
proporcionan un medio de agrupamiento de los recursos de una red en unidades
funcionales.
En el entorno actual de escritorio, los usuarios de Windows y Apple pueden
beneficiarse de un alto grado de interoperabilidad presente en el software de
aplicaciones. Las colecciones de productividad (aplicaciones estándar, por ejemplo,
hojas de cálculo, bases de datos, tratamiento de textos y correo electrónico) pueden, a
menudo, intercambiar información directamente. AppleShare permite a los usuarios de
un equipo Apple compartir con otros usuarios Apple aquellos recursos para los que
tienen asignados los permisos apropiados para permitir su acceso. Con la
interoperabilidad a nivel de sistema operativo y a nivel de aplicación, el Sistema
Operativo de Red de Apple puede proporcionar a los clientes, y a otros Sistema
Operativo de Red, una gama completa de posibilidades de interconexión.
Redes UNIX
UNIX es un sistema operativo de propósito general, multiusuario y multitarea. La dos
versiones más conocidas son Linux y Solaris de Sun Microsystem. Normalmente, un
sistema UNIX está constituido por un equipo central y múltiples terminales para los
usuarios. Este sistema operativo incluye las prestaciones de red, diseñado
específicamente para grandes redes, pero también presenta algunas aplicaciones para
equipos personales. UNIX trabaja bien sobre un equipo autónomo y, como
consecuencia de sus posibilidades de multitarea, también lo hace perfectamente en un
entorno de red.
UNIX es altamente adaptable al entorno cliente/servidor. Se puede transformar en
un servidor de archivos instalando el correspondiente software del servidor de
archivos. A continuación, como host UNIX, puede responder a peticiones realizadas en
las estaciones de trabajo. El software del servidor de archivos es, simplemente, una
aplicación más que se está ejecutando en el equipo multitarea.
Un cliente de un host UNIX puede ser otro equipo UNIX o cualquier otro equipo que
ejecute MS-DOS, OS/2, Microsoft Windows o Macintosh (System 7 u 8). Un redirector
de archivos activará la estación para almacenar y recuperar archivos UNIX cuando
éstos están en su formato original.
Servicios virtuales de red integrados Banyan (Vines)
Otro sistema de conexión es el Servicio virtual de red integrados Banyan (Vines).
Vines es un Sistema Operativo de Red basado en una arquitectura cliente/servidor
derivado de los protocolos Xerox Network System (XNS) de la Corporación Xerox.
En la versión actual de Banyan Vines destaca la mensajería mediante la integración
con el software Intelligent Messaging (Mensajería inteligente) y BeyondMail de
Banyan. La creación y gestión de los servicios de red se realizan a través de la última
versión de StreetTalk Explorer de Banyan. Esta interfaz trabaja con los perfiles de
usuario de Windows, aceptando las configuraciones de los usuarios en cualquier parte
de la red. Algunas características presentes en Vines:
Soporte cliente para Windows NT y Windows 95 y 98.
Banyan Intranet Connect, que proporciona acceso a cliente remoto con
un navegador Web estándar.
Software servidor a servidor TCP/IP (Protocolo de control de
transmisión/Protocolo de Internet).
Banyan Networker, una familia de productos de almacenamiento en
red.
Soporte multiprocesador de hasta cuatro procesadores.
Redes locales Trabajo en Grupo
En muchas oficinas y pequeñas empresas existe la necesidad de crear una red
Trabajo en Grupo sencilla. Una red Trabajo en Grupo podría ser la opción más
económica cuando la seguridad no es importante y el número de equipos dentro de un
área relativamente pequeña es 10 o un número menor. En estas redes todas las
estaciones son iguales y cada una de ellas actúa como servidor o cliente. En muchos
casos, estas redes compartirán sólo los archivos e impresoras. La mayoría de los
sistemas operativos de red incluyen el software necesario para configurar una red
Trabajo en Grupo.
Windows para Grupos de trabajo
Windows para Grupos de trabajo (Windows 3.11) funciona de forma muy similar a su
predecesor, Windows 3.1, pero incluye un Sistema Operativo de Red Trabajo en
Grupo, una aplicación de correo electrónico y una aplicación de anotaciones. Un grupo
de equipos conectados a través de una red pueden compartir impresoras y archivos.
Sólo se pueden enviar a otros miembros aquellos elementos que aparezcan
designados como compartidos. Todos los archivos e impresoras aparecen ocultos
para todos los usuarios, excepto para el equipo local. Cuando se comparte un
directorio del disco o una impresora de una estación de trabajo, se le asigna un
nombre al recurso compartido que pueden utilizar el resto de usuarios para
referenciarlo. Durante el proceso de conexión se asigna una letra de unidad al
directorio compartido y el redirector redirige el puerto LPT a través de la LAN a la
impresora correcta.
Aunque todavía se utiliza Windows para Grupos de trabajo, resulta prácticamente
imposible que se requieran sus servicios para instalar una nueva red utilizando este
sistema operativo.
Windows 95/98/ME
Los sistemas operativos Windows 95/98/ME incluyen el software necesario para
crear una red Trabajo en Grupo y activar la compartición de archivos e impresoras.
Los equipos que ejecutan Windows 95 y 98 también trabajarán como clientes en
una LAN Windows NT o NetWare. Tendrá que instalar el software de cliente
(generador de peticiones) correspondiente. Los usuarios de Windows 95 y 98 no
pueden utilizar las ventajas completas que proporciona Windows NT con respecto a
las características de seguridad. Estas características requieren la utilización del
formato de archivos NTFS que no es compatible con Windows 95 y 98.
Warp Connect
Warp Connect combina OS/2 Warp y las posibilidades de interconexión Trabajo en
Grupo de WIN-OS/2. Proporciona posibilidades de interconexión a nivel de cliente y
Trabajo en Grupo similares a las que proporciona Windows para Grupos de trabajo.
Con la utilidad predefinida de conexión Trabajo en Grupo incluida en Warp Connect,
puede compartir aplicaciones, impresoras, módems y archivos, sin necesidad de
instalar hardware especial.
Sistemas operativos de red en entornos multiplataforma
Normalmente, los Sistema Operativo de Red tienen que integrar los productos
hardware y software fabricados por diferentes fabricantes. Las propiedades y
problemas a tener en cuenta en una red multiplataforma, son:
El entorno multiplataforma
Hoy en día, la mayoría de la redes se encuentran un entornos multiplataforma. A
pesar de que pueden plantear retos importantes, funcionan correctamente cuando se
implementan y se planifican de forma apropiada.
El carácter de una red cambia cuando los componentes software de diferentes
plataformas deben operar en la misma red. Los problemas pueden aumentar cuando
la red está ejecutando más de un tipo de sistema operativo de red.
Para que una red funcione de forma apropiada en un entorno de trabajo
heterogéneo, deben ser compatibles el redirector, el sistema operativo del servidor y
del cliente. En un entorno multiplataforma, es necesario encontrar un lenguaje común
que permita a todos los equipos comunicarse.
Implementación de soluciones multiplataforma
Garantizar la interoperabilidad en entornos multiplataforma se puede conseguir a
nivel de servidor (también conocido como el «final de regreso») o a nivel de cliente
(también conocido como el «final de inicio»). La opción depende de los fabricantes que
se estén utilizando.
Interoperabilidad de cliente
En las situaciones que se incluyen múltiples Sistema Operativo de Red, el redirector
se convierte en la clave de la interoperabilidad. Sólo cuando se utiliza más de un
proveedor de servicios telefónicos para comunicarse con diferente gente, se tiene que
el equipo puede tener más de un redirector para comunicarse a través de la red con
servidores de red distintos.
Cada redirector maneja sólo los paquetes enviados en el lenguaje o protocolo que
puede entender. Si conoce el destino y el recurso al que se quiere acceder, puede
implementar el redirector apropiado y éste reenviará su petición al destino adecuado.
Si un cliente Windows NT necesita acceder al servidor Novell, para conseguirlo, el
administrador de la red carga el redirector de Microsoft, instalado en el cliente, sobre
Windows NT para el acceso a los servidores Novel.
lnteroperabilidad del servidor
La segunda forma de implementar la comunicación entre un cliente y un servidor es
instalar los servicios de comunicaciones en el servidor, enfoque utilizado para incluir
un Apple Macintosh en un entorno Windows NT. Microsoft suministra los Servicios
para Macintosh. Este software permite a un servidor Windows NT Server comunicarse
con el cliente Apple.
Gracias a esta interoperabilidad, un usuario Macintosh puede seguir el
procedimiento estándar de un Macintosh y visualizar los iconos propios del sistema,
como puede ser Chooser and Finder, incluso cuando el usuario está accediendo a los
recursos de Windows NT Server.
Opciones de fabricantes
Los tres fabricantes más importantes de productos de redes son:
Microsoft.
Novell.
Apple.
Cada una de estas plataformas proporcionan utilidades que:
Hacen posible que sus sistemas operativos se puedan comunicar con
servidores de las otras dos plataformas.
Ayudan a sus servidores a reconocer clientes de las otras dos
plataformas.
Microsoft
Microsoft ha desarrollado un redirector que reconoce redes Microsoft dentro de los
siguientes sistemas operativos de Microsoft:
Windows NT/2000
Windows 95/98/ME.
Windows para Grupos de trabajo.
Los redirectorios se implementan, de forma automática, durante la instalación del
sistema operativo. Una utilidad de instalación carga los controladores requeridos y, a
continuación, edita los archivos de inicio, de forma que el redirector se active la
próxima vez que el usuario encienda el equipo.
El software redirector de Microsoft no sólo permite a los clientes acceder a los
recursos, sino también proporciona cada cliente Windows para Grupos de trabajo y
Windows NT con la posibilidad de compartir sus propios recursos.
Microsoft en un entorno Novell. Los productos Microsoft y Novell pueden trabajar
juntos.
Para conectar un cliente con Windows NT Workstation a una red Novell
NetWare 3.x o 4.x se requiere NWLink y Servicio de Cliente para NetWare
(CSNW) o el Cliente NetWare de Novell para Windows NT.
Para conectar un servidor Windows NT Server a una red NetWare se
requiere NWLink y el Servicio de Enlace para NetWare (GSNW). NWLink es la
implementación de Microsoft del protocolo de intercambio de paquetes entre
redes/Intercambio de paquetes secuenciados (IPX/SPX). CSNW es la
implementación en Microsoft de un generador de peticiones de NetWare
(terminología para el redirector en Novell).
Para conectar un cliente Windows 95 o 98 a una red NetWare se
requiere IPX/SPX y redes CSNW de Microsoft.
El Servicio de Microsoft para los Servicios de directorios de Novell (NDS) es el
software de cliente para NetWare que incorpora soporte para Novell Network 4.x y
Servicios de Directorios 5.x. Microsoft NDS proporciona a los usuarios con entrada y
exploración soporte para servicios de enlace en NetWare 3.x y NetWare 4.x como
servidores NDS NetWare 4.x y 5.x.
Clientes basados en MS-DOS. Los fabricantes de los sistemas operativos de
servidor ofrecen utilidades que permiten a los clientes que utilizan MS-DOS, acceder a
los servidores de estos tres fabricantes. Todas estas utilidades pueden residir en una
máquina, de forma que el cliente con MS-DOS puede acceder a los servidores
correspondientes de los tres entornos.
Novell
Los servidores Novell reconocen los siguientes clientes para los servicios de
archivos e impresión. Los clientes NetWare que ejecutan MS-DOS pueden conectarse
a:
Servidores NetWare de Novell.
Equipos con Windows NT Server.
Los clientes Windows NT que ejecutan el generador de peticiones de NetWare y el
redirector de Windows NT pueden conectarse a:
Servidores NetWare de Novell.
Equipos con Windows NT Server y Windows NT Workstation.
Novell proporciona generadores de peticiones para sistemas operativos de clientes
incluyendo:
MS-DOS.
OS/2.
Cliente NetWare para Windows NT.
Apple
En el entorno de Macintosh, el redirector para la conexión AppleShare se incluye
con el sistema operativo AppleTalk y proporciona la función de compartir archivos. El
software de cliente se incluye con cada copia del sistema operativo de Apple. Además,
se incluye un servidor de impresión de AppleShare, que gestiona las colas de
impresión. Por tanto, tenemos que los Macintosh están equipados para formar parte
de la redes Apple.
Cliente basado en MS-DOS. El software de conexión AppleShare ofrece a los
clientes que utilizan MS-DOS acceso a los servidores de archivos e impresión de
AppleShare. Con el software de ordenador personal LocalTalk y una tarjeta de equipo
personal LocalTalk instalada en los equipos, los usuarios pueden acceder a los
volúmenes (almacenamiento de archivos) del servidor de archivos e impresoras de
una red AppleTalk. La tarjeta de equipo personal LocalTalk controla el enlace entre la
red AppleTalk y el equipo personal. El software del controlador LocalTalk para el
equipo personal implementa muchos de los protocolos de AppleTalk e interactúa con
la tarjeta para enviar y recibir paquetes.
Servicios para Macintosh. A través de los Servicios para Macintosh, un servidor
Windows NT puede estar disponible para los clientes Macintosh. Este producto hace
posible que los clientes de MS-DOS y Macintosh puedan compartir archivos e
impresoras. Los Servicios para Macintosh incluyen las versiones 2.0 y 2.1 de Apple
Talk Protocol, LocalTalk, Ether Talk, Token Talk y FDDITalk. Además, los Servicios
para Macintosh admiten la impresora LaserWriter versión 5.2 o posterior.
Muchos fabricantes de software y hardware proporcionan productos para la
conexión de equipos en red. Fundamentalmente, las redes son un medio de
comunicación, de ahí que, la necesidad de los fabricantes de tomar medidas para
asegurar que sus productos pudieran interactuar, llegó a ser aparentemente prematura
en el desarrollo de la tecnología de redes. Como las redes y los proveedores de
productos para redes se han extendido por todo el mundo, la necesidad de una
estandarización se ha incrementado. Para dirigir los aspectos concernientes a la
estandarización, varias organizaciones independientes han creado especificaciones
estándar de diseño para los productos de redes de equipos. Cuando se mantienen
estos estándares, es posible la comunicación entre productos hardware y software de
diversos vendedores.
El modelo de referencia de Interconexión de sistemas abiertos (OSI, Open
System Interconnection)
El modelo OSI representa los siete niveles de proceso mediante el cual los datos se
empaquetan y se transmiten desde una aplicación emisora a través de cables físicos
hacia la aplicación receptora.
Comunicaciones en red
La actividad de una red incluye el envío de datos de un equipo a otro. Este proceso
complejo se puede dividir en tareas secuenciales discretas. El equipo emisor debe:
1. Reconocer los datos.
2. Dividir los datos en porciones manejables.
3. Añadir información a cada porción de datos para determinar la ubicación
de los datos y para identificar al receptor.
4. Añadir información de temporización y verificación de errores.
5. Colocar los datos en la red y enviarlos por su ruta.
El software de cliente de red trabaja a muchos niveles diferentes dentro de los
equipos emisores y receptores. Cada uno de estos niveles, o tareas, es gestionado por
uno o más protocolos. Estos protocolos, o reglas de comportamiento, son
especificaciones estándar para dar formato a los datos y transferirlos. Cuando los
equipos emisores y receptores siguen los mismos protocolos se asegura la
comunicación. Debido a esta estructura en niveles, a menudo es referido como pila del
protocolo.
Con el rápido crecimiento del hardware y el software de red, se hizo necesario que
los protocolos estándar pudieran permitir la comunicación entre hardware y software
de distintos vendedores. Como respuesta, se desarrollaron dos conjuntos primarios de
estándares: el modelo OSI y una modificación de ese estándar llamado Project 802.
El modelo de referencia OSI
En 1978, la International Standards Organization, ISO (Organización internacional
de estándares) divulgó un conjunto de especificaciones que describían la arquitectura
de red para la conexión de dispositivos diferentes. El documento original se aplicó a
sistemas que eran abiertos entre sí, debido a que todos ellos podían utilizar los
mismos protocolos y estándares para intercambiar información.
En 1984, la ISO presentó una revisión de este modelo y lo llamó modelo de
referencia de Interconexión de Sistemas Abiertos (OSI) que se ha convertido en un
estándar internacional y se utiliza como guía para las redes.
El modelo OSI es la guía mejor conocida y más ampliamente utilizada para la
visualización de entornos de red. Los fabricantes se ajustan al modelo OSI cuando
diseñan sus productos para red. Éste ofrece una descripción del funcionamiento
conjunto de hardware y software de red por niveles para posibilitar las
comunicaciones. El modelo también ayuda a localizar problemas proporcionando un
marco de referencia que describe el supuesto funcionamiento de los componentes.
Una arquitectura por niveles
La arquitectura del modelo de referencia OSI divide la comunicación en red en siete
niveles. Cada nivel cubre diferentes actividades, equipos o protocolos de red. El
modelo OSI define cómo se comunica y trabaja cada nivel con los niveles
inmediatamente superior e inferior. Por ejemplo, el nivel de sesión se comunica y
trabaja con los niveles de presentación y de transporte.
Cada nivel proporciona algún servicio o acción que prepara los datos para
entregarlos a través de la red a otro equipo. Los niveles inferiores (1 y 2) definen el
medio físico de la red y las tareas relacionadas, como la colocación de los bits de
datos sobre las placas de red (NIC, Network Interface Cards) y el cable. Los niveles
superiores definen la forma en que las aplicaciones acceden a los servicios de
comunicación. Cuanto más alto es el nivel, más compleja es su tarea.
Los niveles están separados entre sí por fronteras llamadas interfaces. Todas las
demandas se pasan desde un nivel, a través de esta interfaz, hacia el siguiente. Cada
nivel se basa en los estándares y actividades del nivel inferior.
Relaciones entre los niveles del modelo OSI
Cada nivel proporciona servicios al nivel inmediatamente superior y lo protege de los
detalles de implementación de los servicios de los niveles inferiores. Al mismo tiempo,
cada nivel parece estar en comunicación directa con su nivel asociado del otro equipo.
Esto proporciona una comunicación lógica, o virtual, entre niveles análogos. En
realidad, la comunicación real entre niveles adyacentes tiene lugar sólo en un equipo.
En cada nivel, el software implementa las funciones de red de acuerdo con un
conjunto de protocolos.
Antes de pasar los datos de un nivel a otro, se dividen en paquetes, o unidades de
información, que se transmiten como un todo desde un dispositivo a otro sobre una
red. La red pasa un paquete de un nivel software a otro en el mismo orden de los
niveles. En cada nivel, el software agrega información de formato o direccionamiento
al paquete, que es necesaria para la correcta transmisión del paquete a través de la
red.
En el extremo receptor, el paquete pasa a través de los niveles en orden inverso.
Una utilidad software en cada nivel lee la información del paquete, la elimina y pasa el
paquete hacia el siguiente nivel superior. Cuando el paquete alcanza el nivel de
aplicación, la información de direccionamiento ha sido eliminada y el paquete se
encuentra en su formato original, con lo que es legible por el receptor.
Con la excepción del nivel más bajo del modelo de redes OSI, ningún nivel puede
pasar información directamente a su homólogo del otro equipo. En su lugar, la
información del equipo emisor debe ir descendiendo por todos los niveles hasta
alcanzar el nivel físico. En ese momento, la información se desplaza a través del cable
de red hacia el equipo receptor y asciende por sus niveles hasta que alcanza el nivel
correspondiente. Por ejemplo, cuando el nivel de red envía información desde el
equipo A, la información desciende hacia los niveles de enlace de datos y físico de la
parte emisora, atraviesa el cable y asciende los niveles físico y de enlace de datos de
la parte receptora hasta su destino final en el nivel de red del equipo B.
En un entorno cliente/servidor, un ejemplo del tipo de información enviada desde el
nivel de red de un equipo A, hacia el nivel de red de un equipo B, debería ser una
dirección de red, posiblemente con alguna información de verificación de errores
agregada al paquete.
La interacción entre niveles adyacentes ocurre a través de una interfaz. La interfaz
define los servicios ofrecidos por el nivel inferior para el nivel superior y, lo que es más,
define cómo se accede a dichos servicios. Además, cada nivel de un equipo aparenta
estar en comunicación directa con el mismo nivel de otro equipo.
Nivel o Capa de aplicación
La capa de aplicación proporciona los servicios utilizados por las aplicaciones para
que los usuarios se comuniquen a través de la red. Algunos ejemplos de servicios,
son:
Transporte de correo electrónico. Gran variedad de aplicaciones
pueden utilizar un protocolo para gestionar el correo electrónico. Los
diseñadores de aplicaciones que recurren al correo electrónico no necesitan
desarrollar sus propios programas para gestionar el correo. Además, las
aplicaciones que comparten una misma interfaz de correo pueden intercambiar
mensajes utilizando el gestor de correo electrónico.
Acceso a archivos remotos. Las aplicaciones locales pueden acceder
a los archivos ubicados en los nodos remotos.
Ejecución de tareas remotas. Las aplicaciones locales pueden iniciar y
controlar procesos en otros nodos.
Directorios. La red puede ofrecer un directorio de recursos, incluyendo
nombres de nodos lógicos. El directorio permite que las aplicaciones accedan a
los recursos de la red utilizando nombres lógicos en lugar de identificaciones
numéricas abstractas.
Administración de la red. Los protocolos de administración de la red
permiten que varias aplicaciones puedan acceder a la información
administrativa de la red.
Es frecuente encontrar el término interfaz de programa de aplicación (API) asociado
a los servicios de la capa de aplicación. Un API es un conjunto de reglas que permiten
que las aplicaciones escritas por los usuarios puedan acceder a los servicios de un
sistema de software. Los diseñadores de programas y protocolos suelen proporcionar
varias API para que los programadores puedan adaptar fácilmente sus aplicaciones y
utilizar los servicios disponibles en sus productos. Un API habitual de UNIX es
Berkeley Sockets; Microsoft lo ha implementado denominándolo Windows Sockets.
Nivel o Capa de presentación
La capa de presentación se responsabiliza de presentar los datos a la capa de
aplicación. En ciertos casos, la capa de presentación traduce los datos directamente
de un formato a otro. Las grandes computadoras IBM utilizan una codificación de
caracteres denominada EBCDIC, mientras que las computadoras restantes utilizan el
conjunto de caracteres ASCII. Por ejemplo, si se transmiten datos de una computadora
EBCDIC a otra ASCII, la capa de presentación podría encargarse de traducir de un
conjunto de caracteres al otro. Además, la representación de los datos numéricos
varía entre distintas arquitecturas de computadoras y debe convertirse cuando se
transfieren datos de una máquina a otra.
Una técnica habitual para mejorar la transferencia de datos consiste en convertir
todos los datos a un formato estándar antes de su transmisión. Puede que este
formato estándar no sea el formato nativo de cualquier computadora, pero cualquiera
de ellas puede configurarse para recibir datos en formato estándar y convertirlos en su
formato nativo. Las normas OSI definen la Abstract Syntax Representation, Revision 1
(ASN.1 -Representación de sintaxis abstracta, revisión 1) como sintaxis estándar para
los datos a nivel de la capa de presentación. Aunque el conjunto de protocolos TCP/IP
no defina formalmente una capa de presentación, el protocolo External Data
Representation (XDR -Representación de datos externos), utilizado por el sistema de
archivos de red (NFS -Network File System), cumple una función similar.
Otras funciones que pueden corresponder a la capa de presentación son la
encriptación/desencriptación y compresión/descompresión de datos.
La capa de presentación es la que se implementa con menor frecuencia de las
capas OSI. Se han definido pocos protocolos para esta capa. En la mayoría de los
casos, las aplicaciones de red desempeñan las funciones asociadas con la capa de
presentación.
Nivel o Capa de sesión
El control de los diálogos entre distintos nodos es competencia de la capa de
sesión. Un diálogo es una conversación formal en la que dos nodos acuerdan un
intercambio de datos.
La comunicación puede producirse en tres modos de diálogo
Simple (Simplex). Un nodo transmite de manera exclusiva mientras
otro recibe de manera exclusiva.
Semidúplex (Half-duplex). Un solo nodo puede transmitir en un
momento dado, y los nodos se turnan para transmitir.
Dúplex total (Full-duplex). Los nodos pueden transmitir y recibir
simultáneamente. La comunicación dúplex total suele requerir un control de
flujo que asegure que ninguno de los dispositivos envía datos a mayor
velocidad de la que el otro dispositivo puede recibir.
Las sesiones permiten que los nodos se comuniquen de manera organizada. Cada
sesión tiene tres fases:
1. Establecimiento de la conexión. Los nodos establecen contacto.
Negocian las reglas de la comunicación incluyendo los protocolos utilizados y
los parámetros de comunicación.
2. Transferencia de datos. Los nodos inician un diálogo para intercambiar
datos.
3. Liberación de la conexión. Cuando los nodos no necesitan seguir
comunicados, inician la liberación ordenada de la sesión.
Los pasos 1 y 3 representan una carga de trabajo adicional para el proceso de
comunicación. Esta carga puede no ser deseable para comunicaciones breves. Por
ejemplo, considere la comunicación necesaria para una tarea administrativa de la red.
Cuando una red administra varios dispositivos, éstos envían periódicamente un breve
informe de estado que suele constar de una sola trama. Si todos estos mensajes se
enviaran como parte de una sesión formal, las fases de establecimiento y liberación de
la conexión transmitirían más datos que los del propio mensaje.
En estas situaciones, se comunica sin conexión. El nodo emisor se limita a transmitir
los datos dando por sentado que el receptor está disponible.
Una sesión con conexión es aconsejable cuando la comunicación es compleja.
Imagine la transmisión de una gran cantidad de datos de un nodo a otro. Si no se
utilizaran controles formales, un solo error durante la transferencia obligaría a enviar
de nuevo todo el archivo. Una vez establecida la sesión, los nodos implicados pueden
pactar un procedimiento de comprobación. Si se produce un error, el nodo emisor sólo
debe retransmitir los datos enviados desde la última comprobación. El proceso de
gestión de actividades complejas se denomina administración de actividad.
Nivel o Capa de transporte
Todas las tecnologías de red establecen un tamaño máximo para las tramas que
pueden ser enviadas a través de la red. Por ejemplo, Ethernet limita el tamaño del
campo de datos a 1.500 bytes. Este límite es necesario por varias razones:
Las tramas de tamaño reducido mejoran el rendimiento de una red
compartida por muchos dispositivos. Si el tamaño de las tramas fuera ilimitado,
su transmisión podría monopolizar la red durante un tiempo excesivo. Las
tramas pequeñas permiten que los dispositivos se turnen a intervalos cortos de
tiempo y tengan más opciones de acceder a la red.
Al utilizar tramas pequeñas, es necesario volver a transmitir menos
datos cuando se produce un error. Si un mensaje de 100 KB contiene un error
en un solo byte, es preciso volver a transmitir los 100 KB. Si el mensaje se
divide en 100 tramas de 1 KB, basta con retransmitir una sola trama de 1 KB
para corregir el error.
Una de las responsabilidades de la capa de transporte consiste en dividir los
mensajes en fragmentos que coincidan con el límite del tamaño de la red. En el lado
receptor, la capa de transporte reensambla los fragmentos para recuperar el mensaje
original.
Cuando un mensaje se divide en varios fragmentos, aumenta la posibilidad de que
los segmentos no se reciban en el orden correcto. Al recibir los paquetes, la capa de
transporte debe recomponer el mensaje reensamblando los fragmentos en el orden
correcto. Para ello, la capa de transporte incluye un número de secuencia en la
cabecera del mensaje.
Muchas computadoras son multitarea y ejecutan varios programas
simultáneamente. Por ejemplo, la estación de trabajo de un usuario puede estar
ejecutando al mismo tiempo un proceso para transferir archivos a otra computadora,
recuperando el correo electrónico y accediendo a una base de datos de la red. La
capa de transporte debe entregar los mensajes del proceso de una computadora al
proceso correspondiente de la computadora de destino.
Según el modelo OSI, la capa de transporte asigna una identificación de punto de
acceso a servicio (SAP) a cada paquete (puerto es el término TCP/IP correspondiente
a un punto de acceso a servicio). La ID de un SAP es una dirección que identifica el
proceso que ha originado el mensaje. La ID permite que la capa de transporte del
nodo receptor encamine el mensaje al proceso adecuado.
La identificación de mensajes de distintos procesos para posibilitar su transmisión a
través de un mismo medio de red se denomina multiplexión. El procedimiento de
recuperación de mensajes y de su encaminamiento a los procesos adecuados se
denomina demultiplexión. Esta práctica es habitual en las redes diseñadas para
permitir que varios diálogos compartan un mismo medio de red.
Dado que una capa puede admitir distintos protocolos, la multiplexión y
demultiplexión puede producirse en distintas capas. Algunos ejemplos:
Transporte de distintos tipos de tramas Ethernet a través del mismo
medio (capa de enlace de datos).
Soporte simultáneo de NWLink y de TCP/IP en computadoras Windows
NT (capa de enlace de datos).
Mensajes de varios protocolos de transporte como TCP y UDP en un
sistema TCP/IP (capa de transporte).
Mensajes de distintos protocolos de aplicación (como Telnet, FTP y
SMTP) en un host UNIX (capas de sesión y superiores).
Aunque las capas de enlace de datos y de red pueden encargarse de detectar
errores en los datos transmitidos, además esta responsabilidad suele recaer sobre la
capa de transporte. La capa de transporte puede realizar dos tipos de detección de
errores:
Entrega fiable. Entrega fiable no significa que los errores no puedan
ocurrir, sino que los errores se detectan cuando ocurren. La recuperación
puede consistir únicamente en notificar el error a los procesos de las capas
superiores. Sin embargo, la capa de transporte suele solicitar que el paquete
erróneo se transmita nuevamente.
Entrega no fiable. No significa que los errores puedan producirse, sino
que la capa de transporte no los verifica. Dado que la comprobación requiere
cierto tiempo y reduce el rendimiento de la red, es frecuente que se utilice la
entrega no fiable cuando se confía en el funcionamiento de la red. Este es el
caso de la mayoría de redes de área local. La entrega no fiable es preferible
cuando los mensajes constan de un alto número de paquetes. Con frecuencia,
se denomina entrega de datagramas y cada paquete transmitido de este modo
se denomina datagrama.
La idea de que siempre es preferible utilizar la entrega fiable puede constituir un
error a la hora de diseñar la red. La entrega no fiable es aconsejable en al menos dos
situaciones: cuando la red es altamente fiable y es necesario optimizar su rendimiento
o cuando los paquetes contienen mensajes completos y la pérdida de un paquete no
plantea un problema crítico.
Nivel o Capa de red
Las redes más pequeñas normalmente constan de una sola red de área local, pero
la mayoría de las redes deben subdividirse. Una red que consta de varios segmentos
de red suele denominarse interred (no confundir con Internet).
Las subdivisiones de una interred pueden planificarse para reducir el tráfico de los
segmentos o para aislar las redes remotas conectadas a través de medios de
comunicación más lentos. Cuando las redes se subdividen, no es posible dar por
sentado que los mensajes se entregan en la red de área local. Es necesario recurrir a
un mecanismo que dirija los mensajes de una red a otra.
Para entregar mensajes en una interred, cada red
debe estar identificada de manera única por una
dirección de red. Al recibir un mensaje de las capas
superiores, la capa de red añade una cabecera al
mensaje que incluye las direcciones de red de origen
y destino. Esta combinación de datos sumada a la capa de red se denomina paquete.
La información de la dirección de red se utiliza para entregar el mensaje a la red
correcta. A continuación, la capa de enlace de datos puede utilizar la dirección del
nodo para realizar la entrega del mensaje.
El proceso de hacer llegar los paquetes a la red correcta se denomina
encaminamiento, y los dispositivos que encaminan los paquetes se denominan
encaminadores. Una interred tiene dos tipos de nodos:
Los nodos finales proporcionan servicios a los usuarios. Utilizan
una capa de red para añadir las direcciones de red a los paquetes, pero no
llevan a cabo el encaminamiento. En ocasiones, los nodos finales se
denominan sistemas finales (terminología OSI) o hosts (terminología TCP/IP).
Los encaminadores incorporan mecanismos especiales para
realizar el encaminamiento. Dado que se trata de una tarea compleja, los
encaminadores suelen ser dispositivos dedicados que no proporcionan
servicios a los usuarios finales. En ocasiones, los encaminadores se
denominan sistemas intermedios (terminología OSI) o gateways (terminología
TCP/IP).
La capa de red opera con independencia del medio físico, que es competencia de la
capa física. Dado que los encaminadores son dispositivos de la capa de red, pueden
utilizarse para intercambiar paquetes entre distintas redes físicas. Por ejemplo, un
encaminador puede enlazar una red Ethernet a una red Token Ring. Los
encaminadores también se utilizan frecuentemente para conectar una red de área
local, por ejemplo Ethernet, a un red de área extensa, por ejemplo ATM.
Nivel o Capa de enlace de datos
Los dispositivos que pueden comunicarse a través de una red suelen denominarse
nodos (en ocasiones se denominan estaciones y dispositivos). La capa de enlace de
datos es responsable de proporcionar la comunicación nodo a nodo en una misma red
de área local. Para ello, la capa de enlace de datos debe realizar dos funciones. Debe
proporcionar un mecanismo de direcciones que permita entregar los mensajes en los
nodos correctos y debe traducir los mensajes de las capas superiores en bits que
puedan ser transmitidos por la capa física.
Cuando la capa de enlace de datos recibe un mensaje, le da formato pare
transformarlo en una trama de datos (denominada igualmente paquete). Las secciones
de una trama de datos se denominan campos. Los campos del ejemplo son los
siguientes:
Indicador de inicio. Un patrón de bits que indica el inicio de una trama
de datos.
Dirección de origen. La dirección del nodo que realiza el envío se
incluye para poder dirigir las respuestas al mensaje.
Dirección de destino. Cada nodo queda identificado por una dirección.
La capa de enlace de datos del remitente añade la dirección de destino a la
trama. La capa de enlace de datos del destinatario examine la dirección de
destino para identificar los mensajes que debe recibir.
Control. En muchos casos es necesario incluir información adicional de
control. Cada protocolo determine la información específica.
Datos. Este campo contiene todos los datos enviados a la capa de
enlace de datos por las capas superiores del protocolo.
Control de errores. Este campo contiene información que permite que
el nodo destinatario determine si se ha producido algún error durante la
transmisión. El sistema habitual es la verificación de redundancia cíclica (CRC),
que consiste en un valor calculado que resume todos los datos de la trama. El
nodo destinatario calcula nuevamente el valor y, si coincide con el de la trama,
entiende que la trama se ha transmitido sin errores.
La entrega de tramas resulta muy sencilla en una red de área local. Un nodo
remitente se limita a transmitir la trama. Cada nodo de la red ve la trama y examina su
dirección de destino. Cuando coincide con su dirección, la capa de enlace de datos del
nodo recibe la trama y la envía a la siguiente capa de la pile.
Nivel o Capa física
La capa física comunica directamente con el medio de comunicación y tiene dos
responsabilidades: enviar bits y recibir bits. Un dígito binario o bit es la unidad básica
de información en comunicación de datos. Un bit sólo puede tener dos valores, 1 ó 0,
representados por distintos estados en el medio de comunicación. Otras capas se
responsabilizan del agrupamiento de los bits de forma que representen datos de un
mensaje.
Los bits se representan por cambios en las señales del medio de la red. Algunos
cableados representan los unos y los ceros con distintos voltajes, otros utilizan tonos
de audio distintos y otros utilizan métodos más sofisticados, por ejemplo transiciones
de estado (cambios de alto a bajo voltaje y viceversa).
Se utiliza una gran variedad de medios en la comunicación de datos; entre otros,
cables eléctricos, fibras ópticas, ondas de luz o de radio y microondas. El medio
empleado puede variar: para sustituirlo, basta con utilizar un conjunto distinto de
protocolos de capa física. Las capas superiores son totalmente independientes del
proceso utilizado para transmitir los bits a través del medio de la red.
Una distinción importante es que la capa física OSI no describe los medios,
estrictamente hablando. Las especificaciones de la capa física describen el modo
datos en que los datos se codifican en señales del medio y las características de la
interfaz de conexión con el medio, pero no describen el medio en sí. Sin embargo, en
la práctica, la mayoría de las normas de las capas físicas incluyen las características
de la capa física OSI y del medio.
Paquetes de datos y el modelo OSI
El proceso de creación de paquetes se inicia en el nivel de aplicación del modelo
OSI, donde se generan los datos. La información a enviar a través de la red comienza
en el nivel de aplicación y desciende a lo largo de los siete niveles.
En cada nivel, se agrega a los datos información relevante de ese nivel. Esta
información es utilizada por el correspondiente nivel del equipo receptor. El nivel de
enlace de datos del equipo receptor, por ejemplo,
leerá la información agregada en el nivel de enlace
de datos del equipo emisor.
En el nivel de transporte, el bloque de datos
original se divide en los paquetes reales. El
protocolo define la estructura de los paquetes
utilizados por los dos equipos.
Cuando el paquete alcanza el nivel de transporte, se agrega una secuencia de
información que guía al equipo receptor en la desagrupación de los datos de los
paquetes.
Cuando, finalmente, los paquetes pasan a través del nivel físico al cable, contienen
información de cada uno de los otros seis niveles.
Direccionamiento de paquetes
La mayoría de los paquetes de la red se dirigen a un equipo específico y, como
resultado, obtienen la atención de un único equipo. Cada tarjeta de red ve todos los
paquetes enviados en su segmento de cable, pero interrumpe el equipo sólo si la
dirección del paquete coincide con la dirección individual de la tarjeta. De forma
alternativa, se puede utilizar una dirección de tipo difusión múltiple. Los paquetes
enviados con una dirección de tipo difusión múltiple pueden recibir la atención
simultánea de varios equipos de la red.
En situaciones que envuelven grandes redes que cubren grandes regiones (o
incluso países) y ofrecen varios caminos de comunicación posibles, la conectividad y
la conmutación de componentes de la red utilizan la información de direccionamiento
del paquete para determinar el mejor camino para los paquetes.
Cómo dirigir los paquetes
Las componentes de red utilizan la información de direccionamiento de los paquetes
para dirigir los paquetes a sus destinos o para mantenerlos alejados de las posiciones
de la red a las que no pertenecen. Las dos funciones siguientes juegan un papel
principal en la dirección apropiada de paquetes:
Reenvío de paquetes. Los equipos envían un paquete al siguiente
componente de red apropiado en base a la dirección del encabezado del
paquete.
Filtrado de paquetes. Los equipos utilizan criterios, como una
dirección, para seleccionar los paquetes específicos.
Windows NT y el modelo OSI
Los fabricantes de redes utilizan el modelo OSI en el diseño de sus productos.
Cuando cada uno sigue el modelo, existe una gran probabilidad de que diferentes
sistemas puedan comunicarse. Una deficiencia del modelo procede del hecho de que
muchos fabricantes crearon sus productos antes de que el modelo fuera aceptado;
estos productos prematuros puede que no sigan el modelo exactamente.
Niveles OSI y Windows NT
Para simplificar el modelo, Windows NT comprime
los siete niveles en sólo tres: controladores del
sistema de archivos, protocolos de transporte y
controladores de la tarjeta de red.
Windows NT utiliza controladores para
proporcionar comunicación entre el sistema operativo y la red. Un controlador es un
programa de control específico del dispositivo que permite a un equipo trabajar con un
dispositivo particular, como una impresora o una unidad de disco. Cada vez que se
instala un nuevo elemento hardware, como una impresora, tarjeta de sonido o tarjeta
de red, se necesitan instalar los controladores software que hacen funcionar la tarjeta.
Controladores del sistema de archivos
Los controladores del sistema de archivos funcionan en los niveles de aplicación, de
presentación y de sesión del modelo OSI. Cuando estos controladores detectan que
una aplicación está solicitando recursos de un sistema remoto, redirigen la demanda al
sistema apropiado. Ejemplos de estos controladores incluyen el sistema de archivos
de Windows NT (NTFS) y la tabla de asignación de archivos (FAT) y las aplicaciones
de servicios instaladas en Windows NT Server y Windows NT Workstation.
Protocolos de transporte
Los protocolos de transporte operan en los niveles de transporte y de red del
modelo OSI. Son los responsables de agregar información de la dirección software a
los datos y de garantizar la fiabilidad de la transmisión. Los protocolos de transporte se
vinculan con la tarjeta de red (NIC) para ofrecer comunicación. Durante la instalación y
la configuración de Windows NT, siempre se deben enlazar estos protocolos a una
tarjeta de red específica.
Controladores de la tarjeta de red (NIC)
Los controladores de la tarjeta de red (NIC) funcionan en los niveles de enlace de
datos y físico del modelo OSI. Son responsables de agregar información de la
dirección hardware al paquete de datos y de dar formato a los datos para la
transmisión a través de la tarjeta de red (NIC) y el cable. Los controladores de la
tarjeta de red (NIC) son independientes de protocolo, permitiendo que los sistemas
basados en Windows NT transporten datos a una variedad de sistemas de red.
Interfaces de Windows NT
Windows NT soporta muchos redirectores, protocolos de transporte y tarjetas de red
diferentes. En vista de las numerosas combinaciones posibles, era necesario
desarrollar un método de manejo de interacciones entre ellas. Para resolver este
problema, Microsoft desarrolló interfaces comunes (niveles frontera) para que actuaran
como traductores entre cada nivel. Así, siempre que se escribiera alguna componente
de la red para comunicarse con las interfaces frontera se podría utilizar con el modelo.
Interfaces de programación de aplicaciones (API, Application Programming
Intefaces)
Las interfaces de programación de aplicaciones (API) son rutinas del sistema que
ofrecen a los programadores acceso a los servicios proporcionados por el sistema
operativo. Las API para redes de Windows NT se encuentran entre las aplicaciones de
usuario y los controladores y redirectores del sistema de archivos. Estas API permiten
que una aplicación controle o sea controlada por otras aplicaciones. Son responsables
de establecer una sesión entre el emisor y el receptor de la red. Windows NT admite
varias API para redes.
Interfaces de controlador de transporte (TDI, Transport Driver Interfaces)
Las interfaces del controlador de transporte (TDI) operan entre los controladores del
sistema de archivos y los protocolos de transporte. Éstos permitirán que cualquier
protocolo escriba en el TDI para comunicarse con los controladores del sistema de
archivos.
Especificaciones de interfaz de controlador de red (NDIS, Network Driver
Interface Specifications)
Las especificaciones de interfaz de controlador de red (NDIS) actúan entre los
protocolos de transporte y los controladores de la tarjeta de red (NIC). Siempre que un
controlador de tarjeta de red se escriba en los estándares NDIS, se comunicará con
los protocolos de transporte.
El estándar IEEE 802.x
Los dos niveles inferiores del modelo OSI están relacionados con el hardware: la
tarjeta de red y el cableado de la red. Para avanzar más en el refinamiento de los
requerimientos de hardware que operan dentro de estos niveles, el Instituto de
Ingenieros Eléctricos y Electrónicos (IEEE, Institute of Electrical and Electronics
Engineers) ha desarrollado mejoras específicas para diferentes tarjetas de red y
cableado. De forma colectiva, estos refinamientos se conocen como proyecto 802.
El modelo del proyecto 802
Cuando comenzaron a aparecer las primeras redes de área local (LAN, Local Area
Networks) como herramientas potenciales de empresa a finales de los setenta, el IEEE
observó que era necesario definir ciertos estándares para redes de área local. Para
conseguir esta tarea, el IEEE emprendió lo que se conoce como proyecto 802, debido
al año y al mes de comienzo (febrero de 1980).
Aunque los estándares IEEE 802 publicados realmente son anteriores a los
estándares ISO, ambos estaban en desarrollo aproximadamente al mismo tiempo y
compartían información que concluyó en la creación de dos modelos compatibles.
El proyecto 802 definió estándares de redes para las componentes físicas de una
red (la tarjeta de red y el cableado) que se corresponden con los niveles físico y de
enlace de datos del modelo OSI.
Las especificaciones 802 definen estándares para:
Tarjetas de red (NIC).
Componentes de redes de área global (WAN, Wide Area Networks).
Componentes utilizadas para crear redes de cable coaxial y de par
trenzado.
Las especificaciones 802 definen la forma en que las tarjetas de red acceden y
transfieren datos sobre el medio físico. Éstas incluyen conexión, mantenimiento y
desconexión de dispositivos de red.
La selección del protocolo a ejecutar en el nivel de enlace de datos es la decisión
más importante que se debe tomar cuando se diseña una red de área local (LAN).
Este protocolo define la velocidad de la red, el método utilizado para acceder a la red
física, los tipos de cables que se pueden utilizar y las tarjetas de red y dispositivos que
se instalan.
Categorías de IEEE 802
Los estándares de redes de área local definidos por los comités 802 se clasifican en
16 categorías que se pueden identificar por su número acompañado del 802:
Categorías de las especificaciones 802
Especificaci Descripción
ón
802.1 Establece los estándares de interconexión
relacionados con la gestión de redes.
802.2 Define el estándar general para el nivel de enlace
de datos. El IEEE divide este nivel en dos
subniveles: los niveles LLC y MAC. El nivel MAC
varía en función de los diferentes tipos de red y
está definido por el estándar IEEE 802.3.
802.3 Define el nivel MAC para redes de bus que
utilizan Acceso múltiple por detección de portadora
con detección de colisiones (CSMA/CD, Carrier-
Sense Multiple Access with Collision Detection).
Éste es el estándar Ethernet.
802.4 Define el nivel MAC para redes de bus que
utilizan un mecanismo de paso de testigo (red de
área local Token Bus).
802.5 Define el nivel MAC para redes Token Ring (red
de área local Token Ring).
802.6 Establece estándares para redes de área
metropolitana (MAN, Metropolitan Area Networks),
que son redes de datos diseñadas para
poblaciones o ciudades. En términos de extensión
geográfica, las redes de área metropolitana (MAN)
son más grandes que las redes de área local
(LAN), pero más pequeñas que las redes de área
global (WAN). Las redes de área metropolitana
(MAN) se caracterizan, normalmente, por
conexiones de muy alta velocidad utilizando cables
de fibra óptica u otro medio digital.
802.7 Utilizada por el grupo asesor técnico de banda
ancha (Broadband Technical Advisory Group).
802.8 Utilizada por el grupo asesor técnico de fibra
óptica (Fiber-Optic Technical Advisory Group).
802.9 Define las redes integradas de voz y datos.
802.10 Define la seguridad de las redes.
802.11 Define los estándares de redes sin cable.
802.11b Ratificado el 16 de Septiembre de 1.999,
proporciona el espaldarazo definitivo a la normativa
estándar inicial, ya que permite operar a
velocidades de 11 Mbps y resuelve carencias
técnicas relativas a la falta de itinerancia,
seguridad, escalabilidad, y gestión existentes hasta
ahora.
802.12 Define el acceso con prioridad por demanda
(Demand Priority Access) a una LAN, 100BaseVG-
AnyLAN.
802.13 No utilizada.
802.14 Define los estándares de módem por cable.
802.15 Define las redes de área personal sin cable
(WPAN, Wireless Personal Area Networks).
802.16 Define los estándares sin cable de banda ancha.
Mejoras sobre el modelo OSI
Los dos niveles inferiores del modelo OSI, el nivel físico y el nivel de enlace de
datos, definen la forma en que múltiples equipos pueden utilizar la red
simultáneamente sin que exista interferencia entre ellas.
El proyecto IEEE 802 incorporó las especificaciones a esos dos niveles para crear
estándares que tengan definidos los entornos LAN dominantes.
Mientras en las redes de conmutación sólo dos estaciones podían acceder en un
momento dado al medio físico, lo que era fácilmente controlable por los protocolos de
control de enlace, en las redes de área local (como lo son las redes de difusión) son
varias las estaciones que en un momento dado pueden acceder al medio físico en un
mismo momento, complicando considerablemente los procedimietnos de control de
ese procesoTras la decisión de que se necesitaban más detalles en el nivel de enlace
de datos, el comité de estándares 802 dividió el nivel de enlace de datos en dos
subniveles:
Control de enlace lógico
(LLC, Logical Link Control).
Establece y finaliza los enlaces,
controla el tráfico de tramas,
secuencia las tramas y confirma la
recepción de las tramas.
Control de acceso al medio
(MAC, Media Access Control).
Gestiona el acceso al medio, delimita
las tramas, comprueba los errores de
las tramas y reconoce las direcciones
de las tramas.
Subnivel de control de enlace lógico (LLC)
El subnivel LLC gestiona la comunicación de enlace de datos y define el uso de
puntos de interfaz lógicos llamados puntos de acceso al servicio (SAP, Service Access
Points). Otros equipos pueden hacer referencia y utilizar los SAP para transferir
información desde el subnivel LLC hacia los niveles superiores del modelo OSI. La
categoría 802.2 define estos estándares.
Subnivel de control de acceso al medio (MAC)
El subnivel MAC es el más bajo de los dos subniveles, proporcionando acceso
compartido al nivel físico para las tarjetas de red de los equipos. El nivel MAC se
comunica directamente con la tarjeta de red y es el responsable del envío de datos
libre de errores entre dos equipos de la red.
Las categorías 802.3, 802.4, 802.5 y 802.12 definen estándares tanto para este
subnivel como para el nivel 1 del modelo OSI, el nivel físico.
Controladores de dispositivos y OSI
Las tarjetas de red juegan un papel importante en la conexión de un equipo a la
parte física de la red.
Función de los controladores
Un controlador (algunas veces llamado controlador de dispositivo) es un software
que permite al equipo trabajar con un dispositivo particular. Aunque se puede instalar
un dispositivo en un equipo, el sistema operativo del equipo no puede comunicarse
con el dispositivo hasta que se haya instalado y configurado el controlador para ese
dispositivo. El controlador software indica al equipo la forma de trabajar con el
dispositivo para que realice las tareas asignadas como se supone que debe hacerlas.
Existen controladores para casi todos los tipos de dispositivo y periféricos de los
equipos incluyendo:
Dispositivos de entrada, como los dispositivos de ratón y teclado.
Controladores de disco SCSI e IDE.
Unidades de disco duro y de disco flexible.
Dispositivos multimedia como micrófonos, cámaras y grabadoras.
Tarjetas de red (NIC).
Impresoras, trazadoras, unidades de cinta, etc.
Normalmente, el sistema operativo del equipo trabaja con el controlador para hacer
que el dispositivo realice una operación. Las impresoras proporcionan una buena
muestra del uso de los controladores. Las impresoras de diferentes fabricantes tienen
distintas características y funciones. Sería imposible para los fabricantes de equipos
equipar sus productos con todo el software necesario para identificar y trabajar con
todos los tipos de impresora. En su lugar, los fabricantes de impresoras disponen de
controladores para cada impresora. Antes de que un equipo pueda enviar documentos
a una impresora se debe instalar el controlador de esa impresora en el disco duro del
equipo.
Como regla general, los fabricantes de componentes, como periféricos o tarjetas
que se deben instalar físicamente, son los responsables de proporcionar los
controladores para sus productos. Por ejemplo, los fabricantes de tarjetas de red son
los responsables de disponer de controladores para sus tarjetas. Generalmente, los
controladores se incluyen en un disco junto con el producto en el momento de la
adquisición, se incluyen con el sistema operativo del equipo o se encuentran
disponibles para descargarlos desde la página web del fabricante.
El entorno de red
Los controladores de red ofrecen comunicación entre una tarjeta de red y el
redirector de la red que se encuentra en ejecución en el equipo. El redirector es la
parte del software de red que acepta demandas de entrada/salida (E/S) de archivos
remotos y, a continuación, los envía, o redirige, sobre la red a otro equipo. Durante la
instalación, el controlador se almacena en el disco duro del equipo.
Los controladores y el modelo OSI
Los controladores de las tarjetas de red residen en el subnivel MAC del nivel de
enlace de datos del modelo OSI. El subnivel MAC es el responsable de proporcionar
acceso compartido al nivel físico para las tarjetas de red de los equipos. Los
controladores de las tarjetas de red proporcionan comunicación virtual entre el equipo
y la tarjeta de red lo que proporciona un enlace entre el equipo y el resto de la red.
Los controladores y el software de red
Es común que un fabricante de tarjetas de red proporcione los controladores a los
vendedores de software de red de forma que se puedan incluir los drivers con el
software de funcionamiento de la red.
La lista de compatibilidad de hardware (HCL, Hardware Compatibility List)
proporcionada por los fabricantes de sistemas operativos describen los controladores
que han comprobado e incluido con su sistema operativo. La lista de compatibilidad de
hardware para un sistema operativo de red puede incluir más de 100 controladores de
la tarjeta de red. Esto no significa que un controlador que no aparezca en la lista no
funcione con ese sistema operativo; sólo quiere decir que el fabricante del sistema
operativo no lo ha comprobado.
Aun cuando el controlador de una tarjeta determinada no haya sido incluido con el
sistema operativo de red, es normal que el fabricante de la tarjeta de red incluya
controladores para los sistemas operativos de red más populares en un disco que se
adjunta con la tarjeta. Antes de comprar una tarjeta, no obstante, debe asegurarse de
que la tarjeta tiene un controlador que funcionará con un sistema operativo de red
determinado.
Especificación de interfaz de controlador de red (NDIS, Network Driver Interface
Specification)
La Especificación de interfaz de controlador de red (NDIS) es un estándar que
define una interfaz para la comunicación entre el subnivel MAC y los controladores de
protocolos. Permitiendo el uso simultáneo de múltiples protocolos y controladores,
NDIS considera un entorno flexible de intercambio de datos. Ésta define la interfaz
software, conocida como interfaz NDIS. Los controladores de protocolos utilizan esta
interfaz para comunicarse con las tarjetas de red. La ventaja de NDIS es que ofrece
multiplexación de protocolos, de forma que se pueden utilizar al mismo tiempo pilas de
protocolos múltiples. Tres tipos de software de red tienen interfaces descritas por NDIS
:
Pila del protocolo. Proporciona comunicaciones de red. Una pila
genera y desagrupa las tramas (información de control y datos) que se envían
a la red y se reciben de ella.
Controlador del adaptador. Controla el hardware de interfaz de red.
Opera en el subnivel MAC y transfiere las tramas entre la pila del protocolo y el
hardware de interfaz.
Gestor del protocolo. Controla la actividad entre la pila del protocolo y
el MAC.
Microsoft y 3Com desarrollaron conjuntamente la especificación NDIS para su uso
con Warp Server y Windows NT Server. Todos los fabricantes de tarjetas de red hacen
que sus placas funcionen con estos sistemas operativos suministrando controladores
software ajustados a NDIS.
Interfaz abierta de enlace de datos (ODI, Open Data-Link Interface)
La interfaz abierta de enlace de datos (ODI) es una especificación adoptada por
Novell y Apple para simplificar el desarrollo de controladores para sus sistemas
operativos de red. ODI proporciona soporte para múltiples protocolos en una única
tarjeta de red. De forma parecida a NDIS, ODI permite escribir los controladores de
Novell NetWare sin hacer referencia al protocolo que se utilizará por encima de ellos.
Todos los fabricantes de tarjetas de red pueden hacer que sus placas funcionen con
estos sistemas operativos proporcionando controladores software ajustados a ODI.
Conexión entre NDIS y ODI
ODI y NDIS son incompatibles. Éstos presentan interfaces de programación
diferentes para los niveles superiores del software de red. Novell, IBM y Microsoft
ofrecen software de traducción de ODI a NDIS para establecer una conexión entre las
dos interfaces.
La mayoría de los fabricantes de tarjetas de red proporcionan controladores
ajustados tanto a NDIS como a ODI con sus placas.
Última actualización del tema completo: . Versión 1.1.0
Introducción a los Protocolos
La función de los protocolos
Los protocolos son reglas y procedimientos para la comunicación. El término
«protocolo» se utiliza en distintos contextos. Por ejemplo, los diplomáticos de un país
se ajustan a las reglas del protocolo creadas para ayudarles a interactuar de forma
correcta con los diplomáticos de otros países. De la misma forma se aplican las reglas
del protocolo al entorno informático. Cuando dos equipos están conectados en red, las
reglas y procedimientos técnicos que dictan su comunicación e interacción se
denominan protocolos.
Cuando piense en protocolos de red recuerde estos tres puntos:
Existen muchos protocolos. A pesar de que cada protocolo facilita la
comunicación básica, cada uno tiene un propósito diferente y realiza distintas
tareas. Cada protocolo tiene sus propias ventajas y sus limitaciones.
Algunos protocolos sólo trabajan en ciertos niveles OSI. El nivel al
que trabaja un protocolo describe su función. Por ejemplo, un protocolo que
trabaje a nivel físico asegura que los paquetes de datos pasen a la tarjeta de
red (NIC) y salgan al cable de la red.
Los protocolos también puede trabajar juntos en una jerarquía o
conjunto de protocolos. Al igual que una red incorpora funciones a cada uno
de los niveles del modelo OSI, distintos protocolos también trabajan juntos a
distintos niveles en la jerarquía de protocolos. Los niveles de la jerarquía de
protocolos se corresponden con los niveles del modelo OSI. Por ejemplo, el
nivel de aplicación del protocolo TCP/IP se corresponde con el nivel de
presentación del modelo OSI. Vistos conjuntamente, los protocolos describen
la jerarquía de funciones y prestaciones.
Cómo funcionan los protocolos
La operación técnica en la que los datos son transmitidos a través de la red se
puede dividir en dos pasos discretos, sistemáticos. A cada paso se realizan ciertas
acciones que no se pueden realizar en otro paso. Cada paso incluye sus propias
reglas y procedimientos, o protocolo.
Los pasos del protocolo se tienen que llevar a cabo en un orden apropiado y que
sea el mismo en cada uno de los equipos de la red. En el equipo origen, estos pasos
se tienen que llevar a cabo de arriba hacia abajo. En el equipo de destino, estos pasos
se tienen que llevar a cabo de abajo hacia arriba.
El equipo origen
Los protocolos en el equipo origen:
1. Se dividen en secciones más pequeñas, denominadas paquetes.
2. Se añade a los paquetes información sobre la dirección, de forma que el
equipo de destino pueda determinar si los datos le pertenecen.
3. Prepara los datos para transmitirlos a través de la NIC y enviarlos a
través del cable de la red.
El equipo de destino
Los protocolos en el equipo de destino constan de la misma serie de pasos, pero en
sentido inverso.
1. Toma los paquetes de datos del cable y los introduce en el equipo a
través de la NIC.
2. Extrae de los paquetes de datos toda la información transmitida
eliminando la información añadida por el equipo origen.
3. Copia los datos de los paquetes en un búfer para reorganizarlos
enviarlos a la aplicación.
Los equipos origen y destino necesitan realizar cada paso de la misma forma para
que los datos tengan la misma estructura al recibirse que cuando se enviaron.
Protocolos encaminables
Hasta mediados de los ochenta, la mayoría de las redes de área local (LAN)
estaban aisladas. Una LAN servía a un departamento o a una compañía y rara vez se
conectaba a entornos más grandes. Sin embargo, a medida que maduraba la
tecnología LAN, y la comunicación de los datos necesitaba la expansión de los
negocios, las LAN evolucionaron, haciéndose componentes de redes de
comunicaciones más grandes en las que las LAN podían hablar entre sí.
Los datos se envían de una LAN a otra a lo largo de varios caminos disponibles, es
decir, se encaminan. A los protocolos que permiten la comunicación LAN a LAN se les
conoce como protocolos encaminables. Debido a que los protocolos encaminables se
pueden utilizar para unir varias LAN y crear entornos de red de área extensa, han
tomado gran importancia.
Protocolos en una arquitectura multinivel
En una red, tienen que trabajar juntos varios protocolos. Al trabajar juntos, aseguran
que los datos se preparan correctamente, se transfieran al destino correspondiente y
se reciban de forma apropiada.
El trabajo de los distintos protocolos tiene que estar coordinado de forma que no se
produzcan conflictos o se realicen tareas incompletas. Los resultados de esta
coordinación se conocen como trabajo en niveles.
Jerarquías de protocolos
Una jerarquía de protocolos es una combinación de protocolos. Cada nivel de la
jerarquía especifica un protocolo diferente para la gestión de una función o de un
subsistema del proceso de comunicación. Cada nivel tiene su propio conjunto de
reglas. Los protocolos definen las reglas para cada nivel en el modelo OSI:
Nivel de Inicia o acepta una petición
aplicación
Nivel de Añade información de formato, presentación
presentación y cifrado al paquete de datos
Nivel de Añade información del flujo de tráfico para
sesión determinar cuándo se envía el paquete
Nivel de Añade información para el control de errores
transporte
Nivel de red Se añade información de dirección y
secuencia al paquete
Nivel de Añade información de comprobación de envío
enlace de y prepara los datos para que vayan a la
datos conexión física
Nivel físico El paquete se envía como una secuencia de
bits
Los niveles inferiores en el modelo OSI especifican cómo pueden conectar los
fabricantes sus productos a los productos de otros fabricantes, por ejemplo, utilizando
NIC de varios fabricantes en la misma LAN. Cuando utilicen los mismos protocolos,
pueden enviar y recibir datos entre sí. Los niveles superiores especifican las reglas
para dirigir las sesiones de comunicación (el tiempo en el que dos equipos mantienen
una conexión) y la interpretación de aplicaciones. A medida que aumenta el nivel de la
jerarquía, aumenta la sofisticación de las tareas asociadas a los protocolos.
El proceso de ligadura
El proceso de ligadura (binding process), el proceso con el que se conectan los
protocolos entre sí y con la NIC, permite una gran flexibilidad a la hora de configurar
una red. Se pueden mezclar y combinar los protocolos y las NIC según las
necesidades. Por ejemplo, se pueden ligar dos jerarquías de protocolos a una NIC,
como Intercambio de paquetes entre redes e Intercambio de paquetes en secuencia
(IPX/SPX). Si hay más de una NIC en el equipo, cada jerarquía de protocolos puede
estar en una NIC o en ambas.
El orden de ligadura determina la secuencia en la que el sistema operativo ejecuta
el protocolo. Cuando se ligan varios protocolos a una NIC, el orden de ligadura es la
secuencia en que se utilizarán los protocolos para intentar una comunicación correcta.
Normalmente, el proceso de ligadura se inicia cuando se instala o se inicia el sistema
operativo o el protocolo. Por ejemplo, si el primer protocolo ligado es TCP/IP, el
sistema operativo de red intentará la conexión con TCP/IP antes de utilizar otro
protocolo. Si falla esta conexión, el equipo tratará de realizar una conexión utilizando el
siguiente protocolo en el orden de ligadura.
El proceso de ligadura consiste en asociar más de una jerarquía de protocolos a la
NIC. Las jerarquías de protocolos tienen que estar ligadas o asociadas con los
componentes en un orden para que los datos puedan moverse adecuadamente por la
jerarquía durante la ejecución. Por ejemplo, se puede ligar TCP/IP al nivel de sesión
del Sistema básico de entrada/salida en red (NetBIOS), así como al controlador de la
NIC. El controlador de la NIC también está ligado a la NIC.
Jerarquías estándar
La industria informática ha diseñado varios tipos de protocolos como modelos
estándar de protocolo. Los fabricantes de hardware y software pueden desarrollar sus
productos para ajustarse a cada una de las combinaciones de estos protocolos. Los
modelos más importantes incluyen:
La familia de protocolos ISO/OSI.
La arquitectura de sistemas en red de IBM (SNA).
Digital DECnet.
Novell NetWare.
Apple Talk de Apple.
El conjunto de protocolos de Internet, TCP/IP.
Los protocolos existen en cada nivel de estas jerarquías, realizando las tareas
especificadas por el nivel. Sin embargo, las tareas de comunicación que tienen que
realizar las redes se agrupan en un tipo de protocolo entre tres. Cada tipo está
compuesto por uno o más niveles del modelo OSI.
Antes del modelo de referencia OSI se escribieron muchos protocolos. Por tanto, no
es extraño encontrar jerarquías de protocolos que no se correspondan directamente
con el modelo OSI.
Protocolos de aplicación
Los protocolos de aplicación trabajan en el nivel superior del modelo de referencia
OSI y proporcionan interacción entre aplicaciones e intercambio de datos.
APPC (Comunicación avanzada entre programas): Protocolo SNA
Trabajo en Grupo de IBM, mayormente utilizado en equipos AS/400. APPC se
define como un protocolo de aplicación porque trabaja en el nivel de
presentación del modelo OSI. Sin embargo, también se considera un protocolo
de transporte porque APPC utiliza el protocolo LU 6.2 que trabaja en los
niveles de transporte y de sesión del modelo OSI.
FTAM (Acceso y gestión de la transferencia de archivos): Un
protocolo OSI de acceso a archivos
X.400: Un protocolo CCITT para las transmisiones internacionales de
correo electrónico.
X.500: Un protocolo CCITT para servicios de archivos y directorio entre
sistemas.
SMTP (Protocolo básico para la transferencia de correo): Un
protocolo Internet para las transferencias de correo electrónico.
FTP (Protocolo de transferencia de archivos): Un protocolo para la
transferencia de archivos en Internet.
SNMP (Protocolo básico de gestión de red): Un protocolo Internet
para el control de redes y componentes.
Telnet: Un protocolo Internet para la conexión a máquinas remotas y
procesar los datos localmente.
SMBs (Bloques de mensajes del servidor) de Microsoft y clientes o
redirectores: Un protocolo cliente/servidor de respuesta a peticiones.
NCP (Protocolo básico de NetWare) y clientes o redirectores: Un
conjunto de protocolos de servicio.
AppleTalk y AppleShare: Conjunto de protocolos de red de Apple.
AFP (Protocolo de archivos AppleTalk): Protocolo de Apple para el
acceso a archivos remotos.
DAP (Protocolo de acceso a datos): Un protocolo de DECnet para el
acceso a archivos.
Protocolos de transporte
Los protocolos de transporte facilitan las sesiones de comunicación entre equipos y
aseguran que los datos se pueden mover con seguridad entre equipos.
TCP: El protocolo de TCP/IP para
la entrega garantizada de datos en forma
de paquetes secuenciados.
SPX: Parte del conjunto de
protocolos IPX/SPX de Novell para datos
en forma de paquetes secuenciados.
NWLink: La implementación de
Microsoft del protocolo IPX/SPX.
NetBEUI (Interfaz de usuario ampliada NetBIOS): Establece sesiones
de comunicación entre equipos (NetBIOS) y proporciona los servicios de
transporte de datos subyacentes (NetBEUI).
ATP (Protocolo de transacciones Apple Talk) y NBP (Protocolo de
asignación de nombres): Protocolos de Apple de sesión de comunicación y
de transporte de datos.
Protocolos de red
Los protocolos de red proporcionan lo que se denominan «servicios de enlace».
Estos protocolos gestionan información sobre direccionamiento y encaminamiento,
comprobación de errores y peticiones de retransmisión. Los protocolos de red también
definen reglas para la comunicación en un entorno de red particular como es Ethernet
o Token Ring.
IP: El protocolo de TCP/IP para el encaminamiento de paquetes.
IPX: El protocolo de Novell para el encaminamiento de paquetes.
NWLink: La implementación de Microsoft del protocolo IPX/SPX.
NetBEUI: Un protocolo de transporte que proporciona servicios de
transporte de datos para sesiones y aplicaciones NetBIOS.
DDP (Protocolo de entrega de datagramas): Un protocolo de Apple
Talk para el transporte de datos.
Estándares de protocolo
El modelo OSI se utiliza para definir los protocolos que se tienen que utilizar en cada
nivel. Los productos de distintos fabricantes que se ajustan a este modelo se pueden
comunicar entre sí.
La ISO, el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE), ANSI (Instituto de
Estandarización Nacional Americano), CCITT (Comité Consultivo Internacional de
Telegrafía y Telefonía), ahora llamado ITU (Unión Internacional de
Telecomunicaciones) y otros organismos de estandarización han desarrollado
protocolos que se correspondan con algunos de los niveles del modelo OSI.
Los protocolos de IEEE a nivel físico son:
802.3 (Ethernet). Es una red
lógica en bus que puede transmitir datos
a 10 Mbps. Los datos se transmiten en la
red a todos los equipos. Sólo los equipos
que tenían que recibir los datos informan
de la transmisión. El protocolo de acceso
de múltiple con detección de portadora
con detección de colisiones (CSMA/CD) regula el tráfico de la red permitiendo
la transmisión sólo cuando la red
esté despejada y no haya otro equipo
transmitiendo.
802.4 (Token Bus). Es una
red en bus que utiliza un esquema de
paso de testigo. Cada equipo recibe
todos los datos, pero sólo los
equipos en los que coincida la
dirección responderán. Un testigo
que viaja por la red determina quién
es el equipo que tiene que informar.
802.5 (Token Ring). Es un
anillo lógico que transmite a 4 ó a 16 Mbps. Aunque se le llama en anillo, está
montada como una estrella ya que cada equipo está conectado a un hub.
Realmente, el anillo está dentro del hub. Un token a través del anillo determina
qué equipo puede enviar datos.
El IEEE definió estos protocolos para facilitar la comunicación en el subnivel de
Control de acceso al medio (MAC).
Un controlador MAC está situado en el subnivel de Control de acceso al medio; este
controlador de dispositivo es conocido como controlador de la NIC. Proporciona
acceso a bajo nivel a los adaptadores de red para proporcionar soporte en la
transmisión de datos y algunas funciones básicas de control del adaptador.
Un protocolo MAC determina qué equipo puede utilizar el cable de red cuando
varios equipos intenten utilizarlo simultáneamente. CSMA/CD, el protocolo 802.3,
permite a los equipos transmitir datos cuando no hay otro equipo transmitiendo. Si dos
máquinas transmiten simultáneamente se produce una colisión. El protocolo detecta la
colisión y detiene toda transmisión hasta que se libera el cable. Entonces, cada equipo
puede volver a tratar de transmitir después de esperar un período de tiempo aleatorio.
TCP/IP
El Protocolo de control de transmisión/Protocolo Internet (TCP/IP) es un conjunto de
Protocolos aceptados por la industria que permiten la comunicación en un entorno
heterogéneo (formado por elementos diferentes). Además, TCP/IP proporciona un
protocolo de red encaminable y permite acceder a Internet y a sus recursos. Debido a
su popularidad, TCP/IP se ha convertido en el estándar de hecho en lo que se conoce
como interconexión de redes, la intercomunicación en una red que está formada por
redes más pequeñas.
TCP/IP se ha convertido en el protocolo estándar para la interoperabilidad entre
distintos tipos de equipos. La interoperabilidad es la principal ventaja de TCP/IP. La
mayoría de las redes permiten TCP/IP como protocolo. TCP/IP también permite el
encaminamiento y se suele utilizar como un protocolo de interconexión de redes.
Entre otros protocolos escritos específicamente para el conjunto TCP/IP se incluyen:
SMTP (Protocolo básico de transferencia de correo). Correo electrónico.
FTP (Protocolo de transferencia de archivos). Para la interconexión de
archivos entre equipos que ejecutan TCP/IP.
SNMP (Protocolo básico de gestión de red). Para la gestión de redes.
Diseñado para ser encaminable, robusto y funcionalmente eficiente, TCP/IP fue
desarrollado por el Departamento de Defensa de Estados Unidos como un conjunto de
protocolos para redes de área extensa (WAN). Su propósito era el de mantener
enlaces de comunicación entre sitios en el caso de una guerra nuclear. Actualmente,
la responsabilidad del desarrollo de TCP/IP reside en la propia comunidad de Internet.
La utilización de TCP/IP ofrece varias ventajas:
Es un estándar en la industria. Como un estándar de la industria, es
un protocolo abierto. Esto quiere decir que no está controlado por una única
compañía, y está menos sujeto a cuestiones de compatibilidad. Es el protocolo,
de hecho, de Internet.
Contiene un conjunto de utilidades para la conexión de sistemas
operativos diferentes. La conectividad entre un equipo y otro no depende del
sistema operativo de red que esté utilizando cada equipo.
Utiliza una arquitectura escalable, cliente/servidor. TCP/IP puede
ampliarse (o reducirse) para ajustarse a las necesidades y circunstancias
futuras. Utiliza sockets para hacer que el sistema operativo sea algo
transparente.
Un socket es un identificador para un servicio concreto en un nodo concreto de la
red. El socket consta de una dirección de nodo y de un número de puerto que
identifica al servicio.
Históricamente, TCP/IP ha tenido dos grandes inconvenientes: su tamaño y su
velocidad. TCP/IP es una jerarquía de protocolos relativamente grandes que puede
causar problemas en clientes basados en MS-DOS. En cambio, debido a los
requerimientos del sistema (velocidad de procesador y memoria) que imponen los
sistemas operativos con interfaz gráfica de usuario (GUI), como Windows NT o
Windows 95 y 98, el tamaño no es un problema.
Estándares TCP/IP
Los estándares de TCP/IP se publican en una serie de documentos denominados
Requests for comment (RFC); Solicitudes de comentarios. Su objeto principal es
proporcionar información o describir el estado de desarrollo. Aunque no se crearon
para servir de estándar, muchas RFC han sido aceptadas como estándares.
El desarrollo Internet está basado en el concepto de estándares abiertos. Es decir,
cualquiera que lo desee, puede utilizar o participar en el desarrollo de estándares para
Internet. La Plataforma de arquitectura Internet (IAB) es el comité responsable para la
gestión y publicación de las RFC. La IAB permite a cualquier persona o a cualquier
compañía que envíe o que evalúe una RFC. Esto permite que cualquier sugerencia
sea tenida en cuenta para cambiar o crear estándares. Transcurrido un tiempo
razonable para permitir la discusión, se crea un nuevo borrador que se convertirá o no
en un estándar.
TCP/IP y el modelo OSI
El protocolo TCP/IP no se corresponde exactamente con el modelo OSI. En vez de
tener siete niveles, sólo utiliza cuatro. Normalmente conocido como Conjunto de
protocolos de Internet, TCP/IP se divide en estos cuatro niveles:
Nivel de interfaz de red.
Nivel Internet.
Nivel de transporte.
Nivel de aplicación.
Cada uno de estos niveles se corresponde con uno o más niveles del modelo OSI.
Nivel de interfaz de red
El nivel de interfaz de red, que se corresponde con los niveles físico y de enlace de
datos del modelo OSI se comunica directamente con la red. Proporciona la interfaz
entre la arquitectura de red (como Token Ring, Ethernet) y el nivel Internet.
Nivel Internet
El nivel internet, que se corresponde con el nivel de red del modelo OSI, utiliza
varios protocolos para encaminar y entregar los paquetes. Los routers son
dependientes del protocolo. Funcionan a este nivel del modelo y se utilizan para enviar
paquetes de una red a otra o de un segmento a otro. En el nivel de red trabajan varios
protocolos.
Protocolo Internet (IP)
El Protocolo Internet (IP) es un protocolo de conmutación de paquetes que realiza
direccionamiento y encaminamiento. Cuando se transmite un paquete, este protocolo
añade una cabecera al paquete, de forma que pueda enviarse a través de la red
utilizando las tablas de encaminamiento dinámico. IP es un protocolo no orientado a la
conexión y envía paquetes sin esperar la señal de confirmación por parte del receptor.
Además, IP es el responsable del empaquetado y división de los paquetes requerido
por los niveles físico y de enlace de datos del modelo OSI. Cada paquete IP está
compuesto por una dirección de origen y una de destino, un identificador de protocolo,
un checksum (un valor calculado) y un TTL (tiempo de vida, del inglés time to live). El
TTL indica a cada uno de los routers de la red entre el origen y el destino cuánto
tiempo le queda al paquete por estar en la red. Funciona como un contador o reloj de
cuenta atrás. Cuando el paquete pasa por el router, éste reduce el valor en una unidad
(un segundo) o el tiempo que llevaba esperando para ser entregado. Por ejemplo, si
un paquete tiene un TTL de 128, puede estar en la red durante 128 segundos o 128
saltos (cada parada, o router, en la red), o una combinación de los dos. El propósito
del TTL es prevenir que los paquetes perdidos o dañados (como correos electrónicos
con una dirección equivocada) estén vagando en la red. Cuando la cuenta TTL llega a
cero, se retira al paquete de la red.
Otro método utilizado por IP para incrementar la velocidad de transmisión es el
conocido como «ANDing». La idea del ANDing es determinar si la dirección es de un
sitio local o remoto. Si la dirección es local, IP preguntará al Protocolo de resolución de
direcciones (ARP) por la dirección hardware de la máquina de destino. Si la dirección
es remota, el IP comprueba su tabla de encaminamiento local para encaminarlo al
destino. Si existe un camino, el paquete se envía por ahí. Si no existe el camino, el
paquete se envía a través del gateway a su destino.
Un AND es una operación lógica que combina los valores de dos bits (0, 1) o dos
valores lógicos (verdadero, falso) y devuelve un 1 (verdadero) si los valores de ambas
entradas son 1 (verdadero) y devuelve 0 (falso) en caso contrario.
Protocolo de resolución de direcciones (ARP)
Antes de enviar un paquete IP a otro host se tiene que conocer la dirección
hardware de la máquina receptora. El ARP determina la dirección hardware (dirección
MAC) que corresponde a una dirección IP. Si ARP no contiene la dirección en su
propia caché, envía una petición por toda la red solicitando la dirección. Todos los
hosts de la red procesan la petición y, si contienen un valor para esa dirección, lo
devuelven al solicitante. A continuación se envía el paquete a su destino y se guarda
la información de la nueva dirección en la caché del router.
Protocolo inverso de resolución de direcciones (RARP)
Un servidor RARP mantiene una base de datos de números de máquina en la forma
de una tabla (o caché) ARP que está creada por el administrador del sistema. A
diferencia de ARP, el protocolo RARP proporciona una dirección IP a una petición con
dirección de hardware. Cuando el servidor RARP recibe una petición de un número IP
desde un nodo de la red, responde comprobando su tabla de encaminamiento para el
número de máquina del nodo que realiza la petición y devuelve la dirección IP al nodo
que realizó la petición.
Protocolo de mensajes de control de Internet (ICMP)
El ICMP es utilizado por los protocolos IP y superiores para enviar y recibir informes
de estado sobre la información que se está transmitiendo. Los routers suelen utilizar
ICMP para controlar el flujo, o velocidad, de datos entre ellos. Si el flujo de datos es
demasiado rápido para un router, pide a los otros routers que reduzcan la velocidad de
transmisión.
Los dos tipos básicos de mensajes ICMP son el de informar de errores y el de enviar
preguntas.
Nivel de transporte
El nivel de transporte, que se corresponde con el nivel de transporte del modelo
OSI, es el responsable de establecer y mantener una comunicación entre dos hosts. El
nivel de transporte proporciona notificación de la recepción, control de flujo y
secuenciación de paquetes. También gestiona las retransmisiones de paquetes. El
nivel de transporte puede utilizar los protocolos TCP o el Protocolo de datagramas de
usuario (UDP) en función de los requerimientos de la transmisión.
Protocolo de control de transmisión (TCP)
El TCP es el responsable de la transmisión fiable de datos desde un nodo a otro. Es
un protocolo orientado a la conexión y establece una conexión (también conocida
como una sesión, circuito virtual o enlace) entre dos máquinas antes de transferir
ningún dato. Para establecer una conexión fiable, TCP utiliza lo que se conoce como
«acuerdo en tres pasos». Establece el número de puerto y los números de secuencia
de inicio desde ambos lados de la transmisión. El acuerdo consta de tres pasos:
1. El solicitante envía al servidor un paquete especificando el número de
puerto que él planea utilizar y el número de secuencia inicial (ISN).
2. El servidor responde con su ISN, que consiste en el ISN del solicitante
más uno.
3. El solicitante responde a la respuesta del servidor con el ISN del
servidor más uno.
En orden a mantener una conexión fiable, cada paquete tiene que contener:
Un número de puerto TCP origen y destino.
Un número de secuencia para mensajes que tienen que dividirse en
partes más pequeñas.
Un checksum que asegura que la información se ha recibido sin error.
Un número de confirmación que indica a la máquina origen qué partes
de la información han llegado.
Ventanas deslizantes (Sliding Windows) TCP.
Puertos, sockets y ventanas deslizantes (sliding windows)
Los números de puerto del protocolo se utilizan para hacer referencia a la
localización de una aplicación o proceso en particular en cada máquina (en el nivel de
aplicación). Al igual que una dirección IP identifica la dirección de un host de la red, el
número de puerto identifica la aplicación a nivel de transporte, por lo que proporciona
una conexión completa de una aplicación de un host a una aplicación de otro host. Las
aplicaciones y servicios (como servicios de archivos e impresión o telnet) pueden
configurar hasta 65.536 puertos. Las aplicaciones y servicios TCP/IP suele utilizar los
primeros 1.023 puertos. La Internet Assigned Numbers Authority (IANA) los ha
asignado como estándar, o puertos por omisión. Cualquier aplicación cliente puede
asignar números de puerto dinámicamente cuando sea necesario. Un puerto y una
dirección de nodo forman un socket.
Los servicios y las aplicaciones utilizan sockets para establecer conexiones con otro
host. Si las aplicaciones necesitan garantizar la entrega de datos, el socket elige el
servicio orientado a conexión (TCP). Si la aplicación no necesita garantizar la entrega
de los datos, el socket elige el servicio no orientado a la conexión (UDP).
TCP utiliza una ventana deslizante para transferir datos entre hosts. Regula cuánta
información puede pasarse a través de una conexión IP antes de que el host de
destino envíe una confirmación. Cada equipo tiene una ventana de envío y de
recepción que utiliza a modo de búfer para guardar los datos y hacer más eficiente el
proceso de comunicación. Una ventana deslizante permite al equipo origen transmitir
una serie de paquetes sin tener que esperar a que le sea confirmada la llegada de
cada paquete. Esto permite al equipo de destino que pueda recibir los paquetes en
otro orden al enviado, y si no se recibe una confirmación en un período de tiempo, se
reenvían los paquetes.
Protocolo de datagramas de usuario (UDP)
UDP es un protocolo no orientado a la conexión y es el responsable de la
comunicación de datos extremo a extremo. En cambio, a diferencia de TCP, UDP no
establece una conexión. Intenta enviar los datos e intenta comprobar que el host de
destino recibe los datos. UDP se utiliza para enviar pequeñas cantidades de datos que
no necesitan una entrega garantizada. Aunque UDP utiliza puertos, son distintos de
los puertos TCP; así pues, pueden utilizar los mismos números sin interferirse.
Nivel de aplicación
El nivel de aplicación se corresponde con los niveles de sesión, presentación y
aplicación del modelo OSI, y conecta las aplicaciones a la red. Dos interfaces de
programación de aplicaciones (API) proporcionan acceso a los protocolos de
transporte TCP/IP, los sockets de Windows y NetBIOS.
Interfaz de sockets de Windows
Los sockets de Windows (WinSock) son una API de red diseñada para facilitar la
comunicación entre aplicaciones y jerarquías de protocolos TCP/IP diferentes. Se
definió para que las aplicaciones que utilizasen TCP/IP pudiesen escribir en una
interfaz estándar. WinSock se deriva de los sockets originales que creó la API para el
sistema operativo Unix BSD. WinSock proporciona una interfaz común para las
aplicaciones y protocolos que existen cerca de la cima del modelo de referencia
TCP/IP. Cualquier programa o aplicación escrito utilizando la API de WinSock se
puede comunicar con cualquier protocolo TCP/IP, y viceversa.
Protocolos NetWare
Introducción a los protocolos NetWare
Al igual que TCP/IP, Novell proporciona un conjunto de protocolos desarrollados
específicamente para NetWare. Los cinco protocolos principales utilizados por
NetWare son:
Protocolo de acceso al medio.
Intercambio de paquetes entre redes/Intercambio de paquetes en
secuencia (IPX/SPX).
Protocolo de información de encaminamiento (RIP).
Protocolo de notificación de servicios (SAP).
Protocolo básico de NetWare (NCP).
Debido a que estos protocolos se definieron antes de la finalización del modelo OSI,
no se ajustan exactamente al modelo OSI. Actualmente, no existe una correlación
directa entre los límites de los niveles de las dos arquitecturas. Estos protocolos
siguen un patrón de recubrimiento. Concretamente, los protocolos de nivel superior
(NCP, SAP y RIP) están recubiertos por IPX/SPX. Luego, una cabecera y un final del
Protocolo de acceso al medio recubre a IPX/SPX.
Protocolos de acceso al medio
Los protocolos de acceso al medio definen el direccionamiento que permite
diferenciar a los nodos de una red NetWare. El direccionamiento está implementado
en el hardware o en la NIC. Las implementaciones más conocidas son:
802.5 Token Ring.
802.3 Ethernet.
Ethernet 2.0.
El protocolo es responsable de colocar la cabecera al paquete. Cada cabecera
incluye el código del origen y del destino. Una vez que se haya transmitido el paquete
y que está en el medio, cada tarjeta de red comprueba la dirección; si la dirección
coincide con la dirección del destino del paquete, o si el paquete es un mensaje de
difusión, la NIC copia el paquete y lo envía a la jerarquía de protocolos.
Además del direccionamiento, este protocolo proporciona un control de errores a
nivel de bit como una comprobación de redundancia cíclica (CRC). Una vez que se le
añade la CRC al paquete, supuestamente los paquetes estaban libres de errores.
La comprobación de errores CRC utiliza un cálculo complejo para generar un
número basado en los datos transmitidos. El dispositivo que realiza el envío hace el
cálculo antes de realizar la transmisión y lo incluye en el paquete que se envía al
dispositivo de destino. El dispositivo de destino vuelve a hacer este cálculo después de
la transmisión. Si ambos dispositivos obtienen el mismo resultado, se supone que no
se han producido errores en la transmisión. A este procedimiento se le conoce como
comprobación de redundancia, porque cada transmisión incluye no sólo los datos, sino
que además incluye valores de comprobación extras (redundantes).
Intercambio de paquetes entre redes/Intercambio de paquetes en secuencia
(IPX/SPX, Internetwork Packet Exchange/Sequenced Packet Exchange)
El Intercambio de paquetes entre redes (IPX) define los esquemas de
direccionamiento utilizados en una red NetWare, e Intercambio de paquetes en
secuencia (SPX) proporciona la seguridad y fiabilidad al protocolo IPX. IPX es un
protocolo a nivel de red basado en datagramas, no orientado a la conexión y no fiable,
equivalente a IP. No requiere confirmación por cada paquete enviado. Cualquier
control de confirmación o control de conexión tiene que ser proporcionado por los
protocolos superiores a IPX. SPX proporciona servicios orientados a la conexión y
fiables a nivel de transporte.
Novell adoptó el protocolo IPX utilizando el Protocolo de datagramas Internet del
Sistema de red de Xerox (XNS). IPX define dos tipos de direccionamiento:
Direccionamiento a nivel de red. La dirección de un segmento de la
red, identificado por el número de red asignado durante la instalación.
Direccionamiento a nivel de nodo. La dirección de un proceso en un
nodo que está identificado por un número de socket.
Los protocolos IPX sólo se utilizan en redes con servidores NetWare y se suelen
instalar con otro conjunto de protocolos como TCP/IP. Incluso NetWare está
empezando a utilizar TCP/IP como un estándar.
Protocolo de información de encaminamiento (RIP, Routing Information
Protocol)
RIP, al igual que IPX, facilita el intercambio de información de encaminamiento en
una red NetWare y fue desarrollado desde XNS. Sin embargo, en RIP se ha añadido al
paquete un campo de datos extra para mejorar el criterio de decisión para seleccionar
la ruta más rápida hasta un destino. El hecho de realizar una difusión de un paquete
RIP permite que ocurran ciertas cosas:
Las estaciones de trabajo pueden localizar el camino más rápido a un
número de red.
Los routers pueden solicitar información de encaminamiento a otros
routers para actualizar sus propias tablas internas.
Los routers pueden responder a peticiones de encaminamiento de otras
estaciones de trabajo o de otros routers.
Los routers pueden asegurarse de si otros routers conocen la
configuración de la red.
Los routers pueden detectar un cambio en la configuración de la red.
Protocolo de notificación de servicios (SAP, Service Advertising Protocol)
El Protocolo de notificación de servicios (SAP) permite a los nodos que proporcionan
servicios (incluyen a los servidores de archivos, servidores de impresión, servidores
gateway y servidores de aplicación) informar de sus servicios y direcciones. Los
clientes de la red son capaces de obtener la dirección de la red de los servidores a los
que pueden acceder. Con SAP, la incorporación y la eliminación de servicios en la red
se vuelve dinámica. Por omisión, un servidor SAP informa de su presencia cada 60
segundos. Un paquete SAP contiene:
Información operativa. Especifica la operación que está realizando el
paquete.
Tipo de servicio. Especifica el tipo de servicio ofrecido por el servidor.
Nombre del servidor. Especifica el nombre del servidor que difunde los
servicios.
Dirección de red. Especifica el número de red del servidor que difunde
los servicios.
Dirección de nodo. Especifica el número de nodo del servidor que
difunde los servicios.
Dirección de socket. Especifica el número de socket del servidor que
difunde los servicios.
Total de saltos hasta el servidor. Especifica el número de saltos que
hay hasta el servidor que difunde los servicios.
Campo de operación. Especifica el tipo de petición.
Información adicional. Uno o más conjuntos de campos que pueden
seguir al campo de operación con más información sobre uno o más
servidores.
Protocolo básico de NetWare (NCP, NetWare Core Protocol)
El Protocolo básico de NetWare (NCP) define el control de la conexión y la
codificación de la petición de servicio que hace posible que puedan interactuar los
clientes y los servidores. Éste es el protocolo que proporciona los servicios de
transporte y de sesión. La seguridad de NetWare también está proporcionada dentro
de este protocolo.
Otros protocolos habituales
Sistema básico de Entrada/Salida en red (NetBIOS, Network Basic Input/Output
System)
La mayoría de los servicios y aplicaciones que se ejecutan en el sistema operativo
Windows utilizan la interfaz NetBIOS o la Comunicación entre procesos (IPC).
NetBIOS se desarrolló sobre LAN y se ha convertido en una interfaz estándar para que
las aplicaciones puedan acceder a los protocolos de red en el nivel de transporte con
comunicaciones orientadas y no orientadas a la conexión. Existen interfaces NetBIOS
para NetBEUI, NWLink y TCP/IP. Las interfaces NetBIOS necesitan una dirección IP y
un nombre NetBIOS para identificar de forma única a un equipo.
NetBIOS realiza cuatro funciones importantes:
Resolución de nombres NetBIOS. Cada estación de trabajo de una
red tienen uno o más nombres. NetBIOS mantiene una tabla con los nombres y
algunos sinónimos. El primer nombre en la tabla es el nombre único de la NIC.
Se pueden añadir nombres de usuario opcionales para proporcionar un sistema
de identificación expresivo.
Servicio de datagramas NetBIOS. Esta función permite enviar un
mensaje a un nombre, a un grupo de nombres, o a todos los usuarios de la red.
Sin embargo, debido a que no utiliza conexiones punto a punto, no se garantiza
que el mensaje llegue a su destino.
Servicio de sesión NetBIOS. Este servicio abre una conexión punto a
punto entre dos estaciones de trabajo de una red. Una estación inicia una
llamada a otra y abre la conexión. Debido a que ambas estaciones son iguales,
pueden enviar y recibir datos concurrentemente.
Estado de la sesión/NIC NetBIOS. Esta función ofrece información
sobre la NIC local, otras NIC y las sesiones activas disponibles a cualquier
aplicación que utilice NetBIOS.
Originalmente, IBM ofrecía NetBIOS como un producto separado, implementado
como un programa residente (TSR). Actualmente, este programa TSR es obsoleto; si
se encuentra uno de estos sistemas, debería sustituirlo con la interfaz NetBIOS de
Windows.
NetBEUI
NetBEUI es el acrónimo de Interfaz de usuario ampliada NetBIOS. Originalmente,
NetBIOS y NetBEUI estaban casi unidos y se les consideraba como un protocolo. Sin
embargo, varios fabricantes separaron NetBIOS, el protocolo a nivel de sesión, de
forma que pudiera utilizarse con otros protocolos de transporte encaminables.
NetBIOS (Sistema básico de entrada/salida de la red) es una interfaz para LAN a nivel
de sesión de IBM que actúa como una interfaz de aplicación para la red. NetBIOS
proporciona a un programa las herramientas para que establezca en la red una sesión
con otro programa, y debido a que muchos programas de aplicación lo soportan, es
muy popular.
NetBEUI es un protocolo pequeño, rápido y eficiente a nivel de transporte
proporcionado con todos los productos de red de Microsoft. Está disponible desde
mediados de los ochenta y se suministró con el primer producto de red de Microsoft:
MS-NET.
Entre las ventajas de NetBEUI se incluyen su pequeño tamaño (importante para los
equipos que ejecuten MS-DOS), su velocidad de transferencia de datos en el medio y
su compatibilidad con todas las redes Microsoft.
El principal inconveniente de NetBEUI es que no soporta el encaminamiento.
También está limitado a redes Microsoft. NetBEUI es una buena solución económica
para una red Trabajo en Grupo donde todas las estaciones utilizan sistemas
operativos Microsoft.
Conmutación de paquetes X.25
X.25 es un conjunto de protocolos WAN para redes de conmutación de paquetes y
está formado por servicios de conmutación. Los servicios de conmutación se crearon
originalmente para conectar terminales remotos a sistemas mainframe. La red dividía
cada transmisión en varios paquetes y los colocaba en la red. El camino entre los
nodos era un circuito virtual, que los niveles superiores trataban como si se tratase de
una conexión lógica continua. Cada paquete puede tomar distintos caminos entre el
origen y el destino. Una vez que llegan los paquetes, se reorganizan como los datos
del mensaje original.
Un paquete típico está formado por 128 bytes de datos; sin embargo, el origen y el
destino, una vez establecida la conexión virtual, pueden negociar tamaños de paquete
diferentes. El protocolo X.25 puede soportar en el nivel físico un máximo teórico de
4.095 circuitos virtuales concurrentes entre un nodo y una red X.25. La velocidad típica
de transmisión de X.25 es de 64 Kbps.
El protocolo X.25 trabaja en los niveles físico, de enlace de datos y de red del
modelo OSI. Se conoce desde mediados de los setenta y se ha depurado muy bien,
por lo que proporciona un entorno de red muy estable. Sin embargo, tiene dos
inconvenientes:
El mecanismo de guardar y enviar causa retardos. Normalmente, el
retardo es de 6 décimas de segundos y no tiene efecto en bloques de datos
grandes. En cambio, en un tipo de transmisión «flip-flop», el retraso puede ser
considerable.
Un «flip-flop» es un circuito que alterna entre dos estados posibles cuando se recibe
un pulso en la entrada. Por ejemplo, si la salida de un flip-flop es un valor alto y se
recibe un pulso en la entrada, la salida cambia a un valor bajo; un segundo pulso en la
entrada vuelve a colocar en la salida un valor alto, y así sucesivamente.
Para soportar la transferencia de guardar y enviar se requiere una gran
cantidad de trabajo con el búfer.
X.25 y TCP/IP son similares en la medida en que utilizan protocolos de conmutación
de paquetes. Sin embargo, existen algunas diferencias entre ellos:
TCP/IP sólo tiene comprobación de errores y control de flujo extremo a
extremo; X.25 tienen control de errores nodo a nodo.
Para compensar el hecho de que una red TCP/IP sea completamente
pasiva, TCP/IP tiene un control de flujo y un mecanismo de ventana más
complicado que el de X.25.
X.25 tiene unos niveles de enlace y eléctricos muy concretos; TCP/IP
está diseñado para trabajar con distintos tipos de medios, y con servicios de
enlace muy variados.
Sistema de red de Xerox (XNS, Xerox Network System)
Xerox desarrolló el Sistema de red de Xerox (XNS) para sus LAN Ethernet. XNS se
utilizaba mucho en los ochenta, pero ha sido lentamente sustituido por TCP/IP. Es un
protocolo de gran tamaño, lento, ya que genera muchos envíos a todos los
dispositivos, aumentando el tráfico de la red.
Comunicación avanzada entre programas (APPC, Advanced Program-to-
Program Communication)
La Comunicación avanzada entre programas es un protocolo de transporte de IBM
desarrollado como parte de su Arquitectura de sistemas en red (SNA). Se diseñó para
permitir que los programas de aplicación que se estuviesen ejecutando en distintos
equipos se pudiesen comunicar e intercambiar datos directamente.
Apple Talk
Apple Talk es la jerarquía de protocolos de Apple Computer para permitir que los
equipos Apple Macintosh compartan archivos e impresoras en un entorno de red. Se
introdujo en 1984 como una tecnología LAN autoconfigurable. Apple Talk también está
disponible en muchos sistemas UNIX que utilizan paquetes comerciales y de libre
distribución. El conjunto de protocolos AppleTalk permite compartir archivos a alto
nivel utilizando AppleShare, los servicios de impresión y gestores de impresión de
LaserWriter, junto con la secuencia de datos de bajo nivel y la entrega de datagramas
básicos.
Protocolos AppleTalk
AppleTalk: Una colección de protocolos que se corresponde con el
modelo OSI. Soporta LocalTalk, EtherTalk y TokenTalk.
LocalTalk: Describe el cable par trenzado apantallado utilizado para
conectar equipos Macintosh con otros Macintosh o impresoras. Un segmento
LocalTalk permite hasta un máximo de 32 dispositivos y opera a una velocidad
de 230 Kbps.
Ether Talk: AppleTalk sobre Ethernet. Opera a una velocidad de 10
Mbps. Fast Ethernet opera a una velocidad de 100 Mbps.
Token Talk: AppleTalk sobre Token Ring. Dependiendo de su
hardware, TokenTalk opera a 4 o a 16 Mbps.
Conjuntos de protocolos OSI
El conjunto de protocolos OSI es una jerarquía completa de protocolos. Cada
protocolo se corresponde directamente con un único nivel del modelo OSI. El conjunto
de protocolos OSI incluye protocolos de encaminamiento y transporte, la serie de
protocolos IEEE 802, un protocolo a nivel de sesión, un protocolo a nivel de
presentación y varios protocolos a nivel de aplicación diseñados para proporcionar una
funcionalidad de red, incluyendo el acceso a archivos, impresión y emulación de
terminal.
DECnet
DECnet es una jerarquía de protocolos de Digital Equipment Corporation. Es un
conjunto de productos hardware y software que implementan la Arquitectura de red de
Digital (DNA). Define redes de comunicación sobre LAN Ethernet, redes de área
metropolitana con Interfaz de datos distribuida de fibra (FDDI MAN) y WAN que utilicen
características de transmisión de datos privados o públicos. DECnet también puede
utilizar protocolos TCP y OSI, así como sus propios protocolos. Se trata de un
protocolo encaminable.