REDES
Se denomina red al sistema de comunicación que conecta computadores y otros equipos,
independientemente de la ubicación de los mismos (impresoras, trazadores o dispositivos de
almacenamiento). Las Redes minimizan los problemas de distancia y comunicación y permiten
a los usuarios acceder y compartir información de cualquier punto de las mismas.
Las cualidades más importantes son: gran velocidad, bajo porcentaje de error y fácil manejo y
mantenimiento.
Razones y beneficios del uso de una red
Uso compartido de Software y archivos: las redes nos permiten utilizar versiones de red de
los programas de oficina más comunes, con un cierto ahorro de dinero en licencias.
Además, los programas de aplicación específicos de las actividades de las empresas son
por regla general para utilizar en red. Por otra parte, el hecho que los archivos, o sea la
información operativa de la empresa esté guardada en los servidores de la red, hace que
se halla a disposición de todos aquellos que la necesiten en forma inmediata.
Hardware compartido (recursos de red): los usuarios de redes pueden compartir muchos
dispositivos de hardware, como impresoras, CD-ROM y espacio de disco. Esto da como
resultado una necesidad menor de comprar periféricos costosos para cada computadora
de la compañía, lo cual significa un ahorro inmediato en los costos.
Aumento de la productividad: las redes hacen que la información crítica esté disponible de
inmediato para muchas personas, lo cual significa que los individuos no necesitan caminar
desde una estación de computadora a otra o copiar archivos a disquetes para
compartirlos. Esto significa más tiempo para trabajar en las tareas sin interrupción.
Aumento de la precisión: puesto que la información compartida puede almacenarse en una
sola ubicación, se requiere una menor introducción de datos y existen menos
probabilidades de error humano.
Creación de Grupos de Trabajo: interacción de diferentes miembros de la organización,
independientemente de su ubicación geográfica, realizando trabajos en conjunto y
reuniones, sin la necesidad de moverse físicamente a un sitio determinado.
Soporte más fácil: es más fácil dar soporte a programas de aplicación y sistemas operativos
comunes. Esto se traduce en más productividad para el personal de soporte y menor costo
para la compañía.
Comunicaciones extendidas: la conectividad permite a los usuarios de computadoras
comunicarse con otros, tanto dentro como fuera de la empresa. Esto se traduce en la
capacidad para realizar negocios con mayor rapidez que antes. La compañía se beneficia
porque puede responder de manera más oportuna a las necesidades internas y externas.
Recursos de Investigación: cuando están conectados a redes fuera de la empresa (como
Internet), los usuarios pueden tener acceso a más información que nunca. Esto
proporciona la oportunidad para tomar mejores decisiones con base en un cuerpo de
información más amplio.
Niveles de Seguridad: se asigna una palabra clave a cada usuario o grupo de usuarios, con
lo que se evita que un intruso pueda usar una estación, protegiendo de esta manera la
información. Se puede especificar a que disco o directorio puede acceder cada usuario,
indicando inclusive si pueden leer, escribir, correr un archivo, ver o crear un directorio,
protegiendo el borrado accidental de datos por usuarios inexpertos.
Auditorias: permite a un usuario “privilegiado” o supervisor de la red ver quien utilizó una
terminal, por cuanto tiempo y que programa ejecuto.
Transmisión de Datos Digitales
Las distintas técnicas de digitalización han permitido dar un formato digital no solo a los datos
de las planillas de cálculo y documentos escritos, sino también a sonidos, voz, imágenes y
video.
Daremos a continuación una pequeña clasificación de las características de las comunicaciones
de datos digitales:
Transmisiones Orientadas a la Conexión o Sin Conexión:
Algunas transmisiones digitales se realizan estableciendo una llamada al destino y habilitando
un circuito o camino dentro de la red, que se mantendrá durante toda la conexión. Ejemplo
cotidiano de esto lo tenemos en el servicio telefónico.
Por otra parte, las transmisiones dentro de una LAN son sin conexión. Ejemplo: transmisión
por tv, no es dirigida a un usuario, cada uno decide si quiere recibir la información.
Transmisiones Asincrónicas, Sincrónicas e Isocrónicas:
Se define como retardo de la red al tiempo que tarda un paquete en llegar desde el origen al
destino. En esta clasificación, el termino asincrónico se refiere a comunicaciones en las que el
retardo de la red no tiene influencia, como por ejemplo las transferencias de archivos entre
computadoras. Una transmisión sincrónica, por el contrario, necesita que el retardo de la red
no exceda un determinando valor, por ejemplo, las transmisiones de audio y video. Si además
de necesitar un retardo acotado, la transmisión necesita enviar datos en periodo de tiempo
precisos, se denomina isócronica. La telefonía digital, que envía 30 canales de voz en tramas
PCM es un ejemplo de transmisión isócrona.
Flujo de Bits Constante o Variable:
Si el flujo de datos por la red es constante a través del tiempo se denomina Constant Bit Rate
(CBR). La voz digitalizada y el video sin comprimir son ejemplos de este tipo de tráfico. Si el
tráfico varía con el tiempo se denomina Variable Bit Rate (VBR) o tráfico a ráfagas (burst
traffic). El video comprimido, al modificarse la cantidad de información entre cuadros, y el
tráfico en una LAN normal, son ejemplos de tráfico a ráfagas.
Trafico Con o Sin Perdida de Datos:
Algunos tipos de tráfico, como el video sin comprimir y la voz, pueden tolerar hasta cierto
punto la perdida de datos, pues los sentidos humanos se encargan de compensar esa falta de
información, por ejemplo, si una llamada se entrecorta, el cerebro humano tiene la capacidad
de interpretar la info. Los datos de un archivo de computadora, por otro lado, no pueden
aceptar ninguna perdida de información, ya que de ser así el archivo dejaría de ser posible de
leer, las computadoras no tienen la inteligencia de intentar interpretar la info.
Tipos de redes
Hosts y terminales:
Este tipo de red se establece entre un sistema de computadora centralizada (llamada Host) y
cualquier cantidad de terminales conectadas al host. Las terminales sólo se usan con
propósitos de entrada y salida, en tanto que el host realiza toda la función de computación.
La computadora central por lo regular es una computadora mainframe. Los mainframes son
sistemas de computadoras grandes, capaces de comunicaciones de alta velocidad con docenas
o cientos de terminales.
El enfoque de host y terminal para la computación es atractivo para muchos negocios, debido
a que permite el control centralizados de todos los recursos de computación. La organización
sólo necesita preocuparse por un sistema operativo y un solo conjunto de programas de
aplicación. La desventaja de este enfoque es que ampliar el poder de computación o agregar
una docena o más terminales puede ser costoso.
Redes de Área Local:
Una red de área local (LAN) es una forma de conectar PC’s individuales de manera que puedan
compartir recursos limitados. Estos recursos incluyen elementos como unidades de disco,
archivos (bases de datos) e impresoras. Además, la red permite una mayor interacción y
comunicación entre los miembros de una red. Una LAN se llama así porque las PC’s (llamadas
nodos) que forman la red están localizadas dentro de un área geográfica limitada.
Las computadoras individuales pueden ser menos potentes que una mainframe, pero
permiten mayor libertad de computación a los usuarios individuales. También es más fácil
ampliar una LAN; comúnmente todo lo que necesita hacer es conectar otra PC y asegurarse de
que puede comunicarse con otras computadoras en la LAN.
Redes de Área Amplia (WAN):
Es una red de PC's dispersa en un área amplia. Ejemplos de estas redes de computadoras
pueden encontrarse en colegios y universidades, o en compañías que tienen oficinas en más
de un área geográfica.
Redes de Campo:
Un tipo muy particular de red que conecta dispositivos de control. Por ejemplo, la
computadora de un avión que constantemente está verificando el funcionamiento de los
dispositivos. En general, son implementaciones en tiempo real.
Se debe aclarar que, para dar solución a algunas situaciones, se pueden combinar los tipos de
redes antes mencionados a través de puentes (bridges).
Otra clasificación de tipos de redes es agruparlas en abiertas y cerradas.
Las Redes abiertas son públicas y están potencialmente a disposición de cualquiera. En este
tipo de redes, se debe poner especial atención en el control de acceso y de la información,
para evitar pérdidas.
Las Redes cerradas son privadas de una empresa. En este caso, el control es mucho más
sencillo, ya que solo los conectados físicamente pueden ingresar al sistema.
Enfoques de la conectividad
Cuando una compañía u organización busca establecer una LAN, debe decidir un enfoque para
desarrollar la red. Hay dos enfoques: redes cliente/servidor y redes entre pares.
Redes Cliente/Servidor:
Se usan comúnmente en entornos LAN mayores, incluyendo colegios y universidades. La red se
compone de uno o más servidores especializados y varios clientes diferentes. Los servidores
están diseñados para proporcionar servicios centralizados y los clientes son los diferentes
nodos en la red. Las PC’s conectadas a la red pueden llamarse clientes, nodos o estaciones de
trabajo; existe poca diferencia técnica entre los tres términos en este tipo de red.
Aunque este enfoque es muy eficaz, tiene sus desventajas. Quizás la mayor desventaja es que
si un servidor falla (por cualquier razón), la red entera falla en relación con ese recurso.
Redes entre pares:
En este caso no hay servidores centralizados. En su lugar, cada nodo en la red proporciona
servicios a los que pueden tener acceso otros nodos en la red. Por ejemplo, un nodo puede
tener una impresora que pueden usar otros nodos, en tanto que un nodo diferente puede
tener archivos de datos a disposición de otros usuarios de la red.
Si una computadora falla, no se desactiva la red completa. Por supuesto que los recursos
compartidos por este nodo no están disponibles, pero pueden usarse servicios alternativos por
medio de otros nodos en la red.
Sistemas centralizados vs Sistemas distribuidos
Las organizaciones que quieren implementar un sistema de redes deben decidir entre una de
estas dos arquitecturas o una combinación de ambas.
Se deben tener en cuenta los siguientes beneficios para tomar la decisión:
• Control de recursos
• Especialización del Server
• Elección del NOS
Control de recursos:
Las organizaciones deben considerar como los recursos de la red pueden ser monitoreados y
controlados.
La estrategia de control más sencilla involucra la centralización de todo el hardware y software
requerido para servir a la red en un grupo dedicado que puede monitorear y manejar las
aplicaciones. Centralizando los recursos la organización protege y asegura los servicios
ofrecidos.
Elección del NOS (Sistema Operativo de Red):
La mayoría de los vendedores de NOS se esfuerzan por hacer su software altamente
configurable, pero las características de cada sistema son sin duda limitantes.
Componentes de la red
1. Servidor: Ejecuta el sistema operativo y ofrece los servicios de la red a las estaciones de
trabajo. Es el administrador de la red. Puede cumplir funciones dedicadas (como Servidor
de Red únicamente) o compartidas (PC y server).
2. Estaciones de Trabajo: Computadoras conectadas a una red, pueden tener o no disco
rígido.
3. Placas de Interfaz de red (NIC): Permiten interconectar los nodos.
4. Sistemas de Cableado: Cables utilizados para conectar al servidor y las estaciones de
trabajo.
5. Hubs: El “hub” o concentrador es un dispositivo para LANs que tiene la misión de aglutinar
en un solo punto las estaciones de trabajo mediante una topología en estrella. Esta
topología tiene la ventaja de facilitar los tendidos de cable hacia las estaciones de trabajo.
6. Recursos compartidos: Podemos citar los dispositivos de almacenamientos, las unidades de
disco, las impresoras, etc.
7. NOS: Es el software encargado del manejo de los accesos y el control de la Red. Debe
instalarse en el Servidor y las Estaciones de Trabajo. Es el sistema operativo de la Red.
Aspectos técnicos de las redes que deben analizarse
Topología de la red: es el plano de conexión entre los usuarios de la misma (formas que
están conectadas las PC´s a la red).
Protocolos: dado que una red está compuesta por muchos usuarios, deben ser definidas
las reglas de conversación entre ellos (quien puede hablar, con quien, en qué momento,
con que formato). De esto se trata cuando hablamos del protocolo de una red (también
llamado “acceso”).
Medio de comunicación: cable, fibra óptica, etc.
Topologías:
1) Conexión completa (Malla): conectar a todos, con todos. Esta topología puede ser
efectiva para pocos usuarios, pero en la práctica no se usa. El costo de agregar un
usuario es altísimo, ya que significa agregar una conexión a cada uno de los otros
usuarios.
2) Estrella: consiste en un nodo central (servidor) y todos los usuarios conectados a él. El
límite para la cantidad de usuarios es el máximo que pueda manejar el nodo central y
la confiabilidad de la red depende exclusivamente de él. Cualquier falta en un usuario
no afecta el funcionamiento de la red. El funcionamiento es el siguiente: un usuario
envía información al nodo central (dedicado) y este se encarga de rutearla al
destinatario. Para agregar un usuario se agrega una conexión hasta el nodo central
(incluso en el caso que haya un usuario cerca del nuevo), lo que en la práctica puede
ser muy caro. La característica más importante es que varios usuarios pueden
transmitir datos simultáneamente. Topología popular.
3) Bus: consiste en un camino común compartido por todos los usuarios. Estos pueden
estar conectados al bus en cualquier punto, para agregar un usuario solo se lo debe
conectar al bus. En esta topología debe haber un nodo dedicado al control de la red.
Cualquier falla en un usuario no afectara el funcionamiento de la red. Topología muy
popular. Lógicamente, dada su sencillez, se aumentará la complejidad del control de
las comunicaciones. Dado que existe un único camino compartido por todos, debe
haber un protocolo que decida quién puede transmitir y dejar que los demás solo
puedan “escuchar”. Además, todos los mensajes de control se hacen a través del bus,
hecho que reduce la eficiencia de la red (overhead). La segunda desventaja importante
es que dos usuarios no pueden transmitir simultáneamente.
4) Anillo: conecta a todos los usuarios en un gran anillo. Para agregar un usuario
simplemente hay que integrarlo al anillo. Esto implica un corte en el cable y la
conexión del nuevo usuario. Esta red opera de la siguiente forma, los mensajes son
pasados de un nodo al siguiente hasta que el destinatario recibe el mensaje y envía
una señal de recibido. Una gran desventaja de este tipo de topología es que cualquier
falla en algún nodo o en la conexión entre ellos provocara la salida de servicio de la
red. Por este motivo, a veces se habilitan dos anillos, uno para uso normal y otro como
backup ante fallas del primero.
Protocolos:
1) Maestro-Esclavo: existe una sola estación maestra y todas las demás son esclavas. Una
estación sólo puede enviar información cuando la maestra le envía un comando. Esto
significa que, si un usuario tiene un mensaje para enviar, debe esperar que la estación
maestra le envíe el comando. Si la maestra desea enviar un mensaje, simplemente lo
manda junto con el comando. Si bien este protocolo es muy simple, es poco eficiente,
ya que la estación maestra pierde gran cantidad de tiempo preguntando a todas las
esclavas si tienen algo para enviar. Además, toda la información de la red debe pasar a
través de la maestra y esto genera un overhead considerable. Este tipo de protocolo
no es eficiente en sistemas donde se requiere un tiempo de respuesta rápido.
Tampoco lo es donde haya gran cantidad de usuarios. Una buena aplicación es un
sistema de verificación de temperatura y humedad de un edificio. Cada tanto la
estación maestra “pregunta” la temperatura y humedad a cada nodo.
2) Manejado por interrupciones: la esclava envía una señal y la maestra, entonces, recibe
el mensaje del usuario que generó la señal. Hay dos implementaciones de este
protocolo. Una -la más sencilla- es que la estación maestra comience la secuencia de
polling cuando recibe la interrupción. En la otra, el usuario genera la interrupción y
además envía una identificación de nodo tal que la estación maestra sepa quien desea
enviar información e interrogue solo a esa estación. Este protocolo reduce a la mitad el
tiempo de respuesta del anterior. Además, provee una utilización mucho más eficiente
de la red y de la estación maestra. No obstante, ello, todavía presenta la gran debilidad
que toda la información debe pasar por la estación maestra y, si el volumen de
información es grande, no es muy recomendable.
3) Manejado por marcas: todas las estaciones están en una misma categoría. El protocolo
funciona así: existe un tipo especial de mensaje llamado “token”, que va pasando de
nodo en nodo siempre en una misma dirección. Teniendo la posesión del “token”,
cada usuario dispone de una cierta cantidad de tiempo durante el cual puede
transmitir información propia mientras que los demás solo pueden “escuchar” en ese
momento. La información viajará de estación en estación, pasando por la de destino,
hasta retornar a la originaria. Si esta verifica que la información llegó correctamente,
emitirá el “token”, caso contrario, retransmitirá antes de liberarlo. Si un nodo que
tiene el token no tiene nada para transmitir, lo pasa al siguiente. Si bien presenta
muchas ventajas en tiempo de respuesta y poco overhead, tiene un punto débil
importante: una falla de transmisión del token en cualquiera de los nodos interrumpirá
su normal circulación y, por lo tanto, todo el funcionamiento de la red.
4) Detección de colisiones: cualquier nodo puede transmitir en cualquier momento
después de verificar que la red no esté en uso. Si en ese momento la red está siendo
usada, el nodo debe esperar un cierto tiempo antes de volver a intentar transmitir.
Existe una pequeña posibilidad que simultáneamente dos nodos censen la línea,
detecten que no está en uso y transmitan. Como resultado se produce una colisión de
los dos mensajes, lo que produce una elevación de la señal de toda la red. De este
modo los nodos que colisionaron detectan esa situación, y esperan cierta cantidad de
tiempo para volver a transmitir. Cada nodo tiene una diferente cantidad de tiempo de
espera. Este protocolo tiene una debilidad importante: no se puede predecir cuanto
tiempo puede llegar a tener que esperar un usuario antes de transmitir. Mas aun, es
casi imposible predecir la performance de toda la red debido a esto. Además, a medida
que crece la cantidad de usuarios aumenta la posibilidad de colisiones.
Existe una relación inversa entre la complejidad de la topología y el protocolo llevado a
cabo.
Medio de comunicación que va a interconectar los nodos
Alambre:
1. Par simple: es el más antiguo y barato. Es poco usado ya que es muy sensible a los
“ruidos” y por lo tanto puede generar perdidas de información o puede producir
un gran overhead.
2. Par trenzado sin blindar: también conocido como UTP. Los cables de cada par van
trenzados entre sí. A su vez, los pares se entrelazan también. Este
entrelazamiento, unido a la transmisión de las señales en modo diferencial, le
otorgan al cable una gran inmunidad a los ruidos externos.
3. Par trenzado blindado (STP): su mayor desventaja es que es muy voluminoso
respecto del UTP de similar cantidad de pares. Su ventaja respecto al UTP es que
llega a mayores distancias y que trabaja mejor en ambientes más ruidosos como
una fábrica, y su conexión es más barata que la de una fibra óptica.
4. Cable coaxil: se caracterizan por tener muy alta inmunidad al ruido y un gran
ancho de banda.
5. Cable plano multiconductor
6. Líneas telefónicas digitales: este medio de conexión está especialmente orientado
hacia las WAN, y debe ser alquilado a alguna compañía telefónica, bajo la forma de
líneas de datos punto a punto dedicadas, las cuales vienen en diversas variedades,
cada una se distingue por la capacidad (ancho de banda) del canal
Aire o vacío:
1. Luz infrarroja: la ventaja principal es que ya no es necesario un cableado físico
para transmitir datos, con lo que las reconfiguraciones de puestos de trabajo son
muy rápidas. Además, por utilizar luz, no produce interferencias de tipo
electromagnético. Sus mayores desventajas son que las estaciones deben estar a
la vista del concentrador central (la luz no puede “doblar” una esquina) y que las
velocidades obtenidas hasta el momento son bajas comparadas con las
tecnologías tradicionales.
2. Microondas
3. Radio-enlace
4. Satélite
5. Wifi (Wireless Fidelity): son enlaces de radiotransmisión, de corto alcance (no más
de 80 mts, con suerte). Sencilla instalación, además permite utilizar equipos
portátiles y estar en movimiento.
Fibra óptica: se transmite luz. Un diodo foto emisor emite una señal de luz a través de la
fibra óptica. La fibra óptica está compuesta por un núcleo de material óptico y una
cubierta refractante que hace que los rayos de luz fluyan a lo largo del cable. En el otro
extremo, existe un transductor fotoeléctrico que recibe las señales de luz. Dado que en la
práctica no hay atenuación (resistencia), se pueden cubrir hasta 20 Km con una fibra
óptica, con velocidades de hasta 800 Mbps. Además, este medio provee una gran
inmunidad al “ruido” (es luz y no señal eléctrica). Su mayor desventaja es que es muy cara
y difícil de conectar.
Los factores que intervienen en la decisión son: distancia a cubrir, costos, cantidad de usuarios,
facilidad de instalación, y sensibilidad al “ruido” externo. Llamamos “ruido” a algún campo
magnético generado por elementos externos al sistema y que pueden llegar a producir
alteraciones en la información transmitida.