Guia Teleprocesamiento
Guia Teleprocesamiento
Unidad 1
• Caracteristicas de un sistema Main frame
Los mainframes son computadores de gran tamaño que solo utilizan las grandes empresas para procesar datos
críticos como por ejemplo los el procesamiento de grandes volúmenes datos para censos y con fines
estadísticos; en la industria, con el objetivo de servir de ayuda a ingenieros en operaciones de cálculo que de
otro forma tomarían mucho tiempo y personal, planeación de recursos empresariales y proceso de
transacciones masivas, entre otras tareas.
Aunque no cuentan con la capacidad de procesamiento de las supercomputadoras, no deja de ser cierto que
estas últimas son más empleadas en el campo de la investigación pura, ya que su costo es inasequible, aún
para las grandes corporaciones.
Estos equipos aún ocupan un sitial privilegiado en los ámbitos citados arriba debido primordialmente a su
confiabilidad y solidez. Es por ello que una de las interrogantes que usualmente se plantean tanto usuarios
como apasionados de la informática es por qué razón su tecnología, que se remonta a los años 1950, aún se
considera como la plataforma de más confianza dentro del mundo de los negocios.
Ello se debe a que, aunque la tecnología de las PC ha evolucionado bastante en lo referente a seguridad,
desempeño y solidez, aún se hayan lejos del rendimiento y confiabilidad que suelen brindar una mainframe.
Para cuantiosos expertos en informática, estos son los equipos de procesamiento de información más
estables, capaces y seguros que han existido para ejecutar tareas que implican procesar millones de pedidos
en tiempo real.
Otro aspecto en el cual los mainframes destacan es en lo referente a la seguridad. Someter a ataque de virus a
estos colosos es casi imposible, a causa de las múltiples medidas de seguridad que brinda su sistema de
permisos. Aunque no se pueda asegurar que no haya virus que ataquen mainframe, no deja de ser cierto que
la seguridad ante intrusiones que protege a los mainframes suele ser de carácter extrema. Esto obedece al
diseño de su arquitectura interna, la cual imposibilita que algún atacante pueda aprovecharse de alguna
vulnerabilidad.
n los sistemas cliente-servidor, y los ingenieros cliente-servidor ganan alrededor de un tercio menos que los
programadores de sistemas mainframe.
Ambientes operativos
Si bien muchos servidores funcionan bien en una sala limpia y relativamente fresca, las computadoras
centrales requieren controles más específicos, particularmente en las áreas de temperatura, humedad,
extinción de incendios y limpieza. Los mainframes generalmente son compatibles con fuentes de alimentación
ininterrumpidas para un funcionamiento continuo y consumen mucha más energía que sus contrapartes
cliente-servidor más pequeñas. Una habitación fresca con protección contra incendios adecuada y una puerta
con cerradura puede albergar, enfriar y proteger fácilmente varios sistemas cliente-servidor.
Tamaño
Las computadoras mainframe modernas son más pequeñas que sus predecesoras que ocupaban una
habitación entera, pero todavía son típicamente del tamaño de un refrigerador o más grandes. Las máquinas
cliente-servidor, por otro lado, suelen tener el tamaño de varias cajas de zapatos apiladas. La huella más
pequeña de una máquina cliente-servidor contribuye a reducir los requisitos ambientales, así como a un
menor consumo de energía.
Si bien en todos estos años desde principio de la década de los 70, el concepto cliente-servidor ha
evolucionado poco o nada, sí lo han hecho las tecnologías que han permitido alimentarlo. Este es el caso de la
tecnología push, que permite alimentar al cliente con nuevos datos sin que este tenga que hacer una petición
explícita de actualización al servidor.
Tal vez una evolución ha sido las redes entre pares, donde se comparten recursos sin tener una maquina en
particular la centrlización de las peticiones del resto.
• Cuan centralizado considera a un Sist Centralizado con UNIX y Bases de datos distribuidas ?
Rightsizing ==> efectuar estudios más profundos de las necesidades, tanto de equipamientos, software, cuanto
paquetes de programas y sistemas, esto involucra entonces la necesidad de una ingeniería de sistemas, a fin de
lograr un desempeño adecuado de todas estas partes constitutivas, logrando el mejor desempeño en términos
económicos y de prestaciones. Nace entonces el denominado Tamaño Justo “Rightsizing” .
SmartSizing ==> el SmartSizing no solo es la mas conveniete elección, sino que es la busqueda inteligente de ver
mas allá de lo que en ese momento sea lo adecuado.
el Tamaño Inteligente (“Smartsizing”) se basa en la reingeniería, haciendo más eficiente los procesos de negocio,
e incrementando los beneficios obtenidos; a diferencia de la Reducción de Tamaño (“Downsizing”), en la cual
sólo se centra en la reducción de costos y el incremento de la productividad.
El modelo PAD se denomina de esa manera porque es aquel modelo orientado a PRESENTACION / APLICACION
/ DATOS
cuando hablamos de PAD estamos hablando de un modelo en el cual, fundamentalmente, se pone en juego la
PRESENTACION ( por ejemplo, dónde realizaré los cálculos , si en terminal o dispositivo) APLICACIÓN ( basadas
en las reglas del Negocio) y los DATOS ( por ejemplo ,donde realizo los respaldos, donde los almaceno, en que
espacio )
Modelo descendente
significa ver una descripción amplia del sistema y después dividirla en partes más pequeñas o subsistemas. El
diseña descendente permite a los analista de sistemas determinar primero los objetivos organicionales
globales,así como también determinar como se reúnen mejor en un sistemas global. Después el analista
dividedicho sistemas en subsistemas y requerimientos
Modelo Ascendente
se refiere a identificar los procesos que necesitan computarizarseconformes surgen, analizarlos como sistemas
y codificar los procesos o comprar software empaquetadopara resolver el problema inmediato. Los problemas
que requieren computarizarse normalmente seencuentran en el nivel mas bajo de la organi- zacion. Con
frecuencia este tipo de problemas sonestructurados y por lo tanto son más sensibles a la computación;
también son los más rentables. Por lo tanto, el nombre
1. APLICACION
2. DATOS
3. REDES
4. TECNOLOGIA
Frontend es la parte de un programa o dispositivo a la que un usuario puede acceder directamente. Son todas
las tecnologías de diseño y desarrollo que se encargan de la interactividad con los usuarios.
Backend es la capa de acceso a datos de un software o cualquier dispositivo, que no es directamente accesible
por los usuarios, además contiene la lógica de la aplicación que maneja dichos datos. El Backend también
accede al servidor, que es una aplicación especializada que entiende la forma como el navegador solicita cosas.
• Que es el Middleware
El término middleware se refiere a un sistema de software que ofrece servicios y funciones comunes para las
aplicaciones. En general, el middleware se encarga de las tareas de gestión de datos, servicios de aplicaciones,
mensajería, autenticación y gestión de API.
UNIDAD 2
• Que es DATO
Los datos son representaciones simbólicas (vale decir: numéricas, alfabéticas, algorítmicas, etc.) de un
determinado atributo o variable cualitativa o cuantitativa, o sea: la descripción codificada de un hecho
empírico, un suceso, una entidad.
• Que es INFORMACION
el conjunto de datos organizados y procesados que funcionan como mensajes, instrucciones y operaciones o
cualquier otro tipo de actividad que tenga lugar en una computadora.
Red de comunicación entre ordenadores situados en el mismo edificio o en edificios cercanos, de forma que
permite a sus usuarios el intercambio de datos y la compartición de recursos.
es un software que permite la interconexión de ordenadores para poder acceder a los servicios y recursos,
hardware y software, creando redes de computadoras.
Este Software sirve para coordinar y manejar las actividades desde un ordenador a una red de computadoras,
también incluye herramientas propias de sistema operativo; por ejemplo, las herramientas para el uso de
ficheros y directorios, así como el mantenimiento y administración de la red.
Incluso las herramientas de correo electrónico, envío de mensaje, la acción de aplicaciones incluidas en otro
equipo, copia de nodus y distribución de recursos de hardware.
• Que parte proporcional ocupa el la memoria el sistema operativo de red con relacion al total de la
ocupacion del sistema perativo en su conjunto ?
Estimo que proporcionalmente ocupa menos memoria que el sist operativo en conjunto, ya q solo tiene que
trabajar con determinadas funciones, y no permanetemente como el Sist Operativo
Si se va a configurar desde la placa de red al ordenador, para indicarle su Direccion IP , entonces debemos
configurar la direccion del Protocolo de Internet (IP), la mascara usada en la red de Area local , y , el puerto de
enlace, y los servidores DNS ( todo bajo el protocolo TCP/IPv4 )
• Que tipo de conexionado o topologia fisica mecanica acepta una red ethernet ?
Cuando se utiliza cable coaxial delgado, la topología física de la red puede ser únicamente una topología bus.
En este diseño, todos los dispositivos son conectados a un único tramo de cable. Este cable provee un camino
para las señales eléctricas que es común para todos los dispositivos conectados y transporta todas las
transmisiones entre los dispositivos
Los segmentos de par trenzado y de fibra óptica son dispuestos en una topología física estrella. En esta
topología, los dispositivos individuales son conectados a un concentrador o hub central, formando un
segmento. Las señales de cada dispositivo conectado son enviadas al hub y luego difundidas a todos los otros
dispositivos conectados. Este diseño permite a Ethernet operar lógicamente como un bus, pero físicamente el
bus solo existe en el hub.
• Que tipo de conexionado o topologia fisica mecanica acepta una red Tpcken ring ?
La norma 802.5 se basa en el método del paso de testigo en una topología de anillo. Hay distintas
combinaciones posibles para los anchos de banda, 4 Mbps, 16 Mbps y 100 Mbps, en función del cableado
utilizado, UTP, STP o fibra multimodo.
Los equipos se conectan en estrella (topología física) al Multistation Access Unit (MAU). Unidad de accesos
Multiples de estaciones
Los MAU más antiguos disponen de tomas macho y hembra y se utilizan conectores DB9 para conectar las
tarjetas a los MAU, a través de un cable Token Ring específico.
• Que tipo de conexionado o topologia fisica mecanica acepta una red ATM ?
Con la tecnología A TM se consigue crear una red de transporte de banda ancha de topología variable. Es decir,
en función de las necesidades y enlaces disponibles, el administrador de la red puede optar por una topología
en estrella, malla, árbol, etc. con una configuración libre de diferentes enlaces (El, E3, OC-3, etc.)
La emulación de redes locales (Local Area Networks Emulated, LANE, también conocida como ELAN) es un
esfuerzo del Foro ATM, que permite que las redes locales y las redes locales interconectadas entre sí, puedan
trabajar sobre una plataforma de redes ATM e interactuar con ellas. LANE permite que un grupo de estaciones
de trabajo ATM emulen las funciones y protocolos de las redes ethemet y token ring tradicionales.
El estándar IEEE 802.3 define el control de acceso al medio (MAC) para Ethernet por cable. Esta tecnología
generalmente es para las LAN, pero también tiene aplicaciones para redes de área extensa (WAN). El estándar
802.11 define un conjunto de estándares para implementar redes de área local inalámbricas (WLAN).
• En que consite Red Definida por SW.. Cuales son sus partes constitutivas ?
Las redes definidas por software (SDN, software-defined networking) son una arquitectura de redes ágil y
diseñada para agilizar la administración de TI y centralizar el control y ayudar a las organizaciones a seguir el
ritmo de la naturaleza dinámica de las aplicaciones de hoy en día. Separa la administración de la red de la
infraestructura de red subyacente, con lo que los administradores pueden simplificar el aprovisionamiento de
los recursos de la red.
Permiten diseñar, desarrollar y administrar redes mediante la separacion de los planos de control y envio de
datos.
La constituyen la CAPA de APLICACION ( con las aplicaciones del Negocio ) , la capa de CONTROL ( con el
software de control de la red definida x softare ) y la capa de INFRAESTRUCTURA electronica ( de los
dispositivos de red )
se habla de un anillo lógico sobre una estructura física de estrella, ya que la transmisión de datos se produce,
a nivel abstracto, en forma de anillo. Si bien los datos siempre son llevados hasta la MAU, desde allí no se
envían a ningún ordenador concreto, sino simplemente al siguiente en el orden fijado.
El protocolo token passing se utiliza para evitar que reine el caos. Este método se encarga de que no todos los
participantes envíen datos a la red al mismo tiempo. Tan solo los ordenadores que tengan en ese momento el
token pueden enviar paquetes de datos a la red. El token se pasa de unos a otros en forma de anillo.
La subcapa de convergencia (CS) del modo de transferencia asíncrona (ATM) IEEE 802.16 reside en la parte
superior de la IEEE 802,16 Media Access Control (MAC) Parte subcapa Común (CPS). El ATM CS es responsable
de aceptar Células ATM de la capa ATM y entrega de unidades de datos de protocolo CS (PDU) al MAC-CPS
apropiado Punto de acceso al servicio (SAP)
Fast Ethernet o Ethernet de alta velocidad es el nombre de una serie de estándares de IEEE de redes Ethernet
de 100 Mbps (megabits por segundo). El nombre Ethernet viene del concepto físico de ether. En su momento
el prefijo fast se le agregó para diferenciarla de la versión original Ethernet de 10 Mbps.
La siguiente tabla explica las diferencias entre Fast Ethernet y Gigabit Ethernet.
Único (10u) o
u)
Categoría estándar 5
1000Base-T 4 pares de UTP 100m
UTP
Del mismo modo que el par de hilos que transporta las señales telefónicas POTS (Plain Old
Telephone System) hasta su hogar suministra energía suficiente para el audífono, el sistema de
discado y timbre de su teléfono, PoE facilita la entrega de energía DC mediante cableado Ethernet
estándar ( CAT3 y superior ). Desde 2003, los estándares PoE (IEEE 802.3af) y PoE+ (IEEE 802.3at)
se han utilizado oportunamente para alimentar y conectar dispositivos de red que requieren una
tensión de hasta 30 vatios. Usando estos estándares, las organizaciones han instalado de forma
frecuente equipos en ubicaciones donde es complicado o muy costoso instalar alimentación AC de
forma independiente
Para satisfacer las demandas de energía del creciente mercado del Internet de las cosas (IoT), la
tecnología PoE, con la introducción del estándar IEEE 802.3bt, admite hasta 100 W de potencia en el
proveedor de alimentación eléctrica (Power Sourcing Equipment, PSE). Algunas aplicaciones de alta
tensión que podrán aprovechar el estándar Hi-PoE son:
La electricidad "injectada" al cableado puede ser hecha mediante Switches LAN/WAN que
incorporan circuitería para suministro de energía.
• Topologia de VGAnylan
VG-AnyLAN es una nueva tecnología para transmitir información con estructura Ethernet y Token Ring a 100
Mbit/s. Consiste en un hub o repetidor central de nivel 1 o raíz con un enlace a cada nodo, creándose así una
topología en estrella.
5 o superior
estándar de Red de Area Local (LAN) que pretende ofrecer una alta velocidad, y un medio
compartido para sustituir a protocolos más lentos, aunque utilizando los medios existentes.
Se ha visto que el encapsulado de datagramas para su transmisión a través de una red “ATM”se deduce de
manera directa. En contraste, la asignación de direcciones “IP” puede ser difícil. Como en otras tecnologías de
red, “ATM”asigna a cada computadora conectada una dirección física que puede emplearse cuando se
establece un circuito virtual. Por un lado, como las direcciones físicas de “ATM” son más grandes que las
direcciones IP, una dirección física “ATM” no puede codificarse dentro de una dirección “IP”. Así, el protocolo
de internet, no puede utilizar la asignación de direcciones estáticas para redes “ATM”. Por otro lado, el
hardware “ATM” no soporta la difusión. Por lo tanto, el protocolo de internet no puede utilizar el protocoloo
de direccionamiento inverso convencional (“ARP”) para asignar direcciones en redes “ATM”. Los circuitos
virtuales permanentes “ATM” complican aún más la asignación de direcciones. Debido a que un administrador
configura manualmente cada circuito virtual permanente, un anfitrión sólo conoce el par de circuitos VPINCI.
El software en el anfitrión no conoce la dirección “IP” ni la dirección de hardware “ATM” del extremo remoto.
Un mecanismo de asignación de direcciones “IP”debe proporcionar la identificación de una computadora
remota conectada a un “PVC” así como la creación dinámica de “SVC” para destinos conocidos. Las tecnologías
de conmutación orientadas a la conexión complican aún más la asignación de direcciones porque requieren
dos niveles de asignación. En primer lugar, cuando crean un circuito virtual sobre el que serán enviados los
datagramas, las direcciones “IP” de los destinos deben transformarse en direcciones de puntos extremos
“ATM”. Las direcciones de puntos extremos se usan para crea un circuito virtual. En segundo lugar, cuando se
envía un datagrama a una computadora remota en UJ circuito virtual existente, las direcciones “IP”de dos
destinos se deben transformar en el par VPINC para el circuito. El segundo direccionamiento se utiliza cada vez
que un datagrama es Autor: Hugo Roberto COLOMBO, Colaboradores: Miguel SALGUEIRO y Luciana MONJE ,
Aprobación Pendiente Hoja: 149 de 409 enviado en u red “ATM”; el primer direccionamiento es necesario sólo
cuando un anfitrión crea un “SVC”
1.- Respaldo ( por duplicado preferentemente ) de todo lo migrable y respaldable y seguir las recomendaciones
del texto al respecto del respaldo
2.- Migrar modularmente.. No todo junto. .comenzando con lo menos conflictivo y siguiendo la premisa 1 en
cada modulo.
El enfoque lo brindará primero desde el ser humano, para ir luego a una comparativa de costos, y luego recién
se enfocará el tratamiento de los distintos elementos componentes que constituyen un sistema de
información. Es entonces que para comenzar hay que tener presente que la idea central es “Migrar Sin Morir
en el Intento”, pese a que la frase suena entre mercadeo ya algo poco pulido, en realidad representa
perfectamente la idea del autor (“Migrar Sobreviviendo al Intento”), ya que normalmente los esquemas que se
presentan ante una migración, es mudemos todo y de golpe, ya y que en el próximo segundo todo esté
andando y . . .
En el momento de pensar en las migraciones, desde ya que se tendrá que aplicar también a este proceso las
técnicas del modelo ascendente / descendente, ya que el proceso de migración en sí es un proceso que
requiere del uso de los recursos y tecnologías de la red, para ello habrá que planificar muy bien el proceso en
estos términos.
Migracion de BD
Esta es una situación que requerirá de toda la capacidad ingenieril de las personas miembros del equipo93, y
de pruebas conceptuales muy intensas, como así también de la previsión de mecanismos de vuelta atrás muy
probados. Desde ya la idea es ir replicando las Bases de Datos más pequeñas de un “Servidor” a otro, como así
también las bitácoras de transacciones, para lo cual se deberá contar con suficiente capacidad de
almacenamiento para las mismas, tanto en el equipo saliente, cuanto para el nuevo sistemas, en estos casos
apoyarse en tecnologías bajo demanda es quizás una opción interesante. Cada vez que se efectúa una
migración de una base, se deberá verificar su consistencia antes y después de la migración, como así también
la operativa de los datos,
Consideracion Final : En general puede decirse que cada fabricante ha diseñado procesos para efectuar sus
migraciones de una versión anterior de su producto a la actual, o desde el producto de un competidor al
propio, ya que allí existe la posibilidad de poder migrar hacia sus propios productos. La recomendación que
puede hacerse es que se sigan las indicaciones del fabricante del nuevo producto, ya que en caso contrario los
resultados pueden ser impredecibles. Lo que si vayan dando de a pequeños pasos a la vez, y verificando el
comportamiento de la nueva solución; es preferible pagar un año más de contrato de una solución vieja, a la
pérdida de información, o prestigio de una determinada marca, sólo la persona que construyó una marca sabe
lo que esto cuesta94, un resultado desfavorable le llega a entre 14 y 21 personas, un resultado positivo sólo a
7 personas.
Unidad 3
Se debe tener presente que el principio de conmutación entre dos estados, o lógica binaria, aplicado a la
electrónica conjuntamente con el álgebra de Boole hacen posible la electrónica de sistemas digitales, siendo el
computador digital una implementación práctica de estos conceptos.
Hay que recordar que los Hz no lo son todo en un procesador, si no que tenemos que tener en cuenta distintos
aspectos como los nanómetros, ya que entre más hz no es bueno, debido al sobrecalentamiento que tendrá el
procesador, es por eso que entre menos nanómetros se tenga, tendremos una mejor eficiencia en los
procesadores, actualmente en los procesadores de telefonía móvil se tienen un espacio de 7 nanómetros,
como en el snapdragon 865, o en el kirin 990, y otros más, y son procesadores de la gama alta actual, ya se
están trabajando con procesadores de 5 nanómetros como Apple con su serie A Bionic, recordemos que entre
los diferentes aspectos también la capa de personalización cuenta mucho, ya que su optimización ayuda a que
el procesador tenga un mejor rendimiento y sea más fácil para mover el sistema. Existen otros aspectos que se
deben considerar en los procesadores como las velocidades de lectura o la construcción misma del
procesador, como sus capas etc.
No debe confundirse la frecuencia de reloj con la cantidad de operaciones que un procesador es capaz de
realizar en un segundo, esto porque una operación sola puede requerir la apertura o cierre de varias de
compuertas (paso de corriente por los transistores), es por ello que la cantidad de operaciones por segundo se
ven reducidas en función de las instrucciones que ejecuta.
• Función de cache L1 y L2
La caché es una pequeña memoria, que está instalada en el microprocesador. Tiene la capacidad de contener
datos sin necesidad de actualizarse de manera constantemente. Al estar instalada en la CPU, es muy rápida. De
hecho, puede obtener velocidades de más de 200 GB/s en algunos casos, lo que deja claro esta velocidad. Se
encarga de almacenar las instrucciones que van a ser procesadas por la CPU.
Lo hace para que la CPU vaya a tener acceso a estas instrucciones de la forma más rápida posible. Esta caché
se divide en varios niveles, cada uno de ellos más rápido.
L1 :Se trata de la más rápida, porque es la que más cerca está de los núcleos. Por eso, es capaz de alcanzar
unas velocidades de hasta 1150 GB/s en ciertos momentos. Su tamaño es reducido, de apenas 256 KB, aunque
depende en parte de la potencia de la CPU. Ya que en otros modelos el tamaño puede ser mayor, hasta cuatro
veces más grande.
Se divide en dos tipos: Una de datos y otra de instrucciones. La primera almacena los datos que se procesan y
la segunda la información sobre la operación que se tiene que hacer.
L2: Se trata de una que tiene una mayor capacidad de almacenamiento, aunque es más lenta que la anterior.
En esta caché se almacenan las instrucciones y datos que la CPU va a usar dentro de poco. No está dividida en
dos como en el caso anterior.
• COMO SE MIDE EL RENDIMIENTO DE LOS BUSES
El paradigma del micronúcleo, tuvo una gran relevancia académica durante los años ochenta y
principios de los noventa, dentro de lo que se denominó self healing computing, esto es, sistemas
independientes que fuesen capaces de superar por sí mismos errores de software o hardware. En un
principio pretendía ser una solución a la creciente complejidad de los sistemas operativos.
Tarea
El hilo es una parte del proceso. puede existir más de un hilo como parte del proceso. Thread tiene
su propia área de programa y área de memoria. Varios subprocesos dentro de un proceso no pueden
acceder entre sí a los datos. El proceso tiene que manejar la sincronización de subprocesos para
lograr el comportamiento deseable.
El multiprocesamiento simétrico (SMP) es un tipo de arquitectura de computadora en la que dos o más unidades
centrales de procesamiento (CPU) comparten un enlace común a la misma memoria.
Cooperativo vs. no cooperativo: En los primeros cada procesador desarrolla una parte del trabajo
de planificación, pero todos trabajan juntos con el mismo objetivo. En los no cooperativos los
procesadores toman decisiones independientes e independientemente de su efecto en el sistema.
Multitarea Cooperativa = proporciona una técnica en la que más de 2 programas de software pueden
compartir los recursos y el tiempo de un procesador host común. Dentro de esta técnica, la cola debe
poder asignar igualmente los recursos del procesador dentro de los programas. Eso significa que las
tareas deben liberar la CPU, lo que permite que se ejecute la siguiente tarea.
Ventajas ==>
Desventajas
NetBIOS, "Network Basic Input/Output System", es, (en sentido estricto) una especificación de
interfaz para acceso a servicios de red, es decir, una capa de software desarrollado para enlazar un
sistema operativo de red con hardware específico. NetBIOS fue originalmente desarrollado por IBM y
Sytek como API/APIS para el software cliente de recursos de una Red de área local (LAN). Desde su
creación, NetBIOS se ha convertido en el fundamento de muchas otras aplicaciones de red.
NetBIOS permite a las aplicaciones 'hablar' con la red. Su intención es conseguir aislar los programas
de aplicación de cualquier tipo de dependencia del hardware. También evita que los desarrolladores
de software tengan que desarrollar rutinas de recuperación ante errores o de enrutamiento o
direccionamiento de mensajes a bajo nivel.
En una red local con soporte NetBIOS, las computadoras son conocidas e identificadas con un
nombre. Cada computador de la red tiene un único nombre.
Cada PC de una red local NetBIOS se comunica con los otros bien sea estableciendo una conexión
(sesión), usando datagramas NetBIOS o mediante broadcast. Las sesiones permiten, como en el
protocolo TCP, mandar mensajes más largos y gestionar el control y recuperación de errores. La
comunicación será punto a punto. Por otro lado, los métodos de datagramas y broadcast permiten a
un ordenador comunicarse con otros cuantos al mismo tiempo, pero estando limitados en el tamaño
del mensaje. Además, no hay control ni recuperación de errores (al igual que ocurre en UDP). A
cambio, se consigue una mayor eficiencia con mensajes cortos, al no tener que establecer una
conexión.
La única forma de hacer que NetBIOS funcione en redes grandes es unir los distintos segmentos en
una gran red virtual.
• Que es el REDIRECTOR
Un redirector procesa el envío de peticiones. Dependiendo del software de red, este redirector se
conoce como «Shell» o «generador de peticiones». El redirector es una pequeña sección del código
de un Sistema Operativo de Red que:
La actividad del redirector se inicia en un equipo cliente cuando el usuario genera la petición de un
recurso o servicio de red. El equipo del usuario se identifica como cliente, puesto que está realizando
una petición a un servidor. El redirector intercepta la petición y la envía a la red.
El servidor procesa la conexión solicitada por los redirectores del cliente y les proporciona acceso a
los recursos solicitados. En otras palabras, los servicios del servidor solicitados por el cliente.
El NCB es el bloque de control principal en una simulación de red . Contiene información que se
aplica a todos los recursos definidos en una red. Se construye un NCB para cada red simulada
• Ejemplos de GUI
son un programa informático que realiza la función de interfaz de usuario. Está formado por
imágenes y objetos gráficos, que representan la información y acciones que se encuentran en la
interfaz. Su objetivo es el de crear un entorno visual fácil de usar para que fluya la comunicación son
el sistema operativo.
Hay varios tipos de interfaces gráficas de usuario. Primero encontramos las GLI, Command line
interface, o interfaz de línea de comandos. Son las que encontramos en los juegos o en tareas de
investigación. Mezclan 3D con 2D y la interfaz de enfoque del usuario o ZUI, Zooming User Interface.
Después está la interfaz de usuario táctil. Es la que utilizamos a diario en nuestros teléfonos móviles,
tabletas, consolas de videojuegos o en domótica. En el mundo de la empresa la usan los
restaurantes o tiendas de autoservicio, cajeros automáticos, kioskos de información, entre otros
muchos. Son las GUI de uso específico y son las que al tocar la pantalla con los dedos, se ejecutan
los comandos del ratón sobre el software,
Por último encontramos la interfaz natural de usuario, o NUI, son las interfaces en las que se
interactúa con un sistema o aplicación. En la interacción con las NUI, no se usa ningún dispositivos
de entrada como el ratón o el teclado. Siempre se usan las manos o las yemas de los dedos.
Esta tecnología surgió en un esfuerzo que tiene como fin proveer en sistemas de grandes conjuntos
de datos almacenados con tolerancia a fallos y redundancia de los mismos. El sistema básicamente
se consta de un conjunto de pequeños discos que son unidos para formar un gran disco de
almacenamiento, estos son controlados por un software o hardware que realiza este trabajo de
unirlos y mostrarle al usuario un solo disco de almacenamiento. Tener presente que se trata de un
mecanismo que provee una mayor disponibilidad y “nunca será un mecanismo de respaldo”.
Ante el constante crecimiento del almacenamiento en las organizaciones, por diferentes tipos de informacion,
datos, documentacion, etc, se hace necesario reorganizar el almacenamiento de todo este creciente tamaños
de informacion.
Por eso la necesidad de implementar HSM que son estrategias de administración del almacenamiento de
datos, las cuáles definen la mejor utilización de los recursos a través del movimiento de los mismos de un
medio de almacenamiento disponible a otro, basadas en un juego de políticas y soportadas por equipamiento
de Hardware y Software adecuado.
• Ejemplo de HSM
Un ejemplo práctico es , por ejemplo, en una clínica donde se tiene cientos de miles de Hitorias Clinicas
DIGITALIZADAS , ocupando TeraBytes en discos al alcance permanente de los usuarios, mover, en base a
estrategias de HSM, aquellas que no tienen consulta en años, a unidades de discos por fuera de las de
almacenamiento diario y permanente.
Esto aligerara la cantidad de almacenamiento en los servidores de acceso a los usuarios, mejorando tambien el
tiempo de acceso a las de consulta habitual.
Un diseño tolerante a fallos es un sistema que está capacitado para continuar su funcionamiento cuando
algún componente del sistema falla.,1 posiblemente a un nivel más reducido, lo que es mejor a que el sistema
falle completamente. El término es comúnmente usado para describir sistemas basados en computadoras
diseñados para continuar en mayor o menor medida las operaciones que realiza con, a lo mejor, una reducción
de su rendimiento o un incremento de los tiempos de respuesta en las componentes que fallan. Esto significa
que el sistema, dada una falla de software o de hardware no se detiene.
Prevención de fallos
▪ Evitar fallos.
▪ Eliminar fallos.
Tolerancia a fallos
Es necesario saber los posibles tipos de fallos, es decir, anticiparse a los fallos.
Raid5 optimiza la capacidad del sistema permitiendo una utilización de hasta el 80% de la capacidad del
conjunto de discos.
Esto lo consigue mediante el cálculo de información de paridad y su almacenamiento alternativo por bloques
en todos los discos del conjunto. La información del usuario se graba por bloques y de forma alternativa en
todos ellos.
De esta manera, si cualquiera de las unidades de disco falla, se puede recuperar la información en tiempo real,
sobre la marcha, mediante una simple operación de lógica de O exclusivo, sin que el “Servidor” deje de
funcionar.
• Que es el Clustering
Ventajas
Desventajas
▪ Costos
▪ Tiempo mayor de procesamiento
▪ El ancho de banda es mas limitado
▪ Proceso de cambio de provedor complejo
El Grid Computing es un modelo que surge a manera de compartir recursos entre un grupo de personas o
empresas que comparten un fin común, análisis, experimentación, distribución de datos, etc,. Es un modelo
distribuido, está compuesta por servidores de almacenamiento, memoria, velocidad de procesamiento, esto se
logra a través de una red que esta conformada por todos los equipos de los usuarios mismos, aquí, el
mecanismo de administración y máximo rendimiento se realiza a través de un Middleware
Cloud Computing se refiere a ofrecer servicios a través de la conectividad y gran escala de Internet. Aquí todos
los servicios necesarios para el desarrollo, administración e intercambio de información se realiza a través de
Internet. La computación en la nube ofrece a los usuarios y empresas de todos los tamaños el poder y
capacidad de recursos de procesamiento así como el almacenamiento y memoria
Fredy Marin. (2019). Cloud Computing y Grid Computing. 2021, Diciembre 8, Conogasi.org Sitio web:
https://conogasi.org/articulos/cloud-computing-y-grid-computing/
Una red de área de almacenamiento, en inglés Storage Area Network (SAN), es una red de
almacenamiento integral. Se trata de una arquitectura completa que agrupa los siguientes
elementos.
• Clientes NOVELL
Funciona idealmente con clientes Unix , Netware y LInux.
COn windos Funciona correctamente, pero algunas caracteristicas no son 100% seguras.
• NLM
Los NLM, los módulos cargables de NetWare (NetWare Loadable Modules) son aplicaciones, a menudo
desarrolladas por otras compañías que Novell, que se ejecutan en el servidor de archivos. Esta categoría
incluye programas simples como controladores para tarjetas microcanales, productos complejos pero
comunes como pasarelas de correo electrónico o servicio de copias de seguridad, además de productos de
gestión de red, seguridad y productividad en grupos de trabajo. Los NML permiten al servidor potente
prescindir de los equipos dedicados que en la actualidad se puedan utilizar como pasarelas SNA, pasarelas
para el correo electrónico y servidores de comunicaciones, aunque no sin un riesgo mínimo.
IPX se corresponde con IP, y como él, trabaja en la capa de red. Se encarga del envío de los paquetes desde el
origen al destino. SPX se corresponde con TCP, y como él, trabaja en la capa de transporte. Se encarga del flujo
de la transmisión y que los paquetes lleguen sin errores a su destino.
Sap= para q la comunoicacion sea posible es necesario conocer el nombre del servidor y el del tipo de
servicios q proporciona. Los nombres son mas manejables que los numeros, por eso los routers tienen un
servidor de nombres , que relacionan las direcciones numericas con su nombre, mediante el protocolo de
notificacion de servicios SAP
NCP = Netware Core Packet ( Ptotocolo pcpal de Netware) Es el protocolo que se encarga de gestionar la
mayor parte del trafico en una red Novell. Lo utilizan tanto los clientes como los servidores para enviar
solicitudes y respuestas de archivo, o enviar trabajos a la cola de impresión-.
• FUncion de SPX
Se encarga del flujo de la transmisión y que los paquetes lleguen sin errores a su destino.
• Funcion de IPX
trabaja en la capa de red. Se encarga del envío de los paquetes desde el origen al destino.
Es un elemento del sistema operativo que funciona como una interfaz entre el software y el hardware del
sistema, proveyendo una plataforma de hardware consistente sobre la cual corren las aplicaciones.
Cuando se emplea una HAL, las aplicaciones no acceden directamente al hardware sino que lo hacen a la
capa abstracta provista por la HAL. Del mismo modo que las API, las HAL permiten que las aplicaciones
sean independientes del hardware porque abstraen información acerca de tales sistemas, como lo son las
cachés, los buses de E/S y las interrupciones, y usan estos datos para darle al software una forma de
interactuar con los requerimientos específicos del hardware sobre el que deba correr.
Dominio Windows no es más que una forma de administración centralizada de los distintos recursos
disponibles en una red (usuarios, equipos, servidores, impresoras, etc.).
Permite aplicar de forma centralizada directrices y políticas de seguridad que garanticen la seguridad de
los PCs de la organización.
WorkGroup: Los grupos de trabajo son una de las posibles formas de organizar los equipos dentro de una
red local.
En ningún momento los grupos de trabajo sirven para centralizar o gestionar permisos de equipos. La
administración de usuarios y privilegios se hará de forma individual en cada uno de los equipos que
forman parte del grupo de trabajo
Los grupos de trabajo son útiles para ser usados en redes locales pequeñas. Por lo tanto, los grupos de
trabajo son una buena solución para usarlos en nuestro hogar.
• Donde lo instalaria ?
En la pantalla del controlador de red , agregando NUEVO PROTOCOLO.
• Unix ==> Metodos primarios de manejo de memoria
* Intercambio (SWAP)
* paginacion por demanda
* gestor de memoria del kernel
Sockets Datagram (UDP, User Datagram Protocol) Son un servicio de transporte sin conexión. Son más
eficientes que TCP, pero no está garantizada la fiabilidad. Los datos se envían y reciben en paquetes, cuya
entrega no está garantizada. Los paquetes pueden ser duplicados, perdidos o llegar en un orden
diferente al que se envió
Sockets Raw Son sockets que dan acceso directo a la capa de software de red subyacente o a protocolos
de más bajo nivel. Se utilizan sobre todo para la depuración del código de los protocolos.
Según dicha comunicación, deben estar calculados como para a proveer un grado razonable de seguridad
en relación con el logro de los objetivos y los recursos aplicados en los siguientes aspectos:
• Como afectan las caracteristicas de la placa de red, cuando se emplean tecnicas de servidores
virtuales como sistemas de respaldo en equipos pricipales ?
La principal diferencia entre las frecuencias inalámbricas de 2.4 GHz y 5,7GHz es el rango ya que
la frecuencia de 2.4GHz es capaz de llegar más lejos que la frecuencia de 5,7GHz.
Este es el resultado de las características básicas que las ondas se atenúan mucho más rápido
a frecuencias más altas.
Por lo tanto si lo que más le preocupa es la cobertura, debe seleccionar 2.4GHz en lugar de
5GHz.
La de 2.4ghz tiene mas alcance por que las Ondas se atenuan mucho mas rapido a frcuencias
mas altas.. Por lo tanto, la de 2.4ghz tendra mas alcance y a su vez.. Tiene mas posibilidad de
traspasar objetos solidos.
Una red es un conjunto de equipos interconectados, por cable o via radio enlace.
Hoy en dia la mayoria de las redes locales son del tipo IP. Funcionan similar a internet.
El adaptador de la red sera de Ethernet para las cableadsas y de wifi para las inalambricas.
• Como estima el alcance de un radio enlace ?
2. Pérdidas en la propagación.
Un presupuesto de radio enlace completo es simplemente la suma de todos los aportes (en
decibeles) en el camino de las tres partes principales.
Potencia del transmisor [dBm] – Pérdida en el cable TX [dB] + ganancia de antena TX [dBi] –
Pérdidas en la trayectoria en el espacio abierto [dB] + ganancia de antena RX [dBi] – Pérdidas en
el cable del RX [dB] = Margen – Sensibilidad del receptor [dBm]
• Que pasa si duplico la distancia entre los extremos de un radio enlace de moicroondas ?
Como regla general en una red inalámbrica a 2.4 GHz, 100 dB se pierden en el 1er kilómetro y la
señal es reducida a 6 dB cada vez que la distancia se duplica. Esto implica que un enlace de 2
km tiene una pérdida de 106 dB y a 4km tiene una pérdida de 112 dB, etc.
El modo Ad-hoc también se conoce como modo "igual a igual". Las redes Ad-hoc no
requieren un punto de acceso centralizado. En cambio, los dispositivos en la red
inalámbrica se conectan directamente entre sí. Si configura las dos computadoras
portátiles en modo inalámbrico ad-hoc, se conectarían directamente entre sí sin
necesidad de un punto de acceso centralizado
Pero no solo eso, con WiMax tendremos cobertura incluso en movimiento, viajando a
velocidades de hasta 250Km/h tendremos cobertura.
Además Wi-Fi está diseñado para entornos de interior, mientras que WiMax lo está para
entornos exteriores, pudiendo dar acceso a más de 1000 usuarios de forma simultánea.
UNIDAD 5
• Puentes: Limitaciones mas evidentes ?+
Los puentes son dispositivos de capa 2 y separan dominioos de colisiones , que se da
solamante en redes ethernet, cuando en una de las puertas se detecta la presencia de una
colision, no se transmite esa demanda.
1.- Son ineficientes en grandes interconexiones de redes, debido a la gran cantidad de tráfico
administrativo que se genera.
2.- Pueden surgir problemas de temporización cuando se encadenan varios bridges.
3.- Pueden aparecer problemas de saturación de las redes por tráfico de difusión.
Un puente de origen no puede reenviar datos sin la información en el RIF. Este es el puente
común que utilizan las redes token ring.
El RIF es parte del encabezado del Token Ring, que contiene información y direcciones para
todos los puentes y nodos por los que debe pasar el paquete de datos antes de llegar a su
destino final. El RIF se puede encontrar al final del encabezado, justo antes de los datos del
usuario.
• Indique en que redes se usa RIP , OSPF, NLSP, IS-IS, RTMP. RTP
RIP routing information Protocol // OSPF (Open Shortest Path First) // NLSP (Netware Link
Services Protocol) // RTMP ( Protocolo de mensajería en tiempo real - se usa para los servicios
streaming el cuál trabaja sobre TCP (Trans- mission Control Protocol) ) RTP
Se usan en redes IP, algunos de los protocolos para transmision de multimedia como RTMP y
RTP
• Explique el metodo de conectar una red de area local con SNA llamado SDLC
Convertion
• Que es una Intranet ¿
Una intranet es una red informática que utiliza la tecnología del protocolo de Internet para
compartir información, sistemas operativos o servicios de computación dentro de una
organización. Suele ser interna, en vez de pública como internet, por lo que solo los miembros
de esa organización tienen acceso a ella.
Diferencia clave: LAN significa red de área local. Es una red de computadoras que
interconecta computadoras dentro de un área pequeña como en un edificio de oficinas o una
escuela.
Intranet es una red privada de Internet que admite todos los protocolos comunes como TCP /
IP, HTTP y otros protocolos estándar de Internet. Se utiliza una intranet para agregar servicios
similares a Internet a la LAN.
Dos unidades lógicas que se comunican dependen de conexiones físicas que se establecen
entre unidades físicas (PU) asociadas.