0% encontró este documento útil (0 votos)
15 vistas8 páginas

TP n0 Repaso

Cargado por

Danila
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
15 vistas8 páginas

TP n0 Repaso

Cargado por

Danila
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

IES-INTEGRACION LAS AMERICAS-EXT.

AULICA-ALDERETES
Docente: Ing. Nadia Petrelli

Historia:
El desarrollo de Internet ha significado una revolución en informática y
comunicaciones. Se trata de una red para acceso a la información, que ofrece un
mecanismo para la colaboración e interacción entre usuarios y máquinas, sin
importar su ubicación geográfica. Históricamente, surgió como resultado de una
evolución tecnológica que comenzó con las primeras investigaciones sobre
conmutación de paquetes.

El concepto de conmutación devino de las redes de telefonía ya instaladas.


Simplificando, se lo puede relacionar con la necesidad de conectar dos puntos a
través de una red, ayudándose mediante elementos intermedios, denominados
conmutadores, que reciben datos por un canal de entrada y los re-envían por el
canal de salida correspondiente, hacia otro elemento intermedio, y así
sucesivamente hasta alcanzar el extremo final de la comunicación.

Por su parte, el concepto de paquete, surgió de la evolución de los elementos


transportados en una red de telefonía. En principio, una red de telefonía es una red
para transporte de señales de voz. Comúnmente, la señal analógica de voz para su
transporte en la red de telefonía, se muestrea a razón de 8 bits por muestra, a una
frecuencia de muestreo de 8 𝐾𝐻𝑧. De este modo, cada usuario de la red
representa un canal de voz, que se puede interpretar como una señal digital de 64
𝑘𝑏𝑝𝑠. Los conmutadores telefónicos son capaces de tomar varios canales de
entrada de voz, y generar con ellos una señal de salida multiplexada, de mayor
velocidad, para su transporte apropiado hacia otro elemento conmutador.

Inicialmente, sobre la red de telefonía fija, sólo se transportaban muestras de voz.


Una muestra es información pura que es posible trasladar a través de la red si se
acompaña de un mecanismo de sincronización adecuado. Se trata de las redes de
conmutación de circuitos.

El concepto de paquete se aparta de este tipo de transporte, generando así otro


tipo de redes. En este caso, a las muestras de información pura se agrega
información adicional, llamada información de control, para mejorar la eficiencia
de la comunicación. Por ejemplo, se podrían agregar bits para el control de
errores, para identificación del destino final, para contemplar cuestiones de
seguridad o para mejorar la calidad de la transmisión. En este sentido, los
conmutadores de paquetes, a diferencia de los conmutadores originales para
telefonía, deben ser capaces de revisar y comprender parte de esta información
adicional, para poder tomar una decisión correcta referida al traslado de los
datos. Se trata de las redes de conmutación de paquetes.
IES-INTEGRACION LAS AMERICAS-EXT.AULICA-ALDERETES
Docente: Ing. Nadia Petrelli

Leonard Kleinrock, profesor del Instituto de Tecnología de Massachusetts (MIT,


Massachusetts Institute of Technology), fue quien publicó el primer documento
sobre la teoría de conmutación de paquetes en julio de 1961, y el primer libro
sobre el tema en 1964, explicando la factibilidad teórica de la comunicación por
medio de redes de conmutación de paquetes.

Durante esos años, J.C.R. Licklider, director de la Agencia de Investigación de


Proyectos Avanzados de Defensa (DARPA, Defense Advanced Research Projects
Agency), también profesor del MIT, publicó el concepto de “Red galáctica”, una red
pensada como un conjunto de ordenadores interconectados globalmente, a
través de los cuales todo el mundo podría acceder rápidamente a datos y
programas desde cualquier sitio. En su esencia, el concepto de esta red era muy
similar a la red de Internet de hoy en día.

El sucesor de Licklider en la dirección de DARPA, Lawrence G. Roberts, creó el


plan para ARPANET en el año 1967, un nuevo proyecto que se basaba en el
concepto de redes de paquetes.

Debido al temprano desarrollo de Kleinrock sobre la teoría de conmutación de


paquetes y a su trabajo en el análisis, diseño y medición de este tipo de redes, su
Centro de Investigaciones de la Universidad de California (UCLA, University of
California, Los Angeles) fue seleccionado como el primer nodo de ARPANET. El
proyecto de Doug Engelbart, del Instituto de Investigaciones de Standford (SRI,
Standford Research Institute), fue elegido como segundo nodo, por su
investigación sobre un sistema con características similares a lo que hoy
conocemos como hipertexto. Para 1969, ya se habían añadido dos nodos más al
proyecto original, uno en la Universidad de California en Santa Bárbara y otro en la
Universidad de Utah.

Para poder conectar estos nodos, se debieron establecer normas comunes para la
comunicación, que tuvieran el significado de un lenguaje universal, surgiendo así
el concepto de protocolo. El protocolo utilizado por aquel entonces por las
máquinas conectadas a ARPANET fue el Protocolo de Control de Red (NCP,
Network Control Protocol). Con el paso del tiempo, NCP dio paso a un conjunto de
protocolos más sofisticados, una arquitectura conocida como Protocolo de
Control de Transmisión/Protocolo de Internet (TCP/IP, Transmission Control
Protocol/Internet Protocol). Conviene destacar que la investigación sobre redes
por aquel entonces, no sólo incorporaba trabajo sobre la red subyacente en
cuanto a los protocolos de comunicación, sino también abarcaba aspectos
relacionados con el uso de la red por parte de aplicaciones de usuarios, tradición
que continúa hoy en día.

En octubre de 1972, se organizó una gran demostración pública del uso de


ARPANET y también se introdujo la aplicación de mayor impacto inicial, motivado
IES-INTEGRACION LAS AMERICAS-EXT.AULICA-ALDERETES
Docente: Ing. Nadia Petrelli

en la necesidad de los desarrolladores de ARPANET de contar con algún


mecanismo sencillo de coordinación: el correo electrónico. En ese mismo año,
Robert Kahn, quien había desempeñado un importante papel en el diseño
arquitectónico general de ARPANET, empezó a trabajar con la idea de redes de
arquitectura abierta. Este concepto surgió debido a fallas registradas en el
protocolo original de comunicación NCP de ARPANET. La principal desventaja del
mismo era que no tenía capacidad de comunicación con otros componentes que
no pertenecieran a la propia red ARPANET, ni podía ofrecer mayor fiabilidad entre
extremos de la comunicación que la que ofrecía la red subyacente. Kahn relacionó
que, para lograr la integración, sería necesario trabajar con los detalles de
implementación de los sistemas operativos de los componentes. Por este motivo,
comenzó a trabajar en conjunto con Vint Cerf, un profesor de Stanford, quien
había estado involucrado de lleno en el diseño y desarrollo original de NCP y tenía
conocimiento sobre las interfaces de los sistemas operativos existentes. De este
modo, armados con el enfoque arquitectónico de Kahn para la parte de
comunicaciones, y con la experiencia de Cerf en NCP y sistemas operativos,
crearon lo que se convertiría luego en la arquitectura TCP/IP. A partir de 1977, la
naturaleza descentralizada de ARPANET y la disponibilidad gratuita de los
programas basados en TCP/IP fue lo que permitió que otro tipo de redes no
vinculadas a ARPANET, comenzaran a conectarse, mezclándose una comunidad
militar operativa con una comunidad científica. Aparecieron por entonces las
primeras referencias a Internet como "una serie de redes conectadas entre sí,
específicamente aquellas que utilizan el protocolo TCP/IP".

Internet es la abreviatura de Interconnected Networks, en español Redes


Interconectadas o red de redes. En 1983, el segmento militar de ARPANET se
separó, conformando su propia red, denominada MILNET. Así, ya sin fines
militares, ARPANET abrió sus puertas a universidades, empresas y todo tipo de
instituciones. Desde ese momento, ARPANET y todas sus redes asociadas
comenzaron a ser conocidas como Internet

En 1984, la Fundación Nacional para la Ciencia (NSF, National Science


Foundation) inició NSFNET, que adoptó también como arquitectura de
comunicación a TCP/IP, sirviendo para conectar varias redes aisladas entre sí a la
red ARPANET. También aparecieron nuevas redes, tales como USENET y BitNet. El
crecimiento exponencial que experimentó NSFNET, así como el incremento
continuo de su capacidad de transmisión de datos, determinó que la mayoría de
los miembros de ARPANET terminaran conectándose a esta nueva red y, para
1989, ARPANET se declaró disuelta. Por otra parte, desde 1973, Bob Metcalfe
trabajaba en el proyecto Ethernet que se estaba desarrollando en el Centro de
Investigación de Palo Alto (PARC, Palo Alto Research Center) de la empresa Xerox.
Esta nueva forma de comunicación en redes pequeñas, sumado al objetivo de
IES-INTEGRACION LAS AMERICAS-EXT.AULICA-ALDERETES
Docente: Ing. Nadia Petrelli

interconexión a la gran red, significó un verdadero desafío en cuanto al número


creciente de máquinas a conectar. Entre los problemas a resolver, se encontraba
la adaptación de un esquema de identificación de dispositivos que ya estaba
presente en el protocolo IP y que consistía en un número de 32 bits denominado
dirección IP. A su vez, como para el ser humano es más fácil recordar nombres en
lugar de números tan extensos, se puso en evidencia la necesidad de asociar una
estructura de nombres a estas direcciones. Así surgió uno de los servicios más
conocidos de Internet, el Sistema de Nombres de Dominio (DNS, Domain Name
System).

Por otra parte, como NSFNET no sólo conectaba ordenadores en Estados Unidos,
sino también en otros países, se empezó a trabajar sobre el concepto de dominio
geográfico para las redes fuera de los Estados Unidos y en el concepto de una
separación por nombre según la finalidad de la red anexada. Así aparecieron
diversos dominios que hoy resultan muy familiares, tales como gov, por gobierno,
mil por instituciones militares, edu por instituciones educativas, com para
emprendimientos comerciales, org para instituciones sin fines de lucro y net para
los ordenadores que servían de enlace entre las diferentes subredes. También
surgieron los dominios identificadores de países, tales como ar para Argentina y es
para dominios de España.

En 1989, Tim Berners Lee, investigador del Centro Europeo de Investigación


Nuclear (CERN, Centre Européen de Recherche Nucléaire), inventó un sistema
que facilitaba la interacción con Internet, para compartir y hallar datos con
posibilidades de hipertexto y multimedia. Había nacido la World Wide Web, sobre
la base del Protocolo de Transferencia de Hipertexto (HTTP, HyperText Transfer
Protocol), el Lenguaje de Marcado de Hipertexto (HTML, Hyper Text Markup
Language) y el concepto de Localizador Uniforme de Recursos (URL, Uniform
Resource Locator). En 1998, Internet contaba con alrededor de 50 millones de
usuarios y 25 millones de servidores. Para ese año, compañías como Yahoo, eBay
o Amazon tenían apenas 3 o 4 años de existencia, mientras Google recién estaba
naciendo.

Hacia el año 2000, el acceso a la gran red empezó a abandonar el viejo sistema de
discado telefónico, con tecnología de modem telefónico para pocas decenas de
𝑘𝑏𝑝𝑠, comenzando a ser reemplazado por accesos de banda ancha, posibles
gracias a la aparición de nuevas tecnologías. Esta evolución se tradujo en
velocidades en el orden de decenas de 𝑀𝑏𝑝𝑠. Para fines de la primera década del
siglo XXI, ya se contaba con una base instalada de alrededor de 542 millones de
servidores y 1.3 billones de usuarios. La telefonía móvil contabilizaba por
entonces un número estimado de 3 billones de aparatos en uso. Alrededor del 15
por ciento de los mismos podía acceder a Internet. También para esa época, se
IES-INTEGRACION LAS AMERICAS-EXT.AULICA-ALDERETES
Docente: Ing. Nadia Petrelli

estimaba alrededor de 1 billón el número de computadores personales en uso, la


mayoría de ellos con acceso a Internet. La progresión sigue en aumento y la
variedad de dispositivos conectados es cada vez mayor. Sólo el tiempo nos dirá la
manera en que la gran red se irá acomodando a las distintas expectativas.

Nuevas tendencias
Piense en una escuela construida hace cuarenta años. En ese entonces, las aulas
contaban con conexiones por cable para la red de datos, la red telefónica y la red
de vídeo para los televisores. Estas redes separadas no podían comunicarse entre
sí, como se muestra en la figura. Cada red utilizaba tecnologías diferentes para
transportar la señal de comunicación. Cada red tenía su propio conjunto de reglas
y estándares para asegurar una comunicación satisfactoria.

• BYOD (Bring Your Own Device)


• Colaboración en línea
• Comunicaciones de vídeo
• Computación en la nube

BYOD (Bring Your Own Device)

El concepto de “cualquier dispositivo, a cualquier contenido, de cualquier forma”


es una importante tendencia global que requiere cambios significativos en la
forma en que se utilizan los dispositivos. Esta tendencia se conoce como “Bring
Your Own Device” (BYOD) o Traiga su propio dispositivo. La tendencia BYOD les da
a los usuarios finales la libertad de utilizar herramientas personales para acceder
a información y comunicarse a través de una red comercial o de campus. Con el
crecimiento de los dispositivos para consumidores —y la consiguiente caída en
los costos—, se espera que los empleados y estudiantes cuenten con algunas de
las herramientas más avanzadas de computación y de redes para uso personal.
Entre estas herramientas personales, se incluyen PC portátiles, PC ultra portátiles,
tabletas, teléfonos inteligentes y lectores de libros electrónicos. Estos dispositivos
pueden ser propiedad de la empresa o el lugar de estudios, de una persona, o una
combinación de ambas.

BYOD significa que se puede usar cualquier dispositivo, de cualquier persona, en


cualquier lugar. Por ejemplo, en el pasado, un estudiante que necesitaba acceder
a la red del campus o a Internet debía usar una de las PC del lugar de estudios. Por
lo general, estos dispositivos eran limitados yse los veía como herramientas que
servían únicamente para trabajar en el aula o en la biblioteca. La conectividad
extendida mediante acceso móvil y remoto a la red del campus les da a los
estudiantes una enorme flexibilidad y más oportunidades de aprendizaje.
IES-INTEGRACION LAS AMERICAS-EXT.AULICA-ALDERETES
Docente: Ing. Nadia Petrelli

COLABORACIÓN EN LÍNEA

Las personas quieren conectarse a la red no solo para acceder a aplicaciones de


datos, sino también para colaborar entre sí. La colaboración se define como “el
acto de trabajar con otras personas en un proyecto conjunto”. Las herramientas
de colaboración, como Cisco WebEx que se muestra en la figura, brindan a los
empleados, estudiantes, profesores, clientes y partners una forma de conectarse,
interactuar y lograr sus objetivos de forma inmediata. Para las empresas, la
colaboración es una prioridad esencial y estratégica, que utilizan para mantenerse
competitivos. La colaboración también es una prioridad en la educación. Los
estudiantes necesitan colaborar para ayudarse mutuamente con el aprendizaje,
para desarrollar las habilidades de trabajo en equipo que se utilizan en la fuerza
laboral y para trabajar juntos en proyectos en equipo.

COMUNICACIONES DE VÍDEO

Otra tendencia de red que tiene una importancia crítica en lo que respecta a la
comunicación y el trabajo en colaboración es el vídeo. El vídeo se utiliza
actualmente para propósitos de comunicación, colaboración y entretenimiento.
Las video llamadas se pueden hacer desde cualquier lugar que cuente con una
conexión a Internet. La conferencia de vídeo es una herramienta útil para realizar
negocios a distancia, tanto en el ámbito local como global. A medida que las
organizaciones se extienden más allá de los límites geográficos y culturales, el
vídeo se convierte en un requisito crítico para una colaboración eficaz.
COMPUTACIÓN EN LA NUBE

La computación en la nube es otra tendencia global que cambia el modo en que


accedemos a los datos y los almacenamos. Este sistema nos permite almacenar
archivos personales e incluso crear copias de seguridad de nuestra unidad de
disco duro completa en servidores a través de Internet. Mediante la nube, se
puede acceder a aplicaciones de procesamiento de texto y edición de fotografías,
entre otras. Para las empresas, la computación en la nube expande las
funcionalidades de TI sin necesidad de invertir en infraestructura nueva, en
capacitación de personal nuevo ni en licencias de software nuevo. Estos servicios
están disponibles a petición y se proporcionan de forma económica a cualquier
dispositivo en cualquier lugar del mundo, sin comprometer la seguridad ni el
funcionamiento. Existen cuatro tipos principales de nubes, que se muestran en la
figura: nubes públicas, nubes privadas, nubes híbridas y nubes personalizadas.
Haga clic en cada nube para obtener más información. La computación en la nube
es posible gracias a los centros de datos. Un centro de datos es una instalación
utilizada para alojar sistemas de computación y componentes relacionados. Un
centro de datos puede ocupar una habitación en un edificio, un piso o más, o un
edificio entero. Por lo general, la creación y el mantenimiento de centros de datos
IES-INTEGRACION LAS AMERICAS-EXT.AULICA-ALDERETES
Docente: Ing. Nadia Petrelli

son muy costosos. Por esta razón, solo las grandes organizaciones utilizan centros
de datos privados creados para alojar sus datos y proporcionar servicios a los
usuarios. Las organizaciones más pequeñas, que no pueden costear el
mantenimiento de su propio centro de datos privado, pueden reducir el costo total
de propiedad mediante el alquiler de servicios de servidor y almacenamiento a
una organización en la nube con un centro de datos más grande.

NUBES PÚBLICAS Y PRIVADAS

Las aplicaciones y los servicios basados en la nube que se ofrecen en una nube
pública están a disposición de la población en general. Los servicios pueden ser
gratuitos u ofrecerse en el formato de pago según el uso, como el pago de
almacenamiento en línea. La nube pública utiliza Internet para proporcionar
servicios.

NUBES HÍBRIDAS

Una nube híbrida consta de dos o más nubes (por ejemplo, una parte
personalizada y otra parte pública); ambas partes son objetos separados, pero
están conectadas a través de una única arquitectura. En una nube híbrida, las
personas podrían tener grados de acceso a diversos servicios según los derechos
de acceso de los usuarios.

NUBES PERSONALIZADAS

El vector más común para la pérdida de datos incluye software de mensajería


instantánea y los sitios de medios sociales. Por ejemplo, el correo electrónico o
ME interceptará ES mensajes puede capturar y mostrar la información
confidencial.

REDES POR LÍNEA ELÉCTRICA

Las redes por línea eléctrica son una tendencia emergente para redes domésticas
que utilizan los cables eléctricos existentes para conectar dispositivos, como se
muestra en la figura. El concepto “sin nuevos cables” se refiere a la capacidad de
conectar un dispositivo a la red donde haya un tomacorriente. Esto ahorra el costo
de instalar cables de datos y no genera ningún costo adicional en la factura de
electricidad. Mediante el uso de los mismos cables que transmiten electricidad,
las redes por línea eléctrica transmiten información mediante el envío de datos en
ciertas frecuencias. Mediante un adaptador estándar de línea eléctrica, los
dispositivos pueden conectarse a la LAN donde haya un tomacorriente. Las redes
por línea eléctrica son particularmente útiles en el caso de que no se puedan
utilizar puntos de acceso inalámbrico o de que estos no lleguen a todos los
dispositivos del hogar, pero no están diseñadas para reemplazar el cableado
IES-INTEGRACION LAS AMERICAS-EXT.AULICA-ALDERETES
Docente: Ing. Nadia Petrelli

dedicado para redes de datos. Sin embargo, es una alternativa cuando los cables
de red o las comunicaciones inalámbricas no son una opción viable

BANDA ANCHA INALÁMBRICA

La conexión a Internet es fundamental para la tecnología del hogar inteligente.


DSL y cable son tecnologías comunes que se utilizan para conectar hogares y
pequeñas empresas a Internet. Sin embargo, la red inalámbrica puede ser otra
opción en muchas áreas.

PROVEEDOR DE SERVICIOS DE INTERNET INALÁMBRICO (WISP)

El proveedor de servicios de Internet inalámbrico (WISP) es un ISP que conecta a


los suscriptores a un punto de acceso designado o una zona activa mediante
tecnologías inalámbricas similares a las que se encuentran en las redes de área
local inalámbrica (WLAN). Los WISP se encuentran con mayor frecuencia en
entornos rurales donde los servicios de cable o DSL no están disponibles. Aunque
se puede instalar una torre de transmisión separada para la antena, comúnmente
la antena se conecta a una estructura elevada existente, como una torre de agua o
una torre de radio. Se instala una pequeña antena en el techo del suscriptor, al
alcance del transmisor del WISP. La unidad de acceso del suscriptor se conecta a
la red conectada por cable dentro del hogar. Desde la perspectiva del usuario
doméstico, la configuración no es muy diferente de la de DSL o el servicio de
cable. La diferencia principal es que la conexión del hogar al ISP es inalámbrica,
en lugar de establecerse mediante un cable físico.

SERVICIO DE BANDA ANCHA INALÁMBRICO

Otra solución inalámbrica para los hogares y las pequeñas empresas es la banda
ancha inalámbrica, como se muestra en la figura. Esta opción utiliza la misma
tecnología de red celular que se utiliza para acceder a Internet con un teléfono
inteligente o una tableta. Se instala una antena fuera del hogar, que proporciona
conectividad inalámbrica o por cable a los dispositivos en el hogar. En muchas
zonas, la banda ancha inalámbrica doméstica compite directamente con los
servicios de DSL y cable.

También podría gustarte