0% encontró este documento útil (0 votos)
12 vistas25 páginas

Topología Actual de Internet: Análisis y Contexto

El documento analiza la evolución de Internet y su impacto en la sociedad, destacando su crecimiento y la transformación en la concepción de la información. Se discute cómo la arquitectura de las comunicaciones influye en las relaciones sociales y se mencionan los factores sociales, políticos y tecnológicos que han permitido su desarrollo. Además, se enfatiza la colaboración entre el sector público y privado en la creación de Internet como lo conocemos hoy.

Cargado por

mespadari
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Temas abordados

  • Estadísticas de usuarios,
  • Iniciativas de conectividad,
  • Conectividad global,
  • Ciberespacio democrático,
  • Desarrollo sostenible,
  • Tecnologías de la información,
  • Comunicaciones militares,
  • Ciencia de datos,
  • Cables de fibra óptica,
  • Desarrollo de infraestructura
0% encontró este documento útil (0 votos)
12 vistas25 páginas

Topología Actual de Internet: Análisis y Contexto

El documento analiza la evolución de Internet y su impacto en la sociedad, destacando su crecimiento y la transformación en la concepción de la información. Se discute cómo la arquitectura de las comunicaciones influye en las relaciones sociales y se mencionan los factores sociales, políticos y tecnológicos que han permitido su desarrollo. Además, se enfatiza la colaboración entre el sector público y privado en la creación de Internet como lo conocemos hoy.

Cargado por

mespadari
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Temas abordados

  • Estadísticas de usuarios,
  • Iniciativas de conectividad,
  • Conectividad global,
  • Ciberespacio democrático,
  • Desarrollo sostenible,
  • Tecnologías de la información,
  • Comunicaciones militares,
  • Ciencia de datos,
  • Cables de fibra óptica,
  • Desarrollo de infraestructura

R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

Topología actual de
Internet
}
POR RAFAEL DA BOUZA

- Estaba en el autobús y me di cuenta de que no había comido nada.

Así que mandé un mensaje de texto a Google desde mi teléfono

Y desde ahí me mandaron el número de esta pizzería.

- ¿Google puede hacer eso?

- Google puede hacer cualquier cosa.

Sophie (16), hablando con Paul (53).

In Treatment

Introducción

El vertiginoso crecimiento que ha tenido Internet en los últimos diez años


ha llevado a incorporarla de un modo prácticamente indispensable a toda esfera de
la actividad humana. Esta incorporación implica toda una nueva concepción
acerca de la información, donde pareciera que ha dejado de ser un recurso
limitado. El exceso de datos, la necesidad de un criterio riguroso para ordenarlos,
la agudización de la critica para discernir credibilidad e idoneidad de las fuentes

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

-1-
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

son problemas que nunca habían tenido tanta relevancia. Actualmente desde
nuestras computadoras podemos tener una capacidad de acceso a datos que por
momento parece ilimitada y por momentos parecería que podemos conectarnos
con cualquier persona en cualquier lugar del mundo. A su vez existen
herramientas que permiten que sea mucho más simple la creación de contenido,
creando la ilusión de que cualquier persona puede plasmar su percepción de la
realidad en la red.

La penetración de Internet, siendo una de las más significativas de las


llamadas tecnologías de la información y la comunicación, generó en el campo de
las ciencias sociales nuevas conceptualizaciónes con respecto al ordenamiento de
nuestra sociedad. Con distintos grados de rigurosidad se intentaron analizar los
posibles cambios a partir de esta inevitable penetración de Internet, pero de alguna
forma se la fue convirtiendo en un concepto difuso. El “Ciberespacio” pasó a ser
un lugar de referencia, y con esta metáfora se terminó de desprender a la Internet
de sus correlaciones con el mundo físico. Para nosotros, los usuarios que no
tenemos ningún conocimiento técnico acerca de la red, solo dos elementos
tangibles nos explican el funcionamiento de Internet: el modem que traerá a
nuestro hogar la compañía proveedora y la factura que deberemos pagar todos los
meses para que no nos corten el servicio. Con solo estos dos elementos tenemos
acceso a una “supercarretera de la información”, donde cualquiera se puede
expresar de manera libre, desde cualquier lugar del mundo convirtiéndose en un
ámbito completamente democrático…

En este trabajo proponemos tomar un poco de perspectiva: supongamos un


territorio con distancias de norte a sur cercanas a los 4000 km y distancias de Este
a Oeste no tan apartadas pero con el agravante de estar dividido por una larga
cordillera montañosa. Cubren esta extensión seis “carreteras principales” que
parten de un punto central del territorio y se extienden hacia la periferia: estas
serán el sostén básico de nuestro sistema de comunicaciones. Toda la
comunicación en el territorio se producirá a través de estos caminos, para
aumentar la eficiencia y la velocidad de las comunicaciones se implanta un
sistema de “postas” a partir del cual se van relevando los transmisores de la
información. El sistema de comunicación así establecido es de los más eficientes
y veloces para la época, sin embargo tiene una característica excluyente: la de red
estará claramente centralizada, todo paquete o mensaje transmitido depende casi
exclusivamente de la autorización o antojo de una persona, El Inca. Las
comunicaciones entre una y otra punta del imperio estaban a cargo de mensajeros
llamados chasquis. Por un sistema de postas, transmitían los encargos de uno a
otro relevo con suma velocidad; una noticia originada en Quito (Ecuador) podía
llegar a Cuzco (a 2.000 kilómetros de distancia) en menos de 10 días. Estas postas
al mismo tiempo cumplían la función de controlar todo el trafico de estas rutas,
por lo tanto así como todo el servicio de comunicación estaba a disposición de la

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

-2-
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

estructura de poder del imperio difícilmente se podía producir algún tipo de


comunicación sin que sea registrada por ellos.

De esta manera vemos en que medida la arquitectura de un sistema de


comunicaciones puede determinar o influir en las relaciones sociales que se
desprenden del mismo. No es la intención de este trabajo hacer una descripción de
los cambios en la esfera de lo social a partir de la creación de Internet, pero si
intentar exponer la forma en que interactúan las especificaciones técnicas bajo las
que funciona, la arquitectura particular que fue adquiriendo a partir de su
expansión y el tramado de infraestructura sobre la que se mantiene todo esto.

Comenzaremos explicando los fenómenos sociales y políticos que permitieron el


desarrollo de Internet. Delimitando los grupos sociales involucrados y la forma en
que entre ellos se produjeron alianzas cooperativas, tacitas o explicitas, a lo largo
de los 25 años en los que se produjo el desarrollo de Internet hasta el estado en el
que actualmente la conocemos. Encontrando proyectos trazados con minuciosidad
científica y factores completamente fortuitos que marcaron el desarrollo de una
tecnología, cuyo proceso de construcción ya marca un nuevo parámetro en la
forma de producción.

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

-3-
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

Estos dos bocetos intentan mostrar las concepciones originales con las que se
empezó a trabajar y lo lejanas que parecen:
A la izquierda el primer nodo de Internet en la Universidad de California en
septiembre del 69.

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

-4-
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

A la derecha se muestra que hacia finales de ese año ya existían 4 nodos:


Universidad de California Los Angeles (UCLA), Universidad de California
Santa Barbara (UCSB), Universidad de Utha y el Stanford Research Institute
(SRI).

Muchos textos que describen los orígenes de Internet coinciden en atribuir al


lanzamiento del satélite Sputnik I como uno de los sucesos que desencadenaría en
la creación red, de forma muy indirecta. El gobierno estadounidense al verse
relegado en la carrera de la conquista espacial por su rival soviético decide
concentrar recursos en un brazo específico del ejército: Defense Advansed
Research Projects Agency (DARPA).

DARPA's mission has been to assure that the U.S. maintains a lead in applying
state-of-the-art technology for military capabilities and to prevent technological
surprise from her adversaries.
The DARPA organization was as unique as its role, reporting directly to the
Secretary of Defense and operating in coordination with but completely
independent of the military research and development (R&D) establishment.1

Así vemos como el Estado norteamericano, personificado en su rama militar, en


su afán de no perder su capacidad hegemónica a nivel mundial a mano de la unión
soviética decide invertir en el desarrollo de nuevas tecnologías. Podemos decir
que el Estado pone a disposición los medios necesarios, pero necesita recurrir
constantemente al campus universitario para recolectar al plantel de científicos
que serían los que emplearían esos medios para el desarrollo de los proyectos de
investigación. Esta agencia que se nutría de fondos estatales mantuvo una estrecha
relación con distintas universidades estadounidenses, creando incluso los
laboratorios de investigación de muchas de ellas que luego serían conectados a
través de ARPANET. De esta forma es que se produjo la apropiación por parte de
la comunidad científica de la que nos habla Castells.

1
[Link]

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

-5-
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

Dos años después el crecimiento de ARPANET era considerable, ya iba de


costa a costa.

Una de las estrategias que desarrollaría este organismo sería el de crear una red de
comunicaciones que fuese invulnerable a los ataques nucleares. Este aspecto que
en principio solo tenía sentido en el contexto de la guerra fría terminaría siendo
una de las características excluyentes de Internet tal como la conocemos hoy en
día: una red completamente independiente de los centros de dirección y de
control, donde los fragmentos de los mensajes encontraban su propia ruta en la red
y eran vueltos a armar una vez llegados a destino2.
Paralelamente a la comunidad científica es necesario mencionar la contracultura
“hacker”, que participó de la invención de elementos clave para que la red tenga
su grado de expansión Howard Rheingold, pone especial énfasis en el carácter
colaborativo de todo el proceso de desarrollo de la red, equiparando el espíritu
“libre” de los usuarios aficionados a la computación con el de los científicos.
Sostiene que todos estaban regidos por un cierto código de normas que formaban
“ética hacker”:

Acceso a ordenadores ilimitado y total.


Prioridad del imperativo práctico sobre el enfoque teórico.
Libertad de la información.
Desconfianza de la autoridad, descentralización como objetivo.

De alguna forma esto explicaría la fácil expansión de la red en sus primeros años,
ya que gran parte de los adelantos significativos eran puestos a disposición de
cualquiera que tuviese los conocimientos técnicos. De esta forma trabajaban

2
Castells, The Rise of Network Society” pag.355

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

-6-
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

muchos de los científicos becados por ARPA, los aficionados a la informática


casera e incluso los adolescentes que se vieron atraídos por los juegos de
ordenador. Fueron muchos los programas de software que fueron distribuidos a
costo cero: desde el núcleo del sistema operativo “Unix” hasta el protocolo
XModem, que permitió a las computadoras excluidas de ARPANET conectarse
de manera telefónica, por solo citar algunos ejemplos. El objetivo era poner a
disposición de cualquiera con los conocimientos técnicos las herramientas
tecnológicas, sabiendo que en lo inmediato había dos beneficios directos: por un
lado cualquiera podría agregar sus desarrollos al software y de esta forma
mejorarlo; y por otra parte se estaba favoreciendo al crecimiento de la red y al
incremento de su utilidad según la ley de Metcalfe3.

“Internet es el ejemplo de bien público artificial con mejores resultados en los


últimos tiempos. Los microprocesadores y las redes de telecomunicaciones son
sólo la parte física de la formula que explica el éxito de Internet; en su
arquitectura básica se incluyen también contratos sociales cooperativos. Internet
no sólo es el resultado final, sino la infraestructura que posibilita nuevos modos
de organizar la acción colectiva a través de las tecnologías de la comunicación.
Este nuevo contrato social permite la creación y mantenimiento de bienes
públicos, una fuente común de recursos de conocimiento.” 4

3
Afirma que una red se multiplica a gran velocidad a medida que aumenta el número de nodos.
4
(Rheingold,Multitudes inteligentes, pag. 74)

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

-7-
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

Sin embargo sería ingenuo no mencionar al sector industrial, que se mantuvo


alerta de cada uno de los avances logrados en la consolidación de la red, a la
espera de que la “novedad científica” alcance el nivel de madurez necesaria para
que sea redituable invertir en ella. Incluso a mediados de los 70 muchos de los
científicos relacionados en el desarrollo de la red migraron hacia el sector privado,
recortando la libertad con la que hasta ese momento migraba el código fuente de
programador a programador. Sin embargo, aunque uno tendería a pensar que el
sector privado sofocaría el desarrollo de la red hubo un factor decisivo sin el que
no hubiese existido Internet tal como la conocemos hoy: la caída del costo en la
producción de computadoras personales. A finales de los 80 comenzaron un
proceso ininterrumpido mediante el que su precio se veía dramáticamente
disminuido y su poder se duplicaba cada dos años. Haciendo que la ley de
Moore5, formulada muchos años antes, encontrara su campo de aplicación y
comprobación ideal.

Otro ejemplo significativo de como el sector privado fue significativo para el


desarrollo de un sistema de comunicaciones a nivel global se puede ver
puntualmente en el año 1995. A mediados de los años ochenta el gobierno
estadounidense, a través de la Nacional Science Fundation, había promovido el
desarrollo de una red que conectase a cinco universidades que poseían lo que en
ese momento se consideraban supercomputadoras. Pocos años después, esta red,
se había convertido en el principal backbone de Internet remplazando a
ARPANET. Con el transcurso de los años esta red llegó a tener un trafico mensual
de 20 trillones de bytes y contaba con 5 millones de computadoras conectadas
permanentemente (esto excluía las computadoras personales que se conectaban
momentáneamente), o sea que nuevamente el Estado era el que mantenía el
soporte en infraestructura mas importante. Sin embargo, y a esto apuntamos, en el
año 1995 el backbone de NSFNET fue completamente retirado y el tráfico fue
mantenido por una red de backbones comerciales que se venían desarrollando en
los últimos años.6

Por un lado tenemos la rama programada de la evolución de Internet: un objetivo


de índole militar, un Estado que pone disposición la financiación y una
comunidad científica con un objetivo de índole bélico pero una gran capacidad y
apertura para el descubrimiento y la innovación. Y por el otro un desarrollo
caótico a por parte de los sectores económicos y los hackers. Con esto no
considero que actúen desprovistos de una cierta lógica, pero en contraste con lo
programático del desarrollo científico, muchos de los cambios que se produjeron
desde estos dos sectores fueron tan impredecibles como impactantes.

5
[Link]
6
[Link]

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

-8-
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

Como resultado de todo esto, Castells, nos dice que:

“La arquitectura de red es, y seguirá siendo, tecnológicamente abierta,


permitiendo un amplio acceso público y limitando seriamente las restricciones
gubernamentales o empresarias a ese acceso, aunque la desigualdad social se
manifestará poderosamente en el campo electrónico (...). Por un lado, esta
apertura es la consecuencia del diseño original concebido tanto en función de las
mencionadas razones militares estratégicas como porque los científicos que
dirigían los programas de investigación así lo querían hacer, para demostrar
destrezas tecnológicas y como un intento de realización utópica. Por otro lado,
la apertura del sistema derivó del constante proceso de innovación y acceso libre
practicado por los hackers y los aficionados a la computación, quienes todavía
pueblan la red por millares.”7

Conexiones ciudad – ciudad a nivel global8.


La intensidad del contraste señala el número de conexiones entre los dos
puntos.
No se dibujan referencias geográficas, sin embargo no es difícil intuir el
mapa mundial.

Luego de este breve repaso de aspectos sociales que estuvieron relacionados con
la historia de Internet comenzaremos a introducirnos en aspectos más técnicos.
Entonces porque no tomar como referencia las definiciones que nos otorga uno
de los individuos que estuvo relacionado en la génesis de Internet: un científico

7
(Castells, the Rise of Network Society” pag.360)
8
El autor del Mapa es Chris Harrison, tomado de [Link]

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

-9-
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

proveniente del sector académico, reclutado por los organismos gubernamentales,


que a lo largo de los años a mostrado una gran capacidad para emprendimientos
innovadores y que encontró un lugar en el sector privado para hacer redituables
sus credenciales."Nadie puede controlarla, y es el sistema más democrático que
jamás se haya construido"9 asevera con respecto su creación Vintont Cerf, uno de
los llamados “padres de la Internet”. Pero si tomamos sus palabras no es porque
creamos que efectivamente Internet se pueda explicar a partir del rol desempeñado
por una sola persona, sino porque de alguna manera es un ejemplo paradigmático
de la combinación de características que explicamos referidas al entorno social
desde donde se trabajo para el desarrollo de la red.

Para entender su funcionamiento general rescataremos la concepción inicial con la


que fue creada, Cerf fue reconocido por su intervención en la creación del
protocolo TCP/IP que como veremos mas adelante cumple un rol central en el
funcionamiento de la “red de redes”:
“ (...) queríamos un protocolo que no fuera exclusivo. Queríamos que los detalles
de cómo conectarse a la Red estuvieran al alcance de todo el mundo. En aquella
época el Departamento de Defensa quería, ante todo, flexibilidad. Trabajaban
con contratistas y querían tener la opción de utilizar otros tipos de ordenadores o
sistemas operativos sin tener que renunciar al uso de las redes de
comunicaciones. Nosotros les propusimos una red que pudieran utilizar incluso
los civiles. No nos importaba si los rusos tenían acceso a ella. En ese caso, si se
producía un ataque, el ejército podría utilizar también los recursos de la
población civil.”

Nadie podría discutir la importancia que tuvo este personaje en los primeros años
de la cruzada tecnológica que tendría como resultado la Internet, pero veamos
ahora desde donde habla acerca del destino de la red para comprender que esta
persona sigue muy relacionada con el devenir tecnológico actual. Por un lado
ocupa el cargo de vicepresidente y jefe de evangelización de Internet en Google.
Según la misma definición de la compañía “su trabajo consiste en identificar en
Internet y otras plataformas nuevas tecnologías y aplicaciones que puedan resultar
útiles para la empresa.”10

Pero lo que mas nos resulta interesante es que desde el año 2000 ocupa el cargo de
presidente de la junta de la Corporación de Internet de Asignación de Nombres y
Cifras (ICANN). Que viene a ser una de las organizaciones que operando a nivel
internacional, “está dedicada a preservar la estabilidad operacional de Internet,
promover la competencia y lograr una amplia representación de las comunidades

9
Diario el País, versión digital del día 27/03/08: Entrevista a Vintont Cerf.
10
[Link]

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 10 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

mundiales de Internet”. Para expresarlo de forma concreta se encarga de asegurar


los aspectos técnicos para que el sistema de nombres de dominio (DNS) funcione
de manera correcta y de asignar espacio de direcciones numéricas de protocolo de
Internet (IP), pero como todavía no explicamos nada de esto digamos que es la
organización que se encarga de que cada vez que escribamos el nombre de una
página en nuestro navegador podamos llegar a ella. Aún sin saber mucho digamos
que parece bastante esencial.

Para entender la importancia de el protocolo TCP/IP y por ende las implicancias


de lo mencionado anteriormente tendremos que acercarnos a el funcionamiento
tecnico de Internet. Hay ciertos aspectos referidos a la esencia de los protocolos
que estuvieron presentes en la creación y que continúan siendo determinantes hoy
en día, pese a que se trabaje con versiones mejoradas de los originales. La idea
base es la de desarrollar un modelo de arquitectura de red completamente abierta,
donde cualquier red se pudiese comunicar con cualquier otra independientemente
de las características de software o hardware. Siguiendo este lineamiento los
encargados del desarrollo del protocolo agruparon en cuatro grandes ítems:

• Cada red distinta tendría que estar soportada por sí misma y no se


requerirían cambios internos en cualquier red para conectarlas a Internet
• Las comunicaciones deberían descansar sobre bases sólidas. Si un paquete
no llegaba hacia el destino final, este sería retransmitido rápidamente
desde la fuente.
• Las cajas negras serían utilizadas para conectar a las redes; las cuales
posteriormente serían reconocidas como gateways y ruteadores. No habría
información retenida por los gateways de los flujos individuales de los
paquetes que pasaban a través de ellos, de tal modo de conservarlos
simples y evitando las complicadas adaptaciones y recobrándolos de los
diferentes modos de fallo.
• No existiría un control global en el nivel de operaciones 11

El resultado final fue un diseño que presentaba mucha seguridad en aspecto de


transmisión de datos, ya que uno de los aspectos fundamentales del protocolo
TCP es el control y reenvío de datos dañados o extraviados. Mientras que el
protocolo IP se encarga del direccionamiento. La versión inicial incluía una
dirección IP de 32 bit, separando 8 para la identificación de la red y los 24 bits
restantes para la identificación de la computadora especifica dentrote esa red.
Permitiendo identificar 256 redes con 16.777.216 direcciones especificas dentro
de esas redes. Para el momento del desarrollo esa cantidad era mas que suficiente

11
Historia de Internet

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 11 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

pero la disponibilidad de direcciones IP es uno de los aspectos mas problemáticos


de la red actualmente.

Centrándonos en el funcionamiento puntual de los protocolos explicaremos


primero la porción correspondiente al IP. Cuando una computadora se conecta a la
red el Proveedor de Servicio de Internet asignara una dirección IP para que ésta
pueda enviar y recibir información. Cada maquina tiene una única dirección de IP
y a su vez la información que se difunde a través de Internet viaja mediante
paquetes que llevan indexada la dirección IP de la computadora a quien va
dirigida. De esta manera cada vez que se pide o se envía información es necesario
que los archivos que contienen esa información sean almacenados en una
computadora (o Servidor) con su respectiva dirección IP. Un aspecto que vino a
simplificar este tipo de comunicación fue el desarrollo del DNS (Domine Name
Server, Servidor de Nombre de Dominios), que es el programa que traduce los
nombres de dominio en direcciones IP. Cuando las redes eran pocas era posible,
aunque tedioso, almacenar las direcciones IP de los distintos computadores en
tablas numéricas, sin embargo ante el incremento en escala se hizo necesaria la
adopción de este servicio.

Ahora que ya tenemos una idea de cómo funciona el IP pasaremos a la otra parte
del protocolo que tiene un funcionamiento un tanto mas complejo. El Protocolo de
Control de Transmisión tiene la función del transporte confiable de los datos. Para
lograr esto la primera acción que realiza es la fragmentación del flujo de bytes que
será enviado, este tamaño dependerá de la unidad máxima de transferencia
(MTU). Este paquete se llamará datagrama, ya que se considera que tiene la
suficiente información como para que sea encaminado a través de la red para
llegar a su destino. Como los paquetes enviados pueden atravesar distintas redes
antes de llegar a destino es necesario que la fragmentación no supere al mínimo
MTU de la red por la que será diseccionado. Una vez que la información fue
“trozada” en el tamaño correspondiente se le asignarán sus cabeceras. En total el
paquete contiene muchos segmentos y cada cual cumple una función, pero para no
hacer demasiado compleja a nosotros nos importan:

⇒ Puerto fuente: Puerto de la máquina origen. Al igual que el puerto destino es


necesario para identificar la conexión actual.
⇒ Puerto destino: Puerto de la máquina destino.
⇒ Número de secuencia: Indica el número de secuencia del primer byte que
trasporta el segmento.
⇒ Número de acuse de recibo: Indica el número de secuencia del siguiente byte
que se espera recibir.

Una vez finalizado este primer paso aparecerá la capa IP que se encargara de
referir el segmento a la capa de TCP de la entidad de destino. Aquí vemos otra de

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 12 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

las funciones del protocolo ya que comprueba que ningún segmento se haya
perdido en la transferencia y que hayan respetado su orden, ya que cada fragmento
tiene un número de secuencia. Una vez realizada esta operación de chequeo el
TCP devuelve una confirmación por cada bit que haya llegado de manera correcta.
La entidad de origen estará “esperando” una confirmación por cada paquete
enviado, en el caso de no recibir confirmación luego de un tiempo determinado se
retransmitirá el paquete presuntamente desaparecido. De esta manera vemos como
el TCP se encarga de “alistar” los paquetes y de chequear que lleguen a destino y
en orden. La última operación que realizará es una rápida verificación acerca del
daño que puedan haber sufrido. Lo realiza mediante una suma de verificación o
“checksum” que, pese a lo sofisticado de su nombre, consiste en sumar cada bit
del paquete a enviar y almacenar el valor del resultado, al llegar a destino se
vuelve a realizar la suma y se verifica que coincida con la original.

A partir del funcionamiento descrito del protocolo TCP/IP millones de


computadoras se conectan formando todo tipo de redes, al mismo tiempo la
intercomunicación de estas miles de redes son las que terminan creando Internet.
Y la importancia del protocolo radica específicamente en este punto, ya que como
dijimos anteriormente abre la posibilidad de que dos redes, independientemente
de de sus características técnicas o de sus componentes, puedan conectarse. Por
otra parte una vez que la comunicación se establece cada nodo tiene la capacidad
de conectarse con cualquier otro independientemente a su ubicación, esto es lo
que se denomina end-to-end.

Ahora que ya tenemos una noción mas acabada acerca del funcionamiento de los
principales protocolos intentaremos hacer un breve resumen de cómo esta
sumatoria de conjuntos (las redes especificas) terminan configurando la
arquitectura de toda la red. Para poder entenderlo pensemos en el acceso
individual que cada uno de nosotros realiza, este es a través de un modem que nos
conecta a una compañía que provee el servicio de Internet. A su vez esta
compañía se conectará a una red regional que a su vez está conectada a una red
nacional. En cambio si decidiese robarle un par de horas a mi empleador y
continuar con el desarrollo de este trabajo universitario desde mi oficina debería
conectarme primero a la red de área que está conectada con la red privada de la
empresa que luego estará conectada nuevamente a nivel nacional para que siempre
se termine convergiendo en grandes redes de banda de transmisión de alta
capacidad que componen lo que se denomina backbone. Pasando en limpio nos
concentraremos principalmente en tres grandes categorías de red:

• Red de área local (LAN): una red que se limita a un área especial
relativamente pequeña tal como un cuarto, un solo edificio, una nave, o un
avión. Las principales características de estas redes son la las grandes tasas
de transferencia, un área geográfica muy limitada y que no necesitan líneas

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 13 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

de transmisión arrendadas.

• Red de área metropolitana (MAN): es una red que conecta dos o mas
redes de área local pero que no se extiende más allá de los límites de la
ciudad inmediata, o del área metropolitana. Aquí ya comienzan a cobrar
importancia los routers, encargados de asegurar el “enrutamiento” entre
redes o determinar la ruta que debe tomar el paquete de datos; los hubs,
que permiten conectar entre sí otros equipos y retransmite los paquetes que
recibe desde cualquiera de ellos a todos los demás y por último los
switches, que vienen imponiéndose en uso por sobre los hubs ya que
además de permitir fusionar múltiples redes en una sola presentan
atributos a la hora de mejorar el rendimiento y seguridad, a partir de la
conexión de ellos es que se crea la MAN.

• Red de área amplia (WAN): Hasta ahora estas son las capas más
elevadas que sirven para conectar todos los tipos de redes anteriores, es
una red de comunicaciones de datos que cubre un área geográfica
relativamente amplia (la extensión de un país, o la distancia entre dos
ciudades) y que utiliza a menudo las instalaciones de transmisión
proporcionadas por las empresas de comunicaciones.

Las compañías que se encargan del backbone de Internet operan redes de la más
alta capacidad de transmisión de datos dependientes de gobiernos, corporaciones
y proveedores de Internet. La infraestructura está compuesta por cables
subacuaticos y satélites que permiten la conexión entre continentes.

Cada paquete a ser comunicado va avanzando en la jerarquía de redes hasta llegar


al nivel necesario para acceder a la red que se desea contactar, donde se procederá
con el enrutamiento que finalmente lo llevará a destino. De la misma manera,
cada nivel en la jerarquía paga al nivel siguiente por el ancho de banda que utiliza,
y por último las grandes compañías que controlan los backbone acuerdan entre
ellas los costos. El costo del ancho de banda es determinado por las compañías
proveedoras de Internet de diferentes maneras, desde un precio fijo para
disponibilidad constante de cierta cantidad de megabits por segundo como por
variables dependientes del uso que determinaran el costo del gigabyte. A mayor
nivel en la arquitectura menor será el costo del ancho de banda, ya sea por tratarse
de una economía de escala como por la mayor eficiencia en el manejo.

Pese a estas categorías de redes que acabamos de describir Internet no tiene


ningún punto de control o de administración irremplazable. No puede ser
comprada, monopolizada o secuestrada. La perdida de computadores individuales
o redes no afecta su fiabilidad. En este sentido cumple con las intenciones
originales del proyecto: no puede ser completamente desactivada si no apagando

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 14 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

cada una de las conexiones. Cuando se califica a Internet en términos de robustez


se está haciendo referencia a la capacidad de adaptarse por cuenta propia de
manera casi instantánea a cualquier tipo de daño o apagones de sus secciones
individuales.

Por poner un ejemplo reciente se puede mencionar al accidente ocurrido en Enero


de este año en oriente medio, donde la rotura de 5 cables submarinos de fibra
óptica en un lapso de tiempo menor a una semana afecto a varios países de la
zona. El principal afectado fue Egipto, que perdió el 70 % de sus conexiones de
datos con el resto del mundo y más del 30% de sus enlaces de voz. Pero también
se vieron resentidos países como: Arabia, Kuwait, los Emiratos, Pakistán Bangla
Desh e India.12 Sin embargo el servició fue restablecido prácticamente por
completa a 24 horas del accidente gracias a la redirección por otros cables.

El mapa muestra los cinco puntos donde se produjeron los cortes de cables
entre el 23/01 y el 05/02

Infraestructura

Actualmente gran parte de la infraestructura sobre la que se apoya y funciona


Internet depende de una gran cantidad de cables de fibra óptica que conectan los
continentes entre si. Si bien también existen conexiones satelitales estas son
marginales en comparación con la proporción cubierta por estos cables, ya que
estamos hablando de que aproximadamente el 90% del tráfico de Internet se da
por este medio. En parte esta distribución se puede adjudicar a un aspecto técnico
ya que el tiempo de latencia es mayor en las conexiones satelitales pero el factor
determinante se puede reducir a una cuestión de costos: la conexión vía satélite
permite una menor capacidad de transmisión de datos a un precio aún mayor que

12
[Link]
epiint_7/Tes

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 15 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

la de los cables. Actualmente los cables de fibra óptica pueden alcanzar una
velocidad de transmisión de 7,1 Terabits por segundo, el equivalente a siete
billones de bits cada segundo.

El inconveniente pasa por los costos de instalación, ya que para depositar el


cableado en el lecho submarino es necesario un tipo particular de embarcación
disponible por muy pocas compañías haciendo que los costos de instalación y
mantenimiento sean muy elevados. Este tipo de inversiones requiere la
participación de gobiernos13, grandes empresas y los operadores internacionales
de telecomunicaciones.

Para tener una idea general da lo que estamos hablando a continuación tenemos de
alguna manera una radiografía de lo que sería la estructura submarina de conexión
a Internet. Más adelante analizaremos más en detalle esta misma distribución.

Como dijimos anteriormente la capacidad aproximada de estos cables es de 7.1


tbps, sin embargo no toda es utilizada ya que solamente 5.7 tbps son comprados a
los operadores de telecomunicaciones, y aún de esta fracción se utilizan
aproximadamente 2.1 tbps acumulando el resto como reserva. Del ancho de banda
utilizado el 72% es para Internet, dejando un 27% para redes privadas de
empresas y un 1% para llamadas telefónicas.

Apresurando conclusiones se podría afirmar que hay un gran porcentaje de


capacidad ociosa, por lo que no se requeriría la construcción o la inversión en más
obras de este tipo. Sin embargo actualmente hay varias iniciativas que prevén el
crecimiento de las nuevas redes submarinas.

13
Con financiación de organismos internacionales como veremos más adelante en el caso de África.

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 16 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

Por un lado tenemos iniciativas privadas como las avocadas a la unión de Asia y
Norteamérica, donde un consorcio de empresas, entre las que se incluyen a
Google y el operador de telecomunicaciones japonés KDDI Corp, planean invertir
203 millones de euros en el tendido de “Unite”, un cable submarino que tendrá
una longitud de 10.000 kilómetros y enlazará la población de Chikura, en Japón,
con Los Ángeles. Así como este caso hay varios proyectos similares actualmente
que prevén inversiones igual de millonarias apostando al sostenido crecimiento
que vienen presentando con respecto a la penetración de Internet los países
asiáticos.

Otro tipo de inversiones apuntan, en vez de satisfacer a una demanda pujante, a


solventar graves deficiencias de conectividad. Un ejemplo de cómo la
infraestructura puede determinar el nivel de acceso se puede ver en el sector
sudeste del continente africano, ya que es uno de los puntos del globo que queda
excluido del gran tendido de cables de fibra óptica, haciendo que toda la región
disponga de un 0.07% de la capacidad del ancho de banda. De esta manera la
conexión depende de servicios de infraestructura satelital, con costes de 20-40
veces mayor que los que se podrían obtener en los Estados Unidos14.

Mientras estos grandes proyectos de infraestructura no se realicen las conexiones


vía satélite siguen siendo una buena opción para regiones con niveles precarios de
conectividad. Sin embargo a largo plazo estas inversiones parecieran ineludibles.
Actualmente hay más de 300 satélites relacionados con las comunicaciones y
comúnmente pertenecen a grandes compañías multinacionales. Intelsat, NewSkies
y Eutelsat son ejemplos de operadores regionales e internacionales que provén de
Internet vía satélite. La transmisión se realiza en dos frecuencias: C band
(4/6GHz) y Ku band (11/14GHz). Siendo la última la mas habitual ya que la C
band se suele utilizar para zonas con gran índice de precipitaciones.

En este grafico están


trazadas las tres
principales orbitas
utilizadas por satélites
comerciales, siendo la
orbita geoestacionaria
la mas utilizada por los

14
Para ver los actuales proyectos del Regional Communications Infrastructure Program para Africa, en este
página se puede ver la presentación en video acerca del impacto de los prohibitivos costos de conectividad en
Kenya, Burundi y Madagascar y alternativas para resolverlo:
[Link]
ANDTECHNOLOGIES/0,,contentMDK:21156097~pagePK:210058~piPK:210062~theSitePK:282823,[Link]
ml

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 17 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

de comunicaciones ya que ubicados en esta orbita cubren aproximadamente un


tercio de la tierra, haciendo que con una flota de al menos tres satélites se pueda
tener una cobertura global. La comunicación se realiza a través de un dispositivo
específico llamado transponder, el cual tiene una capacidad de 155 millones de
bits por segundo, y si consideramos que cada satélite tiene entre 24 y 72 de estos
dispositivos obtenemos un gran flujo de información disponible.

Para tener una idea de como funciona la rama satelital tomaremos como ejemplo
una empresa en particular, ya que no es sencillo encontrar una base de datos
exhaustiva respecto a todos los satélites utilizados para la provisión de servicio.
Loral Skynet es una empresa de base estadounidense que controla y opera la
familia de satélites Telstar así como una red global de fibra óptica y facilidades de
transporte terrestre. Actualmente la flota Telstar está compuesta de 5 satélites que
cubren alrededor del 80% del globo, los mapas que se ven a continuación
muestran esta cobertura respondiendo a los espectros en los que según el tipo de
satélite se transmite (C-ban y Ku-band)

En amarillo están marcados los tendidos de fibra y las pequeñas antenas satelitales
presentan los puntos de interconexión. En azul están marcados los satélites de su
propia flota y en negro los satélites complementarios arrendados.

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 18 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

Estos satélites no se limitan a la provisión del servicio de Internet, ya que dedican


parte importante de sus servicios a transmisión de contenidos televisivos y
telefonía celular. Pero como vimos anteriormente sus clientes suelen ser grandes
empresas o corporaciones que pueden cubrir los costos de este tipo de servicio.

Ahora que conocemos un poco más acerca de la historia, las especificaciones


técnicas y el tramado de infraestructura sobre la que se sostiene Internet veamos
que es lo que pasa actualmente. A continuación intentaremos hacer un breve
paneo de la penetración y la distribución a nivel mundial de los usuarios.
Nuestra primera fuente de datos será el World Internet Stats, que anualmente
publica una gran cantidad de estadísticas referidas a la evolución en la
distribución de los usuarios en Internet.

Este grafico
muestra la
proporción
de usuarios
por regiones
del planeta,
para tener
una cabal

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 19 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

comprensión de lo que estos porcentajes representan es necesario tener


presente la cantidad de población total de cada una de las regiones.

Sin embargo al ver el nivel de penetración sorprende que Asia


(representando el 37,6% de los usuarios) recién esté por el 14% de nivel de
penetración. Confirmando lo expuesto cuando nos referimos al afluente de
inversiones en infraestructura hacia la región.

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 20 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

En comparación con el cuadro anterior los factores que mas llaman la


atención son las tasas que muestran África, Medio Oriente y Latinoamérica y
Caribe. Sacando a Oceanía y Australia las tres regiones mas relegadas en el
porcentaje de usuarios de Internet.

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 21 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

Un dato que solo puede interesarnos a nosotros como Latinoamericanos es el


peso que tenemos con respecto a la generación de contenidos, ya que el
Español es el tercer lenguaje más usado pero España figura recién en el
puesto 14º con respecto a los países con mayor cantidad de usuarios.

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 22 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

Como segunda fuente de datos utilizaremos un estudio de tráfico de MSN


realizado por Microsoft. El estudio presenta una gran cantidad de datos referidos a
conversaciones anónimas mantenidas durante el mes de junio del año 2007. El
atractivo particular del trabajo, que aclara que no se buscaba información privada
en las conversaciones, es la masa de información con la que está trabajando: 30
billones de conversaciones generada por 240 millones de usuarios distintos. Al día
90 millones de cuentas de Messenger eran activadas produciendo 1 billón de
conversaciones, con aproximadamente 7 billones de mensajes intercambiados por
día.

Esto viene a ser un heat-map que marca los flujos de conversaciones a nivel
mundial

Los primeros resultados expuestos vienen a ser las comprobaciones tal vez más
deducibles por el sentido común, pero es interesante tener una base de datos que
compruebe estas hipótesis. Primero intentaron comprobar aquel axioma de que “el
mundo es un pañuelo” buscando lograr los 6 grados de separación de Milgram en
la red social que ellos habían formado obteniendo una media de 6,6. Por otro lado
encontraron que las conversaciones más frecuentes y más extendidas se dan ante
una relativa homogeneidad que escalona: lenguaje, ubicación geográfica y edad.
La única característica opuesta que presenta conversaciones más frecuentes y

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 23 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

extensas es el género.

En este mapa se marcan con una escala cromática la cantidad de usuarios


por punto geográfico, es interesante pensarlo en contraste con el mapa de los
cables subterráneos.

Para finalizar el trabajo querría mencionar un par de sucesos que tienen que ver
con mi experiencia personal. Durante la realización de este trabajo fui poniendo
especial atención a toda noticia referida a Internet en general, siendo una de las
más llamativas la referida a una Internet 10000 veces más rápida15. La noticia se
reprodujo de manera viral en varios medios de comunicación y especialmente en
foros y blogs especializados en la temática. Pensé que sería importante agregar en
este trabajo ciertas aproximaciones de lo que se podría esperar a futuro con
respecto a la evolución de la red.

Pocas semanas después tuve la oportunidad de participar en una entrevista vía


web con una ingeniera en informática del CERN, que trabaja en una de las áreas
relacionadas con el proyecto GRID y pude tener un conocimiento bastante mas
preciso acerca de las implicancias de este avance.

Esta tecnología comenzó a desarrollarse en el CERN debido a otro desarrollo


tecnológico importante: la construcción del Large Hadron Collider, el acelerador
de partículas más grande construido hasta ahora. Una vez que se ponga en
funcionamiento se intentará reproducir las condiciones del Big-Bang haciendo
colisionar dos partículas con grandes cantidades de energía. El problema es que la

15
[Link]

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 24 -
R AFAEL DA BO UZA – T OPOLOGÍA ACTUAL DE IN TERNET

capacidad de las computadoras actuales todavía no es suficiente para registrar y


almacenar a tiempo toda la información que este fenómeno físico producirá: por
este motivo se comenzó a desarrollar la GRID

GRID es una tecnología que permite compartir la capacidad de cómputo y de


almacenamiento de ordenadores conectados a Internet. Comparado con la web,
que permite compartir información gracias a Internet, la GRID facilita compartir
el disco duro y el procesador de los ordenadores que estén conectados.
Permitiendo pensar en el conjunto de ordenadores conectados a Internet como un
gran recurso computacional. Sin embargo aún es una tecnología joven que está en
pleno desarrollo y expansión. En realidad GRID es un tipo de computación
distribuida donde muchos ordenadores trabajan juntos para resolver un
determinado problema. De alguna forma podemos equiparar este momento de
desarrollo con los primeros años del desarrollo de ARPANET, todavía faltan
establecer los parámetros que unifiquen su funcionamiento.

Hay mucha bibliografía dedicada a lo que será el devenir de Internet, comúnmente


cuando no se encubre un interés comercial todos los panoramas futuros son
bastante pesimistas con respecto a su evolución. Honestamente creo que es muy
riesgoso aventurar predicciones acerca de las formas que irá adquiriendo esta red,
que pareciera tener como principal amenaza su regulación, y por ende su perdida
de libertad, ya sea en manos de los Estados nacionales o del sector privado.
Contrapuesto a este enfoque la existencia de las herramientas técnicas para poder
adaptar una voluntad socializante en términos tecnológicos me parece
esperanzadora16 Una vez más vemos un desarrollo tecnológico puesto en función
de de los recursos compartidos y del trabajo colaborativo, valores fundacionales
de la red y que parecieran estar aún vigentes.

16
En esta misma línea se podría haber mencionado la iniciativa FON, que busca generar una comunidad de
WiFi libre: mediante el uso de un router especial se habilita a cualquier miembro de la comunidad a que
utilice una porción de la conexión a Internet. De la misma manera cuando uno no esté en su hogar podrá
acceder a las conexiones de otros miembros de la comunidad. [Link]

EDICIÓN DE HIPERSOCIOLOGÍA ( [Link] )


Fuente Original: Susana Finquelievich y Ester Schiavo (compiladoras) “La ciudad y sus TICs: tecnologías de
información y Comunicación”, Universidad Nacional de Quilmes, Bs. As, 1998. (ISBN: 987-9173-25-2)
págs. 163-183

- 25 -

Common questions

Con tecnología de IA

Los cables submarinos presentan desafíos principalmente en términos de costos de instalación y mantenimiento debido a la necesidad de barcos especializados, lo que encarece su implementación. No obstante, ofrecen una gran capacidad de transmisión, alrededor de 7.1 terabits por segundo, y menor latencia comparada con conexiones satelitales . En contraste, las conexiones satelitales tienen costos más altos y menor capacidad de transmisión de datos, lo cual resulta en costos 20-40 veces mayores que los cables . A pesar de estos costos, las conexiones satelitales son cruciales para regiones con deficiencias de conectividad terrestre, aunque a largo plazo se consideran ineludibles las inversiones en cables submarinos .

Las conexiones globales basadas predominantemente en cables submarinos tienen la ventaja de ofrecer alta capacidad de transmisión de datos y menor latencia, siendo responsables de aproximadamente el 90% del tráfico de Internet . Sin embargo, presentan desventajas como altos costos de instalación y mantenimiento debido a su infraestructura compleja . En contraste, las soluciones satelitales pueden alcanzar áreas remotas con menor infraestructura terrestre, pero tienen desventajas significativas como altos costos de operación, menor capacidad y mayor latencia . Los cables son eficientes en términos de costo-beneficio cuando hay alta demanda, mientras que los satélites son más adecuados para regiones con infraestructura limitada o dispersas geográficamente .

Los satélites juegan un rol clave en la provisión global de servicios de Internet al ofrecer cobertura en regiones remotas donde el cableado terrestre es impracticable o demasiado costoso . Mientras que las conexiones terrestres, especialmente de fibra óptica, proporcionan una capacidad de transmisión más alta y costos más bajos en regiones con infraestructura adecuada , los satélites son más eficientes en términos de alcance geográfico. Sin embargo, enfrentan desafíos de menor capacidad de transmisión y mayor latencia, lo que los hace menos eficientes en términos de velocidad y costos para grandes volúmenes de datos en comparación con sistemas de cableado terrestre .

Los programas de financiamiento internacional tienen el potencial de impactar significativamente en la conectividad de regiones con infraestructuras limitadas, como África. En el caso de la región sudeste africana, la falta de cables de fibra óptica obliga a depender de conexiones satelitales costosas, limitando severamente la capacidad de ancho de banda . Con el financiamiento de iniciativas internacionales, se pueden desarrollar proyectos de infraestructura que reduzcan estos costos y aumenten la disponibilidad de servicios de Internet. Por ejemplo, el Regional Communications Infrastructure Program busca abordar estas deficiencias, facilitando acceso más económico y aumentando la participación digital de estas regiones .

La arquitectura abierta de la red facilitó el acceso público masivo al permitir un diseño tecnológicamente abierto que limitaba las restricciones gubernamentales o empresariales al acceso . Este tipo de arquitectura se originó tanto por razones militares estratégicas como para demostrar destrezas tecnológicas y procurar una realización utópica promovida por los científicos que dirigieron los programas de investigación. El diseño abierto sostuvo constante innovación y acceso libre, permitiendo que hackers y aficionados a la computación contribuyeran a poblar y expandir la red . Socialmente, esto ha llevado a una mayor democratización de la información, aunque también ha resaltado las desigualdades sociales en el acceso a recursos digitales .

Vint Cerf tuvo una influencia significativa en la evolución de Internet al ser co-creador del protocolo TCP/IP, que es fundamental para el funcionamiento de la red . Su visión incluyó la creación de un protocolo accesible para todos, lo que marcó la flexibilidad necesaria para incorporar diversos tipos de computadoras y sistemas operativos sin renunciar al uso de redes de comunicaciones . Cerf sostiene que 'nadie puede controlarla, y es el sistema más democrático jamás construido' , manifestando su postura sobre la democratización de la red. Además, su rol en ICANN y Google refleja su continuo compromiso con la estabilidad y ampliación del acceso a Internet .

La 'ética hacker' se manifiesta en el desarrollo de Internet a través de un enfoque colaborativo y descentralizado. Sus principios fundamentales incluían acceso ilimitado a ordenadores, priorizar el enfoque práctico sobre el teórico, la libertad de la información, desconfianza hacia la autoridad, y establecer la descentralización como un objetivo . Esta filosofía promovió una cultura de innovación abierta que fue crucial para la expansión de la red de una manera libre y sin restricciones, comparándose con el espíritu de los científicos que trabajaron en los programas de investigación .

ICANN juega un papel crucial en la administración de Internet al encargarse de preservar la estabilidad operacional de la red, promover la competencia, y asegurar una amplia representación de las comunidades globales de Internet . La organización administra aspectos técnicos esenciales, como la asignación de nombres de dominio y la gestión del sistema de identificadores únicos en Internet, lo que contribuye a un funcionamiento estable y ordenado de la red, evitando conflictos y duplicaciones .

DARPA desempeñó un papel crucial en el desarrollo de tecnologías de Internet al asegurar que EE.UU. mantuviera una ventaja en tecnología militar y evitar sorpresas tecnológicas de sus adversarios . La agencia, financiada por el estado, colaboró estrechamente con diversas universidades estadounidenses, creando laboratorios de investigación que se conectaron a través de ARPANET, la cual fue una red pionera que sentó las bases para Internet . A través de esta colaboración con la comunidad académica, DARPA facilitó el intercambio de conocimiento y la innovación tecnológica, integrando a científicos universitarios en sus proyectos de investigación .

A pesar de la capacidad ociosa en la infraestructura de cables submarinos, que muestra solo 2.1 tbps de los 5.7 tbps comprados son utilizados, no se han reducido las inversiones debido a proyectos que anticipan crecimiento de demanda y nuevas necesidades de conectividad . La constante expansión de Internet, especialmente en regiones de crecimiento económico como Asia, ha impulsado proyectos como la inversión de 203 millones de euros en el cable submarino 'Unite' entre Japón y Los Ángeles . Adicionalmente, las inversiones son necesarias para mejorar conectividad en regiones con graves deficiencias de infraestructura actual .

También podría gustarte