0% encontró este documento útil (0 votos)
143 vistas50 páginas

Tema 9

Este documento describe la importancia de la seguridad en las redes de comunicaciones. Explica que la seguridad total es imposible y que los sistemas siempre son vulnerables, por lo que es necesario gestionar la seguridad para reducir riesgos. También describe varios tipos de ataques a sistemas y redes, así como mecanismos comunes de seguridad como el cifrado, firma digital y autenticación.

Cargado por

Javier Yepes
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
143 vistas50 páginas

Tema 9

Este documento describe la importancia de la seguridad en las redes de comunicaciones. Explica que la seguridad total es imposible y que los sistemas siempre son vulnerables, por lo que es necesario gestionar la seguridad para reducir riesgos. También describe varios tipos de ataques a sistemas y redes, así como mecanismos comunes de seguridad como el cifrado, firma digital y autenticación.

Cargado por

Javier Yepes
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

1.

SEGURIDAD Y PROTECCIÓN EN REDES DE COMUNICACIONES

Uno de los aspectos que más relevancia ha suscitado en los últimos años en la gestión de las
redes de comunicaciones ha sido la gestión de la seguridad. Por definición, todo sistema
conectado en red es inseguro. Esta inseguridad puede manifestarse en dos aspectos:

- Desde el punto de vista de las transacciones de información involucradas en las


comunicaciones.

- Desde el punto de vista del acceso a los recursos y a los servicios disponibles en el
sistema.

El respeto a las normas de funcionamiento y utilización, así como la utilización de herramientas


diseñadas específicamente para estos aspectos permitirán al administrador la prevención,
detección y corrección de situaciones no deseadas, tales como accesos no autorizados o
comunicaciones inseguras.

La seguridad total es imposible. Puede entenderse como un proceso orientado a reducir el riesgo
de sufrir un daño. Cualquier sistema debe ser considerado vulnerable. Por esto es necesario
gestionar la seguridad. Una organización que no implemente seguridad en sus comunicaciones
puede exponerse a su desaparición. Desastres naturales, ciberdelincuencia o ataques terroristas
forman parte de amenazas reales. Además, para evitar abusos y proteger los derechos de los
ciudadanos y de las Organizaciones, existe una legislación que describe los derechos y deberes
de las partes.

El estudio de la seguridad se suele dividir en seguridad física y lógica. Por tanto, aquí, aunque
teniendo en cuenta esos dos ámbitos, y que el aspecto físico se incluye en un nivel de la
arquitectura de protocolos de una red, parece lógico abordar el estudio de la seguridad por
niveles OSI. En la siguiente exposición, se hablará habitualmente de ataques, más que
amenazas, de forma que, según el contexto, podrán considerarse sinónimos.

Para cualquier usuario, el acceso a servicios de Internet tales como el correo electrónico o la
navegación web se han convertido en tareas cotidianas. Para las organizaciones es igual de
relevante pues son usuarias y proveedoras de servicios que van desde el uso del correo
electrónico hasta el soporte de transacciones online fundamentales para su actividad diaria, sea
comercial o no.

Es importante conocer que los incidentes de seguridad registrados aumentan anualmente. Estos
incidentes, más allá del impacto mediático, se suelen traducir en actividades de fraude
económico que suponen pérdidas económicas y de prestigio muy cuantiosas y que, en
ocasiones, originan el cese de actividad de la organización que los sufre.

Es preciso invertir una gran cantidad de recursos humanos y económicos si se desea prevenir y
minimizar la efectividad de los potenciales ataques en los sistemas y comunicaciones de una
organización. Se podría definir la seguridad de las redes de comunicaciones como la capacidad
de una red de resistir, con un nivel de confianza, las acciones que comprometan la
confidencialidad, integridad, disponibilidad y autenticidad de la información almacenada o
transmitida y de los servicios que se ofrecen. Según la definición existente en la disciplina de
seguridad de las TIC (STIC), la seguridad de la información y sistemas que la tratan puede
conseguirse protegiendo cada recurso que compone su configuración.

2
Así, las medidas de seguridad, en función del objeto protegido, pueden clasificarse en medidas:

- TRANSEC. Aseguran los canales de transmisión (seguridad de las transmisiones).

- COMPUSEC. Protegen el proceso automático de datos (seguridad de equipos).

- EMSEC. Protegen frente a emisión de radiaciones no deseadas (seguridad de las


emisiones).

- NETSEC. Protegen los elementos de red (seguridad de las redes).

- CRYPTOSEC. Protegen la información con criptografía (seguridad criptológica).

Conviene señalar que el término NETSEC está relacionado con la protección de las redes contra
la modificación, destrucción o revelación de la información mientras circula por ellas,
diferenciándose así del término TRANSEC, vinculado este último con la prevención contra la
obtención de información por medio de la interceptación, radiolocalización y análisis de las
señales electromagnéticas.

Los servicios de seguridad, que están relacionados con los diferentes aspectos de la
misma, son los siguientes:

- Confidencialidad, está asociado con el concepto más cercano de la seguridad y se


refiere a la prevención de accesos no autorizados a la información.

- Integridad de los datos y de las aplicaciones de los sistemas, consiste en la prevención


de la modificación no autorizada de la información.

- Responsabilidad, es la capacidad para asumir las actuaciones realizadas en la


infraestructura. Entre ellas estarían:

o Autentificación, es la garantía de que las partes implicadas en una


comunicación son quienes afirman ser.

o No repudio, es la garantía de que las partes han participado en una


comunicación dada.

o Control de accesos, es la garantía de identidad para el acceso autorizado a la


información y recursos de un sistema.

- Disponibilidad, es la necesidad de que los datos y sistemas se encuentren a disposición


de los usuarios cuando así lo requieran.

Los servicios de confidencialidad, integridad y autentificación constituyen el modelo CIA, que,


como se acaba de ver, se ha completado con otros aspectos clave para reforzar la seguridad en
comunicaciones y sistemas.

3
· ATAQUE Y DEFENSA DE UN SISTEMA

Un concepto importante es el de ataque, entendido como la consecución de una amenaza.


Existen numerosas clasificaciones de ataques, en función de diversos criterios (tipo de sistema
atacado, nivel de conocimiento del atacante, etcétera). Existen ataques pasivos (el atacante se
limita a escuchar o monitorizar información) y activos (aquí, el atacante interviene en el sistema
atacado para lograr acceso a la información). En relación a los servicios de seguridad, se suele
realizar la siguiente clasificación de los ataques:

- Ataque de interrupción, el objetivo es la fuente de información o el canal de


comunicación para inutilizar el activo. Se ataca a la disponibilidad del sistema,
impidiendo el uso normal de los recursos.

- Ataque de intercepción, el atacante consigue acceso no autorizado a la información. Se


ataca a la confidencialidad.

- Ataque de modificación, el atacante consigue acceso a la información y la modifica. Se


ataca a la integridad.

- Ataque de fabricación, en este ataque el atacante consigue insertar información en la


comunicación, provocando un ataque contra la autentificación. Cuando la información
insertada ha sido previamente capturada, estamos ante un ataque de repetición. Cuando
el atacante se hace pasar por un usuario legítimo se denomina suplantación.

La defensa de un sistema se define como el conjunto de mecanismos y procedimientos que lo


protegerán frente a ataques. Los mecanismos de defensa más habituales son los siguientes:

- Prevención, es el conjunto de acciones adoptadas para evitar la existencia de ataques.

- Detección, es el conjunto de mecanismos que, sobre todo basándose en la


monitorización, podrán determinar la existencia de ataques.

- Respuesta, es el conjunto de procedimientos que dan solución a un ataque.

· MECANISMOS DE SEGURIDAD

Los mecanismos de seguridad tratarán de proporcionar seguridad en un sistema en uno o más de


los aspectos tratados anteriormente. Se definen en documentos como las recomendaciones
X.800. Entre ellos destacan el cifrado, la firma digital, la autenticación, la integridad de los
datos y el control de acceso. En el campo de la seguridad y protección de redes de
comunicaciones suelen diferenciarse tres aspectos diferenciados:

- Seguridad de la información, aborda la protección de los datos, tanto de los transmitidos


como de los almacenados.

- Seguridad de las comunicaciones, se refiere a la protección de las transmisiones.

- Seguridad de los sistemas, se corresponde con la protección de los elementos y


dispositivos que intervienen y hacen posibles las comunicaciones. De poco sirve
desarrollar una estrategia de seguridad de la información o de las comunicaciones si no
se ve completada con una seguridad de los sistemas. Es preciso prever riesgos como
intrusiones, ataques de denegación de servicio (DoS) o infecciones.

4
Seguridad de la Información

Es necesario considerar dos grandes aspectos a la hora de proporcionar seguridad a la


información de una organización: el control de accesos y la provisión de seguridad a la
información en tránsito.

A) CONTROL DE ACCESOS

Evitar el acceso de usuarios no autorizados a recursos como archivos, cuentas de usuario o


recursos hardware y software constituye uno de las principales preocupaciones de las
organizaciones en materia de seguridad. En el ámbito del acceso a los servicios de red, es
conveniente contar con las siguientes premisas:

- El sistema más seguro es el sistema más aislado. Suena muy estricto y, con frecuencia,
es imposible. En todo caso, es obligatorio aplicar el principio de mínima exposición,
esto es, habilitar únicamente aquellos servicios necesarios, prohibiendo el resto.

- Establecer mecanismos controlados a la hora de habilitar servicios, así como privilegios


mínimos, reduciendo los riesgos todo lo posible.

- Implementar mecanismos de defensa difíciles de superar por potenciales atacantes. Un


ejemplo lo constituyen los cortafuegos, los sistemas de detección de intrusiones
(Intrusion Detection System, IDS) o de prevención de intrusiones (Intrusion Prevention
System, IPS).

- Interesa disponer de mecanismos de control, monitorización y rastreo de los servicios


de red que permitan al administrador localizar y, si es factible, evitar posibles accesos
no autorizados. La utilización de escaneadores de red (sniffers) permite descubrir
vulnerabilidades y el estudio de los ficheros de traza puede determinar alguna anomalía
en el tráfico de red.

B) PROTECCIÓN DE LA INFORMACIÓN EN TRÁNSITO

Hoy en día la criptografía está muy presente en nuestra vida cotidiana. Acciones como emitir o
recibir una llamada telefónica desde un teléfono móvil, sacar dinero de un cajero, acceder a un
ordenador introduciendo una contraseña, acceder a una web de un banco, realizar un pago
online, etc., hacen uso de técnicas con base criptográfica.

La telefonía móvil es otra gran consumidora de criptografía. Los primeros sistemas no utilizan
cifrado alguno, a semejanza de la telefonía fija. La diferencia está en que, una llamada realizada
desde un dispositivo móvil puede ser interceptada sin necesidad de pinchar cable alguno.
Actualmente, la telefonía utiliza algoritmos de cifrado de flujo que permiten cifrar y descifrar
las conversaciones en tiempo real.

La televisión de pago es una aplicación de la criptografía que puede observarse tanto desde el
punto de vista de la seguridad de las comunicaciones como desde el punto de vista del comercio
electrónico. Proteger los contenidos televisivos de posibles televidentes que no están abonados
es una de los principales usos de procedimientos criptográficos. Los codificadores no dejan de
ser dispositivos descifradores. Como en la telefonía móvil, se utilizan cifrados de flujo que
permiten cifrar y descifrar imágenes y sonido en tiempo real.

5
Los criptosistemas de clave secreta se caracterizan por utilizar la misma clave para el cifrado y
el descifrado, que se mantiene secreta. Estos sistemas de clave única son denominados también
de clave privada en contraposición a los de clave pública, en los que parte de la clave se da a
conocer. Por otra parte, al usar la misma clave secreta, se denominan también simétricos, en
contraposición de los de clave pública, denominados asimétricos.

La criptografía de clave privada o cifrado simétrico a nivel matemático es un método poco


complejo y se ha utilizado durante años. La seguridad de estos sistemas se reduce
exclusivamente a la seguridad de la clave (Principio de Kerckhoffs).

Si el algoritmo está bien diseñado, el texto cifrado sólo se podrá descifrar si se conoce la clave.
En la buena criptografía debiéndose suponer conocidos el resto de los parámetros del sistema
criptográfico. O, en otras palabras, como dijo Claude Shannon: “el adversario conoce el
sistema”.

Para efectuar un cifrado simétrico es preciso realizar dos operaciones distintas: sustitución y
transposición. La primera consiste en sustituir cada uno de los elementos que forman el texto
por otro a través de unas reglas conocidas por el emisor y el receptor. La segunda operación
consiste en la reordenación de los elementos obtenidos en la primera operación. Para ello se
utilizarán unas normas establecidas por emisor y receptor.

Por separado, estas operaciones no constituyen un buen sistema criptográfico pero la robustez
del algoritmo de cifrado puede mejorarse considerablemente si se combinan ambas operaciones,
usando sustitución y transposición repetidamente sobre el mismo mensaje. Algunos algoritmos
modernos de cifrado, como por ejemplo el AES o el Triple DES, utilizan múltiples vueltas de
cifrado en las que se combinan las dos operaciones. Con esta técnica se consigue lo que se
conoce como difusión y confusión.

Idealmente, un texto cifrado debe tener una apariencia totalmente aleatoria. Debe eliminarse del
texto cifrado cualquier pista o patrón, lo que significa que es necesario eliminar cualquier
relación estadística entre el mensaje original y su texto cifrado. La combinación de la
sustitución y transposición difunde, es decir, distribuye o dispersa la estructura estadística del
mensaje sobre la totalidad del texto cifrado. En este contexto, la difusión tratará de repartir el
peso (o influencia) de cada bit del texto legible original dentro del mensaje cifrado.

Dado que, normalmente, el criptoanalista solo dispondrá del texto cifrado y del conocimiento
del funcionamiento del algoritmo de cifrado utilizado para tratar de dar con la clave secreta, la
confusión busca ocultar la relación entre el texto cifrado y la clave secreta. Los algoritmos de
cifrado que se sirven de la confusión y de la difusión se suelen llamar cifradores de producto.
Cada aplicación de la confusión y de la difusión se produce en una vuelta de cifrado. Los
cifradores modernos suelen utilizar muchas vueltas de cifrado o iteraciones. Muchos de estos
cifrados tienen en común que dividen un bloque de texto en dos mitades sobre las que se aplica
la estructura conocida como red de Feistel.

El primer factor de seguridad de un algoritmo es su diseño. El segundo factor es la longitud de


la clave utilizada. Cuando un criptoanalista no puede encontrar fallos en el algoritmo, siempre le
queda recurrir a un ataque de fuerza bruta. Se trata de un método que no ataca al algoritmo en sí,
sino que busca exhaustivamente todos los posibles valores de la clave hasta dar con la correcta.
De ahí la importancia de elegir claves suficientemente largas, de manera que con la potencia de
cálculo actual sea imposible probarlas todas en un tiempo razonable.

6
Este fue el problema de uno de los algoritmos simétricos más populares y utilizados aún hoy en
día, el DES (Data Encryption Standard). Su longitud de clave fue establecida en 64 bits (56 bits
después de quitar los bits de paridad). DES fue diseñado en el año 1976 y en aquellos tiempos
resultaba impensable que un ordenador pudiera probar 2 56 combinaciones posibles de la clave.
Pero el aumento de la potencia de cómputo permitió que en el año 1998 se diseñara un
dispositivo capaz de obtener la clave correcta en 56 horas. Sucesivos avances en computación
paralela han conseguido reducir el tiempo a menos de un día. Actualmente, una clave simétrica
de ese tamaño es completamente insegura.

Los algoritmos asimétricos utilizan longitudes de clave mayores que los simétricos. Mientras
para estos últimos se estima que una longitud de clave de 128 bits es bastante segura, en los
asimétricos se recomiendan longitudes de clave de, al menos, 1024 bits, excepto en el caso de
los algoritmos basados en curvas elípticas. Algunos algoritmos permiten seleccionar a voluntad
la longitud de la clave, como el estándar AES (Advanced Encryption Standard) que se basa en
el algoritmo criptográfico Rijndael. Es importante conocer que cada bit que se añade a la clave
dobla el tamaño del espacio de claves posibles. La siguiente tabla muestra algunas
recomendaciones para elegir la longitud de una clave.

Los cifrados simétricos se pueden dividir en cifrado de bloque y cifrado en flujo.

- Cifrado en bloque. Un texto está formado por palabras que, a su vez, se componen de
caracteres. Un cifrado de bloque consiste en transformar cada una de las palabras en
otras de igual longitud, esto es, mismo número de caracteres. Este es el cifrado
simétrico más utilizado actualmente.

El texto original se procesa en bloques de 64 bits. Los bloques de salida, también de 64


bits, se concatenan para formar el texto cifrado. Con este sistema se impide la supresión
y/o la inserción de bloques de texto cifrado, ya que, en ese caso, el receptor sería
incapaz de descifrar el criptograma recibido quedando, por tanto, alertado de la posible
intrusión. Además, los ataques estadísticos también se dificultan debido a la
interdependencia del texto cifrado a lo largo de todo el proceso. Ya en 1949, Claude
Shannon sugirió la combinación de los métodos de transposición y sustitución para
crear nuevos criptosistemas. Utilizando sus ideas se diseñaron DES y AES.

- Cifrados en flujo. Son aquellos textos que se obtienen de combinar una clave secreta
con el texto original a través de un operador XOR. Una de las propiedades de este
operador logra operaciones de descifrado de gran sencillez. Esta modalidad permite el
tratamiento de bloques de menos de 64 bits.

Habitualmente se utiliza para la seguridad de mensajes muy repetitivos y para cifrar o


descifrar ficheros donde no conviene almacenar información inútil. Este tipo de cifrados
ya fueron propuestos en 1917 por Gilbert Vernam. Los cifrados de flujo más modernos
se dividen en dos grupos: síncronos y autosíncronos.

7
Los cifrados síncronos son aquellos que, si durante la transmisión del mensaje se pierde
un carácter, se producirá un error de sincronización entre emisor y receptor. El método
tiene como ventaja que el carácter perdido será mal codificado pero el resto del mensaje
permanecerá intacto.

Los autosíncronos se caracterizan porque cada carácter cifrado depende de un número


fijo de caracteres del texto original. Utilizando este sistema no es necesaria la
sincronización entre emisor y receptor. La desventaja está en que, si se produce un error
en la transmisión de un carácter, supone un error en el resto del proceso de descifrado.

Los cifrados de flujo son mucho más rápidos que los cifrados de bloque, pero son más
inseguros. Actualmente esta división es meramente formal; los algoritmos actuales
permiten cifrar indistintamente en bloque y en flujo, dependiendo de las necesidades de
cada momento.

El mayor problema al que, históricamente, se ha enfrentado la criptografía de clave privada es el


de la distribución de su clave. Puesto que la clave solo es conocida por emisor y receptor,
¿cómo hacérsela llegar en el caso de que emisor y receptor estén separados por muchos
kilómetros? ¿Y si tienes que hacérsela llegar a muchas personas? Sería inmanejable. Hasta
mediados del siglo XX muy pocos necesitaban realmente hacer uso de la criptografía: militares,
diplomáticos y algunas empresas. El uso de la criptografía de clave simétrica era suficiente.
Podían gastar tiempo y dinero en distribuir las claves: los militares podían enviarlas custodiadas
por soldados, los políticos podían protegerlas por fuerzas de seguridad y las grandes empresas
podían contratar a agentes de seguridad.

Por todo lo anteriormente expuesto, durante siglos no hubo muchas respuestas exitosas a este
problema. Sin embargo, a finales del siglo XX cada vez era mayor la demanda del uso de la
criptografía, por lo que resultaba necesario encontrar un mecanismo capaz de distribuir claves
secretas de manera rápida, segura y al alcance de todos. Durante la década de los años 70 del
siglo XX asistiríamos al nacimiento de la criptografía de clave pública.

Los algoritmos simétricos más frecuentemente utilizados son:

- Algoritmo DES (Data Encryption Standard). Algoritmo de cifrado desarrollado en


1976 por la empresa IBM a partir del original Lucifer, que se basaba en las ideas de
Shannon. El sistema es un producto de sustituciones y transposiciones, lo que le
convierte en simétrico.

El algoritmo DES distribuye el texto que se desea cifrar en bloques de 64 bits y los
modifica mediante una clave del mismo tamaño. Tras la codificación, el texto mantiene
el tamaño. Desde su mismo diseño, los autores se dieron cuenta de los puntos débiles de
su algoritmo. En 1977, Diffie y Hellman probaron que, utilizando una técnica de prueba
y ensayo a través de las claves posibles, el algoritmo DES era vulnerable. Con este
estudio se demostró que una clave de 64 bits era insuficiente para garantizar la
seguridad del algoritmo. En un principio se había pensado en dotar al algoritmo de una
clave de 128 bits, pero, finalmente, se quedó en 64. Algunas teorías apuntan a que fue la
Agencia Nacional de Seguridad (en inglés National Security Agency, NSA), agencia
gubernamental americana que impidió su aparición con 128 bits, presuntamente para así
contar con la capacidad necesaria para descifrar los mensajes cifrados con DES, las
conversaciones telefónicas, así como destruir el algoritmo de ser necesario.

En 1991, los estudios de Biham y Shammir descubrieron que el algoritmo DES era
vulnerable utilizando un sistema de texto escogido. Para descifrar un texto cifrado con
el algoritmo DES se realiza el mismo proceso que para codificarlo. Lo único que varía
es que el dato de entrada será el texto codificado y el de salida el texto original.

8
- Algoritmo 3DES (también conocido como TDES). Se diseñó para solventar los
problemas detectados en el algoritmo DES. Utiliza una clave de longitud de 192 bits,
156 si se eliminan los bits de paridad. Este algoritmo consiste en aplicar tres veces el
algoritmo DES utilizando la secuencia:

CIFRADO®DESCIFRADO®CIFRADO

Para el primer cifrado se utilizan los primeros 64 bits de la clave, para la operación de
descifrado los 64 bits siguientes y para el último cifrado los restantes. El sistema crece
en seguridad, pero es considerablemente más lento. Con ello también se logra la
compatibilidad con el algoritmo DES, porque si se repite la clave de 64 bits del
algoritmo DES para formar una clave de 192 bits y se aplica el algoritmo 3DES, el
resultado es el mismo que el de aplicar el algoritmo DES.

- Algoritmo DESX. Creado por RSA Data Security. Fue muy utilizado en programas de
correo electrónico desde 1986 así como en el EFS (Encrypted File System) de los
sistemas operativos de Microsoft.

- Algoritmo IDEA (International Data Encryption Algorithm). Creado en 1992.


Trabaja con bloques de 64 bits, proceso en iteraciones y claves de 128 bits de longitud.
Se utiliza, entre otros, en algunas versiones del programa Pretty Good Privacy (PGP).

- RC2/RC4/RC5: Propiedad de RSA Security. Utilizan un cifrado en combinaciones de


números aleatorios. En función del cifrado RC utilizado se aumenta la longitud de su
algoritmo, llegando hasta los 256 bits a los que puede llegar el RC4 siendo lo
suficientemente rápido para establecer comunicaciones. En cambio, RC5 puede variar
en su longitud de algoritmo de cifrado llegando hasta los 2048 bits. En este caso, la
comunicación sería demasiado lenta.

- Algoritmo AES (Advanced Encryption Standard). En 1997 se consideraba que el


algoritmo DES estaba anticuado. El National Institute of Standards Technology (NIST)
convocó un concurso para elegir sustituto que debería tener, en principio, una vigencia
de al menos veinte años. A mediados de 1998 se aceptaron 15 candidatos: CAST-256,
CRYPTON, DEAL, DFC, E2, FROG, HPC, LOKI97, MAGENTA, MARS, RC6,
RINJDAEL, SAFER+, SERPENT y TWOFISH. Tras un período de evaluación los
cinco finalistas fueron: MARS, RC6, RINJDAEL, SERPENT y TWOFISH.

- Algoritmo MARS. Este algoritmo, creado por IBM, se basaba en las redes de Feistel,
ya utilizadas en el algoritmo LUCIFER. El principal problema de este algoritmo era que
su ejecución dependía de máquinas de 32 bits. Actualmente no es problema, pues todas
las máquinas cuentan con procesadores, al menos 32 bits, pero en la década de los 70
del siglo XX constituyó una limitación importante para su utilización.

- Algoritmo RC6. A partir del algoritmo RC5 –utilizado por Netscape en su navegador
Navigator–, RSA Laboratorios presentó el algoritmo RC6 como alternativa a DES. Es
de longitud de bloque y clave variables. RC6 se desechó por motivos de seguridad ya
que un algoritmo predecesor, el RC4, fue atacado con éxito comprometiendo su
seguridad.

- Algoritmo RINJDAEL. Este algoritmo fue presentado por los belgas Joan Daemen y
Vincent Rijmen. Fue el más rápido de todos los presentados. Aunque únicamente
contaba con diez iteraciones, se demostró que el algoritmo era ya seguro solo con seis.
Basaba su seguridad en el mismo modelo que el algoritmo DES.

9
- Algoritmo SERPENT. Desarrollado en la Universidad de Cambridge, unía aspectos
tradicionales en estos algoritmos, como las iteraciones (32) con otros más novedosos.
Su costosa implementación fue su principal desventaja.

- Algoritmo TWOFISH. Propuesto por Bruce Schneier, es de diseño simple y de tipo


Feistel. Puede utilizarse en varias plataformas e, incluso, en algunas versiones de PGP.
Cuenta con una seguridad demostrada, no exhibe claves débiles. Su longitud de bloque
es de 128 bits y su longitud de clave es variable.

El 2 de octubre del año 2000, el NIST declaró vencedor al algoritmo RIJNDAEL. A partir de
ese instante se denominó Advanced Encryption Algorythm (AEA) y conformaría el Advanced
Encryption Standard (AES). Conviene recordar que la debilidad básica de estos algoritmos se
encuentra en la necesidad de una buena gestión de las claves, problema grave que se hace aún
más a medida que aumenta el número de participantes en el sistema.

En cuanto a la criptografía de clave pública o cifrado asimétrico, Whitfield Diffie y Martin


Hellman publicaron en 1976 el artículo titulado New Directions in Cryptograghy, proponiendo
el uso de una clave para cifrar y otra distinta para descifrar. El objetivo era conseguir que
cualquier persona pudiera cifrar un mensaje, con la denominada clave pública, y que
únicamente el destinatario pudiera descifrarlo, utilizando la clave privada. Este proceso
solucionaría el problema de la distribución de claves del sistema simétrico, garantizando la
confidencialidad. Para el cifrado se pretendía utilizar funciones matemáticas tales que su
operación directa fuera sencilla pero su inversa bastante complicada, por ejemplo, la
potenciación o los algoritmos. Las propiedades de complejidad de cálculo que debía cumplir
cualquier algoritmo asimétrico fueron definidas por Diffie y Hellman en el artículo citado
anteriormente. Algunas de las especificaciones fueron:

- El usuario debe ser capaz de calcular su clave pública y privada en tiempo polinómico.
- El tiempo de cifrado, con la clave pública, debe ser también polinómico.
- El tiempo de descifrado, con la clave privada, debe ser también polinómico.
- El proceso de hallar la clave privada, a pesar de ser resoluble a nivel teórico, ha de ser
irresoluble a nivel práctico por motivo de costes, en tiempo y dinero.
- El proceso de descifrado del criptograma –aplicando la clave pública– debe ser inviable.

Estos sistemas se clasifican en función del método utilizado para garantizar su seguridad:

- Algoritmos de factorización entera. Como algoritmo de factorización entera destaca el


algoritmo RSA creado por Ronald Rivest, Adi Shamir y Leonard Adleman en 1977. Las
especificaciones de Diffie y Hellman no proporcionan ninguna implementación concreta de
la estructura necesaria para un criptosistema de clave pública, excepto para el caso del
protocolo de distribución de claves privadas. Rivert, Shamir y Adleman presentaron un
criptosistema de clave pública que cumplía las especificaciones de Diffie y Hellman basado
en la dificultad de factorizar un valor obtenido al multiplicar dos números primos.

RSA utiliza un número que es producto de dos números primos de entre 100 y 300 cifras.
La dificultad de este algoritmo reside en la búsqueda de los números primos. Para realizar
esta búsqueda se utilizan métodos probabilísticos de tal forma que, elegido un número al
azar, nos muestra la probabilidad de que sea primo o no. Si existiese algún error y los
números no fueran primos, bastaría con una prueba del algoritmo RSA para detectar el fallo
y se deberían escoger números nuevos. Todos los algoritmos basados en la factorización
basan su seguridad en la dificultad de factorizar un número resultado de la multiplicación de
dos grandes primos. Factorizar un número de este tipo no es complejo, sino que resulta, a
efectos prácticos, muy costoso en tiempo y recursos. Si en un futuro se encontrase un
método de factorización menos costoso, la seguridad de RSA estaría en entredicho.

10
- Algoritmos de logaritmo discreto. Cuando el algoritmo RSA ya era de uso común por
los usuarios se planteó la creación de un nuevo algoritmo asíncrono de clave privada
para cubrir la demanda existente. Del mismo modo que ocurre con el problema de
factorización, el sistema basado en logaritmo discreto es seguro y la solución es sencilla
en una única dirección, tal y como exige la norma de Diffie y Hellman.

Comparado este algoritmo con otros similares de su grupo presenta ratios similares
tanto en velocidad como en codificación, descodificación y seguridad. Esta afirmación
fue demostrada por Ronald Rivest en el año 1992. Algoritmos pertenecientes a este
grupo son los algoritmos ElGamal y el estándar DSS.

El algoritmo ElGamal sirvió de base para la definición del algoritmo DSA (Digital
Signatura Algorithm), un algoritmo de firma digital que sirve de alternativa al RSA. El
algoritmo DSA fue propuesto por el NIST como un estándar de firma digital.

- Algoritmos de curva elíptica. Este grupo de algoritmos aparecieron en 1985,


propuestos por Neil Noblitz y Victor Millar de forma independiente. Se basan en el
sistema de logaritmo discreto y su novedad radica en que, en vez de utilizar números
enteros, utiliza coordenadas cartesianas, esto es, puntos. Sobre dichos puntos se define
un grupo conmutativo con propieda des (conmutativa, asociativa, elemento neutro y
elemento simétrico) y las operaciones (suma y multiplicación).

El algoritmo estándar basado en curva elíptica es el ECDSA (Elliptic Curve Digital


Signature Algorithm). En la actualidad aún no se ha encontrado ningún sistema capaz
de romper el criptosistema en un tiempo razonable, ni siquiera para claves pequeñas.
Los procesos de cifrado y descifrado de estos algoritmos son más rápidos que los
anteriores, lo que reduce los costes de implementación. Aunque estos sistemas se
consideran un campo de reciente aparición, en los sistemas asimétricos su futuro es
prometedor. Desde la década de los años 80 del siglo XX, el esfuerzo para estandarizar
la criptografía elíptica ha sido liderado por la compañía Certicom.

Cuando se cifra algo con una clave privada luego no puede decirse que no se hizo: esta
propiedad de seguridad de los sistemas de clave asimétrica se denomina No repudio. Así,
conviene mantener a buen recaudo la pareja de claves necesaria en estos sistemas, por podemos
encontrar en el DNI electrónico.

¿Cómo se puede estar seguro de que la clave pública de un usuario es en realidad la suya y no la
de un atacante que ha logrado sustituirla por la suya propia? Es uno de los grandes problemas de
la criptografía de clave pública. La situación descrita se denomina man-in-the-middle (hombre
en el medio). Hoy en día esta peligrosísima situación está parcialmente resuelta utilizando los
certificados digitales y los sistemas de infraestructura de clave pública (PKI).

La comparación entre los sistemas de clave pública es la siguiente:

- Seguridad. Para llegar a un grado aceptable de seguridad, el RSA y el DSA deberían


utilizar claves de 1024 bits, mientras que para la ECC el tamaño recomendable bastaría
con 160. A medida que crece la clave, aumenta la distancia entre la seguridad de cada
propuesta. Por ejemplo, el ECC con 380 bits es mucho más seguro que el RSA o el
DSA con 2000 bits (de hecho, para esta longitud de clave el ECC es comparable al RSA
de 7600 bits.).

11
- Eficiencia. Para comparar los niveles de eficiencia, deberíamos contar con los
siguientes factores:

o Costes computacionales, es decir, la computación necesaria para cifrar y


descifrar. Cada uno de los tres sistemas -ECC, RSA y DSA- exige un gran
esfuerzo computacional. En el RSA se puede utilizar un exponente público
pequeño para mejorar la rapidez en la verificación de las firmas y en el cifrado,
pero no en la generación de la firma y el descifrado.

Tanto en el DSA como en el ECC se pueden calcular con antelación varias


tablas para mejorar su rendimiento. Teniendo en cuenta el estado actual de las
implementaciones, resulta que la ECC es un orden de magnitud más rápido que
el RSA y que DSA.

o Tamaño de la clave, esto es, la cantidad de bits necesarios para guardar la pareja
de claves y los restantes parámetros del sistema. La tabla a continuación
muestra la medida de los parámetros y de las claves:

o Ancho de banda, es decir, la cantidad de bits que se deben transmitir para


comunicar un mensaje cifrado o una firma digital. Los tres tipos de
criptosistemas requieren el mismo ancho de banda cuando se utilizan para
firmar mensajes largos. Si, por ejemplo, suponemos que deseamos firmar un
mensaje de 2000 bits o un mensaje de 100 bits. Las dos siguientes tablas
comparan las longitudes de firma y de los mensajes cifrados, respectivamente:

Resumiendo, el sistema ECC es de gran eficiencia. En las implementaciones, este dato implica
rapidez, bajo consumo y reducción de la medida del código transmitido.

12
Seguridad en las Comunidades

Existen varios esquemas de seguridad que se han ido desarrollado a medida que crecía la
preocupación por robustecer las comunicaciones. Uno de ellos ha sido la creación de protocolos
que permitan una comunicación segura entre los participantes. Es conocido que cada protocolo
trabaja en su capa correspondiente por lo que la inclusión de seguridad en una capa dada frente
a hacerlo en otras presenta un hecho diferencial: es una actuación directa sobre las cabeceras
implicadas en la capa afectada. Por tanto, incluir seguridad en la capa de aplicación no evita un
posible acceso de un atacante a información como direcciones IP o la identificación de los
puertos origen y destino de una comunicación. Los ámbitos en los que trabajan estos protocolos
pueden ser los siguientes:

A) SEGURIDAD INALÁMBRICA

La naturaleza abierta de los sistemas de comunicación inalámbricos les hace especialmente


vulnerables a acciones maliciosas, desde escuchas no deseadas hasta comunicaciones no
autorizadas con suplantación de identidad incluida. En este ámbito es obligatorio adoptar
medidas que garanticen la confidencialidad y la integridad de la información transmitida, así
como la autenticación de las partes.

En 1999 se introdujo en los sistemas inalámbricos el esquema WEP (Wired Equivalent


Privacy), que proporcionaba confidencialidad, integridad y autenticación en las
comunicaciones. La primera se lograba mediante el uso de cifrado de flujo RC4. La integridad
precisa del uso de un CRC de 32 bits y la autenticación podía ser abierta (no existe
autenticación) o del tipo Pre-Shared Key (PSK). Este método consiste en un procedimiento
basado en un reto-respuesta mediante el uso de una clave secreta compartida por cada pareja
origen-destino.

La longitud total de la clave en WEP era de 64 bits, fácilmente conseguible en cuanto aumentó
la capacidad de cómputo de los equipos que podían realizar repeticiones a gran velocidad hasta
conseguirla. Como, además, el vector de inicialización que formaba parte de clave se transmitía
en texto plano, el esquema WEP resultó inseguro.

Con el objetivo de mejorar las limitaciones de WEP, apareció en 2003 el sistema WPA (Wi-Fi
Protected Access). Utiliza TKIP (Temporal Key Integrity Protocol) para lograr
confidencialidad, MIC (Message Integrity Protocol) para conseguir la integridad y PSK
+802.1X para la autenticación.

El sistema 802.1X se basa en el protocolo EAP (Extensible Authentication Protocol), definido


en la RFC 3748 y que precisa de la intervención de un solicitante, un autenticador y un servidor
de autenticación. En este sistema, el solicitante envía una solicitud al autenticador antes de
acceder a la red. Éste remite la petición al servidor que, si es correcta, concede el acceso al
solicitante a través del autenticador. El solicitante es un usuario o sistema WiFi que desea
acceder a la red, el autenticador es el típico punto de acceso (en inglés Access Point, AP) y el
servidor de autenticación es un dispositivo independiente que cuenta con dichas
funcionalidades.

Es habitual que el proceso de autenticación se base en la utilización de un mecanismo de reto-


respuesta implantado a través del protocolo RADIUS (Remote Authentication Dial In User
Service) o del más actual DIAMETER, definido en la RFC 3588.

En 2004 apareció WPA2 (denominado también IEEE 802.11i). Su diferencia fundamental con
WPA es la utilización del algoritmo AES/CCMP como mecanismo de cifrado, lo que garantiza
una mayor robustez en las comunicaciones.

13
El detalle de la fase de operación y las entidades participantes en una típica comunicación
inalámbrica son las siguientes:

- Descubrimiento. Se realiza entre el usuario inalámbrico y el punto de acceso. Aquí se


realiza el reconocimiento de las partes, la definición de las opciones de seguridad
disponibles y el establecimiento de una asociación utilizando estas opciones.

- Autenticación, se basa en el sistema 802.1X. Aunque sea exitosa, el usuario aún no


puede acceder a la red.

- Gestión de las claves, se establecen las claves que se utilizarán en las comunicaciones
entre el usuario y la red (claves maestras, claves entre pares, claves de grupo, etc.).
Únicamente si se supera esta fase el usuario podrá acceder a la red.

- Transferencia segura, se utilizan las claves mencionadas en el paso anterior, así como
los algoritmos para proporcionar confidencialidad e integridad en las comunicaciones.

- Finalización de la conexión, una vez terminado el intercambio de información, la


conexión segura finaliza restaurándose a su estado inicial.

B) SEGURIDAD EN LAS COMUNICACIONES EXTREMO A EXTREMO (IPSec)

El protoco IPSec actúa en la capa de red para proteger y autenticar paquetes IP entre
dispositivos IPSec participantes (conocidos como Pares, en inglés Peers), como, por ejemplo,
encaminadores, concentradores, clientes de redes privadas virtuales (en inglés Virtual Private
Network, VPN) y cualquier otro tipo de dispositivos compatibles con IPSec. El uso de IPSec no
está ceñido a un tipo específico de cifrado o de algoritmo de autenticación. Es un marco de
estándares abiertos. Al no ceñirse a algoritmos específicos, IPSec permite la implementación de
los nuevos y mejorados algoritmos, evitando así la necesidad de actualizar mediante parches los
actuales estándares de IPSec. IPSec proporciona confidencialidad de los datos, integridad y
autenticación en el origen entre los pares participantes en la capa IP. IPSec soporta dos modos
de cifrado:

- Transporte. Cifra solo la carga de datos útil del paquete (conocido como Payload),
dejando sin cifrar la cabecera IP.

- Túnel. Cifra tanto la parte de datos como la cabecera IP. Es, por tanto, un modo más
seguro de cifrado.

IPSec consiste en los siguientes componentes:

- Encabezado de autenticación (Authentication Header, AH). Es un encabezado IP


añadido a un paquete IP que proporciona un checksum criptográfico del paquete IP
completo. Se usa para conseguir autenticación de datos e integridad, asegurando así que
el paquete fue enviado por la fuente correcta y que no ha sido modificado en su camino.
Este encabezado está separado del encabezado ESP que se describe a continuación.

- Datos de seguridad encapsulados (Encapsulating Security Payload, ESP). Es un


encabezado que se aplica a un paquete IP después de que este haya sido cifrado.
Proporciona confidencialidad de los datos de modo que el paquete original no puede ser
leído en su camino. Este encabezado puede, también, proporcionar autenticación para
los datos, así como un chequeo de su integridad, haciendo que el encabezado de
autenticación sea menos necesario en ciertas circunstancias.

14
- Asociación de seguridad (Security Association, SA). Estos son los bloques que se
construyen en las comunicaciones IPSec. Antes de que dos dispositivos puedan
comunicarse vía IPSec, deben primero establecer una serie de asociaciones de
seguridad. Estas especifican los importantes parámetros criptográficos que deben
acordarse hasta que los datos puedan ser transferidos de forma segura.

IPSec proporciona el marco y el administrador elige los algoritmos que se usarán para
implementar los servicios de seguridad dentro del marco. Las cuatro secciones del marco de
IPSec son las siguientes:

- Protocolos IPSec. En el momento de configurar los servicios de seguridad que son


proporcionados por una puerta de enlace IPSec, se debe en primer lugar elegir un
protocolo IPSec. Las posibilidades son:

o Datos de seguridad encapsulados (ESP).

o ESP con AH. Aunque AH es un componente importante del protocolo IPSec,


pocos despliegues de IPSec tienen activada este componente. En general,
muchas de las funcionalidades de AH se encuentran embebidas en ESP.

o Encabezado de autenticación (AH).

- Algoritmo de cifrado. La elección de uno u otro se realizará en función del nivel de


seguridad deseado:

o DES (Data Encryption Standard). Algoritmo utilizado para cifrar y para


descifrar paquetes de datos.

o 3DES (o Triple DES). Algoritmo que realiza 3 iteraciones sobre la clave de


cifrado. Si ésta fuese de 56 bits, el algoritmo 3DES la convierte en otra de 168
bits (56 *3 = 168).

o AES (Advanced Encryption Standard). El algoritmo sustituto de DES. Cuenta


con una clave variable que puede elegirse a voluntad.

- Autenticación. Es preciso elegir uno de los siguientes algoritmos de autenticación para


proporcionar integridad de los datos:

o MD5 (Message Digest 5). Algoritmo que autentica paquetes de datos.

o SHA-1 (Secure Hash Algorithm 1). Como el anterior, autentica paquetes.

- Algoritmos Diffie-Hellman (DH). Es un protocolo criptográfico de clave pública que


permite a dos partes establecer una clave secreta compartida, que es utilizada para
cifrado y algoritmos hash (por ejemplo, DES y MD5) sobre un canal de comunicaciones
inseguro. Las posibilidades de elección son: DH1, DH2 o DH5.

IPSec dispone las reglas para comunicaciones seguras basándose en algoritmos existentes para
implementar el cifrado, la autenticación y el intercambio de claves.

15
Los servicios de IPSec proporcionan cuatro funciones críticas. En general, la política de
seguridad local dicta el uso de uno o más de estos servicios:

- Confidencialidad. IPSec proporciona confidencialidad de dos formas:

o Confidencialidad con cifrado. Los datos en claro que se transportan sobre una
red pública (por ejemplo, Internet) pueden interceptarse y ser leídos. Para
mantener estos datos como privados, deben ser cifrados. De este modo, pese a
una intercepción, permanecerían ilegibles.

Para que funcione el cifrado, tanto el emisor como el receptor necesitan conocer
las reglas utilizadas para transformar el mensaje original en su forma
codificada. Las reglas se basan en un algoritmo y un clave. El algoritmo es la
función matemática que combina el mensaje, el texto o los números con una
cadena de dígitos llamada la clave. El resultado es una cadena cifrada ilegible.
El descifrado el extremadamente difícil o imposible sin la clave correcta.
Existen dos tipos de claves de cifrado:

1. Simétricas. Con el cifrado de clave simétrica, cada par utiliza la


misma clave para cifrar y para descifrar los datos.

2. Asimétricas. Con el cifrado de clave asimétrica, el extremo local


utiliza una clave para cifrar y el extremo remoto utiliza otra clave
para descifrar el tráfico.

El grado de seguridad depende de la longitud de la clave. Si alguien intenta


obtener dicha clave mediante un ataque de fuerza bruta, tratando de averiguar
cada posible combinación, el número de posibilidades está en función de la
longitud de la clave. El tiempo para procesar todas las posibilidades está en
función de la potencia de cómputo del procesador del equipo informático. Por
tanto, cuanto más corta sea la clave más fácil de averiguar será. La siguiente
tabla muestra los distintos algoritmos de cifrado.

16
o Confidencialidad con intercambio de clave. Los algoritmos DES, 3DES,
AES, así como los dos algoritmos de autenticación –MD5 y SHA-1–, todos
ellos requieren una clave simétrica de secreto compartido para llevar a cabo las
operaciones de cifrado y descifrado.

Las claves pueden ser enviadas por correo electrónico, mensajeros o


intercambio de clave pública. El método más sencillo es el intercambio de clave
pública de Diffie-Hellman (DH). El acuerdo de clave DH es un método de
intercambio de clave pública que proporciona un camino para que dos pares
establezcan una clave de secreto compartido que únicamente ellos conocen.

Los criptosistemas de clave pública se basan en un sistema de dos claves: la


pública, que se intercambia entre usuarios finales y la privada, que se mantiene
en secreto por sus poseedores. El algoritmo de clave pública DH establece que,
si dos usuarios intercambian claves públicas y se realiza un cálculo sobre su
clave privada y en la clave pública del otro, el resultado final será una clave
compartida idéntica.

Existen variantes del algoritmo de intercambio de clave pública DH, que van
desde el grupo 1 al grupo 7. Los grupos 1,2 y 5 soportan la potenciación sobre
un módulo primario con una clave de tamaño 768, 1024 y 1546
respectivamente. El cifrado DES y 3DES soporta grupo DH1 y DH2. El cifrado
AES soporta grupos DH2 y DH5. El cliente inalámbrico de VPN de la empresa
Certicom soporta el grupo DH7.

El grupo 7 soporta criptografía de curva elíptica, lo que reduce el tiempo


necesario para crear las claves. Los pares en las VPNs negocian con el grupo
DH para utilizarlo durante la configuración del túnel. La seguridad no es un
problema con el intercambio de claves DH. Aunque alguien pueda conocer la
clave pública de un usuario, el secreto compartido no puede ser generado
puesto que la clave privada nunca es pública.

DH se utiliza en negociaciones IKE (Internet Key Exchange) para permitir a los


pares el acordar un secreto compartido que se utiliza para generar aspectos de la
clave para uso posterior. Con DH, cada par genera un par de claves pública y
privada. La clave pública se calcula desde la clave privada por cada par y es
intercambiada sobre el canal inseguro. Cada par combina la otra clave pública
con su propia clave privada y calcula el mismo número del secreto compartido.
Este número es, entonces, convertido a una clave de secreto compartido. La
clave de secreto compartido no es intercambiada nunca sobre un canal inseguro.

RSA es una técnica de cifrado que se utiliza para firma digital. El cifrado RSA
utiliza claves asimétricas para cifrado y descifrado. Cada extremo, el local y el
remoto, genera dos claves de cifrado, una privada y otra pública. Mantienen su
clave privada e intercambian la pública con aquéllos que desean comunicarse.

Para enviar y cifrar un mensaje al extremo remoto, el local cifra el mensaje


utilizando la clave pública del remoto y el algoritmo de cifrado RSA. El
resultado es un texto ilegible que se envía a través de Internet. El extremo
remoto utiliza su clave privada y el algoritmo RSA para descifrar el mensaje
recibido. Lógicamente, el resultado es el mensaje original. El único que puede
descifrar el mensaje es el destinatario que posee la clave privada.
Con el cifrado RSA, el proceso contrario también es válido. El extremo remoto
puede cifrar un mensaje utilizando su propia clave privada. El receptor puede
descifrar el mensaje utilizando la clave pública del emisor.

17
- Integridad de los datos. El receptor puede verificar que los datos fueron transmitidos a
través de Internet sin sufrir cambios o alteraciones de ninguna manera. Los datos son
transportados sobre una red pública. Potencialmente, estos datos podrían ser
interceptados y modificados. El protocolo IPSec debe proporcionar alguna forma de
chequear la integridad de la información transmitida a través de Internet.

Los mecanismos que proporcionan esa integridad utilizan una clave de secreto
habitualmente denominada Message Authentication Code (MAC). Típicamente, dos
partes utilizan unos códigos de autenticación de mensajes que comparten una clave
secreta para validar la información transmitida entre ellas.

Los códigos de autenticación de mensaje basados en hash (en inglés Hash-based


Message Authentication Code, HMAC), añaden un hash a cada mensaje para
prevenirlos de la pérdida de integridad. Si el hash transmitido se corresponde con el
recibido, el mensaje no fue manipulado. Sin embargo, el no existe correspondencia, el
mensaje fue alterado. La integridad de los datos es un sinónimo de la autenticación. Los
paquetes son autenticados utilizando el hash añadido a cada paquete. Dos algoritmos
principales facilitan la integridad de los datos en el marco de IPSec: MD5 y SHA-1.

- Autenticación en el origen. El receptor puede autenticar la fuente del paquete,


garantizando y certificando la fuente de la información.

- Protección anti-repetición (anti-replay). Esta protección verifica que cada paquete


sea único, no duplicado. Los paquetes IPSec se protegen comparando el número de
secuencia de los paquetes recibidos con los del equipo de destino. Aquellos paquetes
cuyo número de secuencia es anterior al existente en el equipo destino, se considera
tardío o duplicado. En estos casos, los paquetes son desechados.

C) HMAC

En el extremo local, el mensaje y una clave de secreto compartida se envían a través de un


algoritmo hash, que genera un valor de hash. El mensaje y el hash se envían a través de la red.
En el extremo remoto, se produce un proceso de dos pasos:

- El mensaje recibido y la clave de secreto compartida se envían a través del algoritmo


hash, lo que ocasiona un nuevo cálculo en el valor del hash.

- El receptor compara el hash recalculado con el hash que fue añadido al mensaje. Si el
hash original y el recalculado se corresponden, la integridad de los datos está
garantizada. Si cualquier aspecto del mensaje original fue modificado durante la
transmisión, los valores del hash serán diferentes.

Básicamente, un algoritmo de hash es una fórmula utilizada para convertir un mensaje de


longitud variable en una cadena única de dígitos de una longitud fija. El hash es un algoritmo de
una sola vía. Un mensaje puede producir un hash, pero un hash no puede producir el mensaje
original. Existen dos algoritmos HMAC:

- HMAC-MD5. Utiliza una clave secreta compartida de 128 bits. El mensaje de longitud
variable y la clave de 128 bits se combinan y se ejecutan con el algoritmo de hash
HMAC-MD5. El resultado es un hash de 128 bits que es añadido al mensaje original y
enviado al extremo remoto.

18
- HMAC-SHA-1. Utiliza una clave secreta de 160 bits. El mensaje de longitud variable y
la clave de 160 bits se combinan y se ejecutan con el algoritmo de hash HMAC-SHA-1.
El resultado es un hash de 160 bits que es añadido al mensaje origina y enviado al
extremo remoto. HMAC-SHA-1 está considerado criptográficamente más fuerte que
HMACMD5. Se recomienda su uso cuando la seguridad es un aspecto importante a la
hora de decidir.

En la Edad Media, un sello garantizaba la autenticidad de un edicto. Actualmente, un


documento firmado se dota de validez mediante un sello y una firma. En la era electrónica, un
documento se firma utilizando la clave cifrada privada del emisor. Una firma es autenticada
descifrando la firma con la clave pública del emisor.

La firma es utilizada durante la fase inicial de establecimiento en un túnel VPN para autenticar
los dos lados. Los dos algoritmos de firma digital más comunes son: RSA y DSA. El primero se
utiliza, sobre todo, de forma comercial y es el más común. DSA se utiliza mucho por las
agencias del gobierno estadounidense, siendo menos común.

Cuando se realizan operaciones comerciales a larga distancia, es necesario conocer quién están
al otro lado (del teléfono, del fax, del correo electrónico, etc.). Esta premisa también es cierta en
el caso de las redes que utilizan IPSec para conectar VPNs. El dispositivo al otro lado del túnel
VPN debe ser autenticado antes de que el camino de la comunicación sea considerado como
seguro. Existen tres métodos de autenticación de pares:

- Claves compartidas de antemano (Pre-shared keys). Una clave secreta se introduce


manualmente en cada par y lo autentica. La misma clave compartida de antemano se
configura en cada par IPSec. En cada extremo, la clave compartida se combina con otra
información (por ejemplo, la clave secreta DH) para formar la clave de autenticación.
Comenzando en el extremo local, la clave de autenticación y la información de
identidad se envían aplicándoles un algoritmo de hash. El par local proporciona
autenticación de un sola vía enviando el hash resultante al par remoto. Si el par remoto
es capaz de crear, de forma independiente, el mismo hash, el par local es autenticado.

El proceso de autenticación continúa en la dirección opuesta. El par remoto combina su


información de identidad con la clave de autenticación compartida de antemano,
aplicándolas el hash y enviándolas. El hash se envía al par local. Si este es capaz, de
forma independiente, de crear el mismo hash a partir de la información almacenada y de
la clave de autenticación compartida de antemano, entonces el par remoto es
autenticado. Cada par debe autenticar a su opuesto antes de que el túnel sea considerado
seguro. Las claves compartidas de antemano son fácilmente configurables de forma
manual pero no cuentan con mucha escalabilidad. Cada par IPSec debe ser configurado
con la clave compartida de antemano del otro par con el que se comunica.

- Firmas RSA. El intercambio de los certificados digitales autentica los pares. Con las
firmas RSA los hashes generados son autenticados y firmados digitalmente.
Comenzando por el extremo local, la clave de autenticación y la información de
identidad son enviadas aplicándoles el hash. En este momento se cifra el hash utilizando
la clave privada de cifrado del par local. El resultado es una firma digital. Esta y el
certificado digital son enviados al par remoto. Para el descifrado, la clave pública de
cifrado es incluida en el certificado digital intercambiado entre los pares. En el par
remoto, la autenticación del par local es un proceso de dos pasos:

o El par remoto verifica la firma digital descifrándola. Para ello utiliza la clave
pública de cifrado insertada en el certificado digital. El par remoto crea,
independientemente, el hash a partir de la información guardada. Si el hash
calculado es igual al hash descifrado, el par local es autenticado.

19
o Una vez que el par remoto ha autenticado al par local, el proceso de
autenticación comienza en la dirección opuesta. El par remoto combina su
información de identidad con la clave de autenticación y aplica un hash a esta
esta información. El hash se cifra utilizando la clave privada de cifrado del par
remoto (la firma digital). Esta firma, junto con el certificado, se envía al par
local. Este lleva a cabo dos tareas:

 Crea el hash a partir de la información almacenada.


 Descifra la firma digital.

Si el hash calculado y el hash descifrado se corresponden, el par remoto es


autenticado. Cada par debe autenticar a su opuesto antes de que el túnel sea
considerado seguro.

- Términos acuñados con cifrado RSA (RSA Encrypted Nonces). Los términos
acuñados son números aleatorios generados por cada par. Los dos términos se utilizan
durante el proceso de autenticación de los pares.

Es preciso que cada parte genere un término acuñado para que, posteriormente, sean
cifrados e intercambiados. Se cifran gracias al iniciador utilizando la clave pública del
receptor. Las claves públicas necesitan intercambiarse entre los pares antes de que
comience la negociación. Cuando se recibe el término acuñado, cada extremo formula
una clave de autenticación formada por el iniciador y el contestador del término
acuñado, la clave DH y las cookies del iniciador y contestador. La clave de
autenticación basada en términos acuñados se combina con información específica del
dispositivo y se le aplica un algoritmo de hash. El par local proporciona autenticación
de una sola vía enviando el hash resultante al par remoto. Si este es capaz, de forma
independiente, de crear el mismo hash a partir de la información almacenada y de su
clave de autenticación basada en el término acuñado, el par local es autenticado.

Después de que el extremo remoto autentique al par local, el proceso de autenticación


comienza en la dirección opuesta. El par remoto combina su información de identidad
con la clave de autenticación basada en término acuñado, se le aplica un algoritmo de
hash y se envía al par local. Si este es capaz, independientemente, de crear el mismo
hash a partir de la información que tiene guardada y de la clave basada en término
acuñado, el par remoto es autenticado. Cada par debe autenticar a su opuesto antes de
que el túnel sea considerado seguro.

IPSec usa mecanismos de anti-replay para asegurar que los paquetes IP no puedan ser
interceptados por una tercera parte (o man-in-the-middle), lo que podría suponer que fueran
cambiados y reinsertados en el flujo de datos. Estos mecanismos se implementan gracias a los
protocolos:

- Protocolo AH. Implementa anti-replay por defecto.

- Protocolo ESP. Lo implementa cuando la autenticación de datos está activada.

El mecanismo de anti-replay trabaja conservando el número de secuencia asignado a cada


paquete cuando llega a un punto final de la VPN. Cuando una asociación de seguridad (SA) se
establece en dos puntos, el número de secuencia se pone a 0. Los paquetes que se cifran y
transmiten sobre la VPN empiezan con el 1. Cada vez que se envía un paquete, el receptor del
mismo verifica que el número de secuencia no es el mismo que el del paquete anteriormente
enviado. Si el receptor recibe un paquete con un número de secuencia duplicado, el paquete se
descarta y se envía un mensaje de error al punto de transmisión de la VPN, que queda
registrado.

20
IPSec es un marco de estándares abiertos. Trabaja el mensaje con todo lujo de detalles para
asegurar las comunicaciones y se basa en algoritmos existentes (DES, 3DES y AES) para
implementar el cifrado y la autenticación. Los dos principales protocolos de IPSec son:

- Encabezado de autenticación (AH). Es el protocolo apropiado para utilizar cuando la


confidencialidad no es ni requerida ni permitida. AH proporciona autenticación de los
datos y la integridad de los paquetes IP que se transmiten entre dos sistemas. AH
proporciona una forma de verificar que cualquier mensaje transmitido entre dos
encaminadores no ha sido modificado durante su camino. AH verifica que el origen de
los datos fue alguno de los dos encaminadores. No proporciona confidencialidad de los
datos (cifrado) de los paquetes. Todo el texto se transporta en claro.

La autenticación es lograda al aplicar una función hash de una sola vía al paquete,
creando un hash o message digest. El hash se combina con el texto y se transmite. Los
cambios en cualquier parte del paquete durante la comunicación se detectan por el
receptor cuando lleva a cabo la misma función hash sobre el paquete recibido. La
autenticación está garantizada porque el hash conlleva el uso de una clave simétrica
entre los dos sistemas. AH soporta dos algoritmos HMAC-MD5 y HMAC-SHA-1. Los
siguientes pasos describe cómo funciona AH:

o Se aplica el hash al encabezado IP y a la carga útil de los datos.

o El hash se utiliza para construir el encabezado AH, que es añadido al paquete


original.

o El nuevo paquete se transmite hacia el par IPSec.

o El par aplica el hash al encabezado IP y a la carga útil de los datos.

o El par extrae el hash transmitido del encabezado IP.

o El par compara los dos hashes, que deben ser exactamente iguales. Si un bit se
ha cambiado durante la comunicación, el resultado del hash en el paquete
recibido cambia y el encabezado AH no se corresponde.

- Carga útil de seguridad encapsulada (Encapsulating Security Payload, ESP). Un


protocolo de seguridad puede utilizarse para proporcionar confidencialidad (cifrado) y
autenticación. ESP proporciona confidencialidad realizando un cifrado en la capa IP del
paquete. El cifrado oculta la carga útil de los datos y las identidades de la última fuente
y destino. ESP proporciona autenticación para el paquete IP interno y para el
encabezado ESP. La autenticación proporciona autenticación del origen de los datos e
integridad de los mismos. Aunque tanto cifrado como autenticación son opcionales en
ESP, al menos uno de ellos ha de ser seleccionado.

ESP soporta una variedad de algoritmos de cifrado simétrico. El algoritmo por defecto
para IPSec es el algoritmo DES de 56 bits. ESP puede utilizarse solo o en combinación
con AH. En esta última modalidad, proporcionaría integridad y autenticación de los
datos. En primer lugar, la carga útil de los datos se cifra. Posteriormente, a la carga se le
aplica alguno de los algoritmos ya comentados: HMAC-MD5 o HMAC-SHA-1. El hash
proporciona autenticación en el origen e integridad de los datos para la carga útil.

Alternativamente, ESP puede reforzar la protección anti-replay. Esto requiere que el


equipo receptor establezca el bit de replay en el encabezado para indicar que el paquete
ha sido visto.

21
La carga útil de los datos está bien protegida entre dos puertas de enlaces porque el
paquete IP original está cifrado. Con la autenticación ESP, el paquete IP y el
encabezado ESP se incluyen en el proceso de aplicación del hash. Finalmente, un nuevo
encabezado IP es añadido en la parte delantera de la carga útil de los datos (cuando se
utiliza el modo túnel). La nueva dirección IP se utilizará para encaminar el paquete a
través de Internet.

Cuando, tanto la autenticación ESP como el cifrado son seleccionados, este último
se realiza antes de la primera. Una razón para este orden de proceso es que
facilita una rápida detección de paquetes mal formados, permitiendo desecharlos
en el nodo receptor. Antes de descifrar el paquete, el receptor puede autenticar
los paquetes entrantes. Así, pueden detectarse problemas potenciales y se reduce
el impacto de posibles ataques de denegación de servicio (en inglés, Denial of
Service, DoS).

ESP y AH pueden aplicarse a los paquetes IP de dos formas diferentes:

- Modo de transporte. Protege la carga útil del paquete y los protocolos de las capas
más altas, pero deja la dirección IP original en claro. Esta IP se utiliza para encaminar el
paquete a través de Internet. El modo de transporte ESP se utiliza entre dos equipos
cuando el destinatario final es el propio equipo. El modo de transporte proporciona
seguridad únicamente a los protocolos de las capas más altas.

- Modo túnel. Se utiliza cuando en el extremo destino del túnel no hay un equipo
tradicional, sino que hay una puerta de enlace de seguridad, un concentrador, un
encaminador con propiedades de VPN o un dispositivo de seguridad tipo PIX. Una
puerta de enlace de seguridad cifra y autentica el paquete IP original. Posteriormente,
un nuevo encabezado IP se añade en la parte delantera del paquete cifrado. La nueva IP,
externa, se utiliza para encaminar el paquete a través de Internet y llevarlo al extremo
remoto (la puerta de enlace de seguridad). El modo túnel proporciona seguridad para
todo el paquete IP original.

El objetivo de IPSec es la protección de los datos con una serie de servicios de seguridad. Las
operaciones de IPSec pueden detallarse en cinco pasos:

- Tráfico de interés. Se considera tráfico de interés cuando el dispositivo VPN reconoce


que ese tráfico que se desea enviar necesita ser protegido. Parte de la política de
seguridad para el uso de una VPN consiste en determinar qué tráfico necesita ser
protegido y qué tráfico puede enviarse en claro. Para cada paquete de entrada y de
salida, existen las siguientes opciones:

o Aplicar IPSec.

o Saltarse IPSec.

o Descartar el paquete.

Para cada paquete protegido por IPSec, el administrador del sistema debe especificar los
servicios de seguridad que se aplicarán a cada paquete. La base de datos de política de seguridad
especifica los protocolos IPSec, los modos y los algoritmos que se aplican al tráfico. Los
servicios se aplican al tráfico destinado a cada par IPSec. Con el cliente VPN, puede utilizarse
un menú de ventanas para seleccionar conexiones que se desean asegurar por IPSec. Cuando el
tráfico de interés transita por el cliente IPSec, este inicia la siguiente fase: negociar el
intercambio IKE (Internet Key Exchange).

22
- Fase 1 de IKE. Se negocia un conjunto básico de servicios de seguridad y es acordado
entre pares. Este conjunto básico protege las comunicaciones posteriores entre pares. El
propósito fundamente de IKE en esta fase es la negociación del conjunto de políticas
IKE, autenticar los pares y establecer un canal seguro entre pares. La fase I puede darse
en dos modalidades:

o Modo principal. Cuenta con tres intercambios de doble vía entre el iniciador y
el receptor:

 Primer intercambio. Los algoritmos y los hashes utilizados para


asegurar las comunicaciones IKE son negociadas.

 Segundo intercambio. Un intercambio DH genera las claves de secreto


compartido.

 Tercer intercambio. Verifica la identidad de la otra parte para asegurar


que se están comunicando con los dispositivos con los que ellos creen
que se están comunicando.

o Modo agresivo. Se realizan menos intercambios y con un número más reducido


de paquetes. En el primer intercambio se concentra casi todo: el conjunto de las
políticas IKE, la generación de la clave pública DH, un término acuñado que la
otra parte firma y un paquete de identidad que puede utilizarse para verificar su
identidad a través de una tercera parte. El receptor envía todo lo necesario para
realizar el intercambio. Únicamente queda que el iniciador confirme el
intercambio. Mientras que el modo agresivo es más rápido, no proporciona
protección de la identidad y, por tanto, su uso no está recomendado.

- Fase 2 de IKE. IKE negocia parámetros de IPSec con la asociación de seguridad (SA)
y establece que exista igualdad en los dos pares. Estos parámetros de seguridad se
utilizan para proteger datos y los mensajes intercambiados entre los extremos. El
resultado final de las fases 1 y 2 de IKE es un canal de comunicación seguro entre los
pares. Una vez que la fase I IKE se estableció, las sesiones de las SAs se negocian para
asegurar un tráfico tradicional de VPN. El propósito de la fase 2 de IKE es el de
negociar los parámetros de seguridad de IPSec que se utilizarán para asegurar el túnel
IPSec. La fase 2 de IKE lleva a cabo las siguientes funciones:

o Negociación de los parámetros de seguridad de IPSec y de los conjuntos de


transformación (transform sets).

o Establecimiento de las asociaciones de seguridad de IPSec. (IPSec SAs).

o Renegociación periódica de las asociaciones de seguridad de IPSec para


reforzar la seguridad.

- Realizar un intercambio DH adicional. Esta fase cuenta con modo, denominado el


modo rápido. Sucede después de que IKE haya establecido un túnel seguro en la fase 1.
Negocia un cambio compartido de IPSec, obtiene el material de clave secreta
compartida utilizada para los algoritmos de seguridad de IPSec y establece las
asociaciones de seguridad de IPSec. El modo rápido intercambia los términos acuñados
que se utilizan para generar nuevo material de claves secretas compartidas y evita
ataques de repetición que podrían originar asociaciones de seguridad erróneas.

23
El modo rápido se utiliza también para renegociar una nueva asociación de seguridad
cuando expira su tiempo de vida. Refrescaría el material utilizado para crear la clave
secreta compartida basada en el material procedente el intercambio DH realizado en la
fase 1. Cuando los servicios de seguridad se acuerdan entre los pares, cada dispositivo
VPN introduce información en una base de datos de política de seguridad (en inglés
Security Policy Database, SPD). Esta información incluye los algoritmos de cifrado y
autenticación, la IP de destino, el modo de transporte, el tiempo de vida de la clave, etc.
A esta información se la conoce como asociación de seguridad (SA). Es una conexión
lógica de una sola vía que proporciona seguridad a todo el tráfico que atraviesa la
conexión.

Puesto que la mayoría del tráfico es bidireccional, se requieren dos SAs: una para el
tráfico entrante y otra para el saliente. El dispositivo de VPN indexa la SA con un
número denominado Índice de Parámetro de Seguridad (en inglés, Security Parameter
Index, SPI). Más que enviar los parámetros individuales de la SA a través del túnel, el
equipo origen (o la puerta de enlace) inserta el SPI en el encabezado ESP. Cuando el
par IPSec recibe el paquete, busca la dirección IP de destino, el protocolo IPSec y el
SPI en la base de datos de la SA (denominada SAD). En ese momento procesa el
paquete de acuerdo con los algoritmos existentes en la SPD.

La asociación de seguridad de IPSec es una mezcla de la SAD y de la SPD. La primera


se utiliza para identificar la dirección IP de destino de la asociación de seguridad, el
protocolo IPSec y el número SPI. La SPD define los servicios de seguridad aplicados a
la SA, los algoritmos de cifrado y autenticación, así como los modos y el tiempo de
vida. Al igual que la política de contraseñas de cualquier empresa para los PCs, cuanto
más tiempo se mantengan, más riesgo existe. Este mismo principio hay que aplicarlo a
las asociaciones de seguridad. Es necesario cambiar las claves periódicamente. Existen
dos parámetros:

o Tipo de tiempo de vida. Hay que decidir si se mide en el número de bytes


transmitidos o en el tiempo transcurrido.

o Duración. La unidad de medida es el kilobyte de datos o segundos de tiempo.

Un ejemplo es un tiempo de vida basado en 10.000 kB de datos transmitidos o en


28.800 segundos transcurridos. Las claves y las asociaciones de seguridad permanecen
activas hasta que expire su tiempo de vida o hasta que un evento interno -como por
ejemplo un cliente rechazado del túnel-, cause que sean borrados.

- Transferencia de datos. Los datos son transferidos entre los pares IPSec. Se basa en
los parámetros de IPSec y en las claves almacenadas en la base de datos de SA. Una vez
completada la fase 2 de IKE y que el modo rápido ha establecido las asociaciones de
seguridad IPSec, el tráfico es intercambiado entre los equipos origen y destino
utilizando un túnel seguro. El tráfico de interés es cifrado y descifrado de acuerdo a los
servicios de seguridad especificados en las asociaciones de seguridad.

- Finalización del túnel IPSec. El proceso de IPSec con SA finaliza mediante la


eliminación o por expiración. Las asociaciones de seguridad IPSec pueden expirar
cuando han transcurrido un determinado número de segundos o cuando un determinado
conjunto de bytes ha pasado a través del túnel. Cuando la asociación de seguridad
finaliza, las claves son descartadas. En el caso de necesitar otras asociaciones de
seguridad para garantizar el flujo de datos, IKE realiza una nueva fase 2 y, si es preciso,
una nueva fase 1 de negociación.

24
Una negociación con éxito originará una nueva asociación de seguridad y nuevas
claves. Las nuevas asociaciones de seguridad son habitualmente establecidas antes de
que expiren las antiguas, de modo que el flujo de datos pueda continuar
ininterrumpidamente.

IPSec se integra tanto en la versión más extendida del protocolo IP (IPv4) como en IPv6. De
este modo, todos los equipos de comunicaciones y las versiones de todos los sistemas operativos
podrán incluirlo en sus implementaciones más modernas.

D) SEGURIDAD EN LAS TRANSACCIONES

El protocolo SSL fue definido por la empresa Netscape Communications con la intención de
incorporar el protocolo https a su navegador Netscape. La versión 3 (SSLv3) ha sido discutida
por la IETF para generar el estándar TLS (Transport Layer Security), bajo las RFC 2246, RFC
4346 y RFC 5246. Se sitúa entre las capas de transporte y aplicación, pero en la práctica se
utiliza en comunicaciones http. Las páginas web protegidas con el protocolo SSL contienen
como esquema de su URI la denominación https en lugar de http. Utiliza el puerto 443 en lugar
del habitual 80 para comunicaciones no seguras. Los servicios proporcionados por SSL/TLS
son: confidencialidad, integridad y autentificación. Para proporcionar estos servicios, la
arquitectura SSL cuenta con los siguientes componentes:

- Protocolo de registro. Es el que proporciona confidencialidad e integridad mediante


esquemas de clave secreta (por ejemplo, DES o AES) y MAC (por ejemplo, SHA-1).

- Protocolo de especificaciones de cifrado. Permite establecer el conjunto de esquemas


de cifrado a utilizar en una conexión.

- Protocolo de alertas. Se utiliza para indicar situaciones de error en la comunicación


entre las partes (por ejemplo, un certificado no válido).

- Protocolo de negociación. Es la parte más compleja de SSL. El protocolo permite la


autentificación mutua del cliente y del servidor, la negociación de los algoritmos de
cifrado y MAC, así como las claves criptográficas que protegen los datos enviados.
Existen cuatro etapas involucradas en la operación:

o Establecimiento de las capacidades de seguridad.

o Autentificación del servidor e intercambio de clave.

o Autentificación del cliente e intercambio de clave.

o Finalización.

El proceso habitual que siguen las comunicaciones basadas en SSL/TSL son:

o Autentificación de las partes mediante el protocolo de negociación.

o Se establecen los algoritmos y claves a usar en las comunicaciones.

o Los datos de la aplicación implicada se encapsulan en el paquete SSL del


protocolo de registro. De este modo, se proporciona confidencialidad e
integridad mediante los algoritmos y claves que se utilicen.

25
El protocolo SSL proporciona conexiones seguras entre servidor y cliente, asegurando los
paquetes enviados, sólo el servidor es el autenticado, es decir, se garantiza su identidad,
mientras que el cliente se mantiene sin autenticar.

Se sitúa entre las capas de red y transporte y la capa de red. Aunque habitualmente se utiliza
para comunicaciones con servidores web, puede utilizarse para otros protocolos distintos a
HTTP como POP3, SMTP, etcétera. Al igual que el protocolo S-HTTP, proporciona
confidencialidad, integridad y autentificación. La última versión disponible es la 3.0 publicada
en la RFC 6101. Las fases en que se divide SSL son:

- Negociar entre las partes el algoritmo que se usará en la comunicación.

- Intercambio de claves públicas y autenticación basada en certificados digitales.

- Cifrado del tráfico basado en cifrado simétrico.

La evolución de SSL es TLS (Transport Layer Security). Es un protocolo definido por la


Internet Engineering Task Force (IETF), definido por primera vez en 1999 y actualizado por
última vez en el las RFC 5246 (agosto de 2008) y en RFC 6176 (marzo 2011). Se basa en las
especificaciones previas de SSL. La versión actual es la 1.2, aunque desde mayo de 2015 se
encuentra en fase borrador la versión 1.3. Prácticamente todas las aplicaciones presentes en
Internet (navegación, correo electrónico, mensajería instantánea o voz sobre IP) soportan tanto
SSL como TLS, incluidos los principales navegadores.

E) CORREO ELECTRÓNICO SEGURO

Los mensajes de correo se envían habitualmente sin encriptar cifrar. Esto significa que nuestros
envíos podrían ser interceptados, leídos o incluso, modificados. Para evitarlo, se han diseñado
una serie de protocolos que aportan seguridad al correo electrónico. Una firma digital en un
mensaje garantiza que el mensaje lo ha enviado la persona que dice haberlo hecho. El
destinatario tiene la garantía de que ese mensaje procede de la persona indicada y de que no ha
sufrido alteraciones en el camino. Por otro lado, para garantizar que nadie pueda leer un
mensaje en el transcurso de una comunicación, éste necesita ser cifrado.

Los sistemas anteriores se basan en la llamada infraestructura de clave pública (PKI, Public Key
Infraestructure) que consiste en disponer de dos claves: una privada y otra pública. Para la firma
digital, el emisor firma con su clave privada y el receptor utiliza la clave pública del emisor para
comprobar la validez del mensaje. Por el contrario, para el cifrado de los mensajes, el emisor lo
encripta cifra con la clave pública del destinatario y el receptor utiliza su clave privada para
descifrarlo. Los principales protocolos métodos utilizados para correo seguro son:

- PGP (Pretty Good Privacy). Phil Zimmermann creó PGP en 1991, una herramienta de
propósito general que proporciona autentificación, integridad y confidencialidad
combinando cifrado simétrico y asimétrico. Se suele relacionar su uso con el correo
electrónico, aunque no es exclusivo, pues puede utilizarse, por ejemplo, en la
transferencia de archivos. PGP es un estándar de la IETF denominado OpenPGP y está
definido en la RFC 4880.

PGP es una herramienta de encriptación de correo electrónico que utiliza el algoritmo


RSA para implementar un mecanismo de cifrado de clave pública (uso simultáneo de
clave simétrica y asimétrica). Inicialmente se distribuyó como software libre. Para
enviar un mensaje, la herramienta genera una clave de sesión aleatoria con la que se
cifra el mensaje (con el algoritmo IDEA). A su vez la clave de sesión se cifra según
RSA con la clave pública del receptor y se envía adjunta al mensaje. Así, sólo el
poseedor de la correspondiente clave privada podrá descifrar por completo el mensaje.

26
No obstante, el modelo de certificación que emplea PGP (para validar la clave pública)
se basa en una red de confianza (con distribución previa de claves públicas de usuarios)
y no en el uso de certificados digitales, lo cual puede imponer limitaciones para su
utilización a gran escala. Finalmente, el IETF ha publicado el RFC 1847 para soportar
el uso de firmas y cifrado PGP en mensajes con MIME.

- S/MIME (Secure MIME). S/MIME está definido en el las RFC 2632, RFC 2633 y
RFC 2634 y actualizadas en las RFC 5750 y RFC 5751 y es un sistema de cifrado,
firma y certificación de mensajes que se fundamenta sobre MIME. Está soportado por
RSA y utiliza los estándares PCKS números 7 y 10 (estándares de criptografía de clave
pública) desarrollados por esta empresa para encriptación cifrado y certificación,
respectivamente.

Emplea un mecanismo de triple envoltorio en el que el mensaje es primero firmado,


después encriptado y finalmente firmado nuevamente sin que ambas firmas procedan
necesariamente de la misma persona o entidad. El uso conjunto de este envoltorio
permite garantizar todas las propiedades de seguridad anteriormente mencionadas. El
RFC define cabeceras MIME específicas para integrar las firmas y especificar los
algoritmos de firmado y encriptación, así como las partes firmadas o cifradas.

En términos de funcionalidad, S/MIME es parecido a PGP, pues permite el cifrado de


los datos, así como su integridad. El primero de los servicios se denomina
recubrimiento de los datos y el segundo el firmado de los datos. Este se consigue
cifrando el resumen del contenido con la clave privada del emisor y, posteriormente, se
codifica con BASE64 esta firma además del contenido. Si únicamente se codifica la
firma digital pero no el contenido, el servicio se denomina firmado claro de datos.

- PEM (Privacy Enhanced Mail). Es el menos utilizado de los tres. Al contrario que los
otros dos, no está preparado para correos MIME.

- DKIM (Domain Keys Identified Mail). Es la especificación de la IETF para correo


seguro. Está descrito en la RFC 6376. El funcionamiento de DKIM es:

o Un correo se firma con la clave privada del dominio administrativo donde se


genera el mensaje.

o En la recepción, el agente de entrega de correo puede acceder a la clave pública


correspondiente. Esto lo hace a través de un servicio de nombres de dominio
(DNS) para verificar la firma. De esta forma se autentifica que el mensaje
proceda del dominio administrativo pretendido. En caso contrario, el correo
será descartado.

DKIM está diseñado para proporcionar autentificación de los mensajes de correo


electrónico de forma transparente al usuario final.

27
· ASPECTOS LEGALES Y ÉTICOS DE LA SEGURIDAD

Cada vez son más frecuentes los episodios relacionados con ciberdelincuencia o cibercrimen. El
Consejo de Europa definió la primera como el conjunto de delitos contra la confidencialidad,
integridad y la disponibilidad de los datos y sistemas informáticos. También podrían incluirse
en esta categoría delitos relacionados con el contenido, la propiedad intelectual y otros derechos
afines. Finalmente, también se incluyeron delitos relacionados con el racismo y la xenofobia.

La Organización Mundial de la Propiedad Intelectual (en inglés World Intellectual Property


ORganization, WIPO) definió la propiedad intelectual como “toda creación de la mente humana
en relación a invenciones, obras literarias y artísticas, así como símbolos, nombres e imágenes
utilizadas en el comercio”. La legislación protege la propiedad intelectual mediante las patentes,
los derechos de autor y las marcas.

Es en este contexto en el que surgen las tecnologías DRM (Digital Rights Management)
mediante las que se pretende lograr el control de acceso a los recursos digitales. Puede hacerse
de dos formas:

- Controlando el consumo. Consiste en realizar un seguimiento de los productos o


servicios mediante procedimientos como autentificación online de los usuarios o
alteración del software para la monitorización de su utilización.

- Controlando el recurso. En esta modalidad se trata de lograr el seguimiento de la


distribución fraudulenta de los recursos protegidos. Para ello se suelen aplicar técnicas
de cifrado o de marcado con información del autor (ténica de watermarking) o del
consumidor (técnica de fingerprinting). Ambas técnicas se ubican en los denominados
esquemas de esteganografía.

Son destacables los esfuerzos realizados en las últimas décadas, tanto a nivel policial como
judicial. En el ámbito español conviene mencionar a cuerpos como el grupo de delitos
telemáticos de la Guardia Civil yla brigada de investigación tecnológica de la Policía Nacional.
En el ámbito europeo está el European Cybercrime Centre.

2. SISTEMA DE CORTAFUEGOS

La implantación de cortafuegos es una estrategia de defensa basada en limitar los puntos críticos
de entrada a lo que defender. En otras palabras, reducir la superficie de exposición o asegurar el
perímetro. La complejidad de los servicios TIC, no sólo precisa la instalación de un equipo o
software para dotar de seguridad a una organización. Esta infraestructura debe gestionarse. De
ahí que se definan arquitecturas firewall, políticas de control de acceso, etc. Por eso los sistemas
cortafuegos se consideran la pieza clave de la seguridad perimetral.

28
· SEGURIDAD PERIMETRAL

La seguridad perimetral ha de identificar zonas en las que se puede dividir una red, en función
de criterios de nivel de seguridad exigibles. En general, las zonas que pueden identificarse son
la intranet (red interna de la organización), extranet (parte de la red que es pública y destinada a
ofrecer recursos o servicios a entes que no son de la organización) y DMZ (zona
desmilitarizada, De-Militarized Zone, redes con un nivel de protección especial, donde se
ubican equipos críticos).

Siguiendo terminología militar, puede identificarse una DMZ como la zona entre el dominio
propio y el del enemigo. Así, la DMZ sería la zona entre el cortafuegos y la intranet. La
segregación de redes implica necesariamente la composición de una arquitectura, una forma de
estructurar la red, que lógicamente variará en función de la complejidad de la organización.
Esto, además, deriva en que una DMZ puede complicarse, ya que puede referirse a varias
subredes. En un cortafuegos se pueden definir varias DMZ si deben establecerse distintas zonas
con requisitos de seguridad distintos.

Un correcto diseño de la infraestructura de seguridad perimetral alcanzará un compromiso entre


el servicio de seguridad y la operatividad del sistema, conforme a los criterios de la política de
seguridad. Los criterios comunes de seguridad para la identificación de redes con DMZ pueden
ser los siguientes.

Seguridad en Profundidad

La seguridad en profundidad o multicapa es un criterio imprescindible en la implementación de


seguridad. La implementación de la política de seguridad debe tener en cuenta que ninguna
tecnología es infalible, podrán existir errores de configuración, podrá haber condiciones de
operatividad que relajen las configuraciones de seguridad y siempre hay que considerar la
posibilidad de compromiso o intrusión.

La posibilidad de compromiso obliga a pensar en una solución de seguridad estructurada en


niveles para reducir esa probabilidad de intrusión o el impacto si se materializa. Por tanto, el
cortafuego debe combinarse con otras medidas como la seguridad de los SO, con especial
atención a servidores, la separación de servicios en distintas máquinas, según su criticidad
(DNS, SMTP, web, BBDD), la aplicación del mínimo privilegio, seguridad de los dispositivos
de red, cifrado de las comunicaciones, IDS (Intrusion Detection Systems), IPS (Intrusion
Prevention System) u otros.

Además, se considerará el coste de implantación de seguridad. Si es mayor quelos activos a


proteger, en principio, no tendría sentido. El esfuerzo de este criterio es muy grande, por tanto,
al menos, hay que identificar un mínimo de recursos críticos sobre los que centrar la seguridad.

Diversidad Tecnológica

En general, las distintas tecnologías y fabricantes son complementarias. Unos ofrecen mejores
prestaciones que otros en algunos aspectos y viceversa. La idea es buscar las tecnologías que
mejor se adapten a los criterios o necesidades de seguridad marcados por la organización.

Del mismo modo, se pueden combinar equipos que, proporcionando, en principio, la misma
funcionalidad, sean de distintos fabricantes. Lógicamente se les exigirá compatibilidad de uso.
Esta estrategia se encamina a reducir el impacto de problemas que puedan derivarse del
firmware o evitar vulnerabilidades de una tecnología que no afecten a otra. Así se eliminan
puntos críticos de fallo. La diversidad tecnológica puede aplicarse también a sistemas
operativos, servidores u otros.

29
El problema de esta solución está en su alto coste en formación y mantenimiento. Por tanto, una
indicación es buscar los estándares que en principio facilitarán el mantenimiento y poder
encontrar profesionales formados. La diversidad tecnológica, en el fondo, es redundancia. Pero
el criterio de redundancia debe aplicarse, en general con la perspectiva de la arquitectura,
además de la tecnología. Esto evitará o limitará faltas de disponibilidad, aunque, como siempre,
a costa del coste de la duplicidad.

Principio del mínimo privilegio

Es un criterio de seguridad básico. Se basa en conceder los privilegios estrictamente necesarios


para la realización de labor en concreto. En general, es preferible causar molestias por una
restricción fuerte, es decir, restar algo de operatividad, a cambio de un control más severo del
permiso sobre el recurso.

Este principio se ha de establecer también en el control de acceso. A parte de asegurar que todo
el tráfico de red y usuarios sean sometidos a un control de acceso, tanto tráfico como usuarios
han de cumplir la condición de otorgarles el mínimo privilegio para sus acciones.

Principio de sencillez

La solución más sencilla suele ser la correcta. Este criterio general es más significativo en este
contexto, ya que el mantenimiento de estructuras complejas dificulta el análisis y la
administración, aparte de incrementar las vulnerabilidades.

El criterio también se llama KISS (Keep It Simple, Stupid). Del mismo modo, aunque la
seguridad debe interferir lo menos posible con la operatividad, ésta no debe ser la excusa para
relajar los criterios y requisitos de seguridad.

Asimismo, la sencillez favorece las necesidades de evolución de una organización, la


escalabilidad. Si se ha de evolucionar o crecer, unos criterios de seguridad sencillos, harán más
fácil el cambio. Por ejemplo, puede ser una buena decisión un sobredimensionado de la
capacidad de los equipos.

· ARQUITECTURAS DE CORTAFUEGOS

La arquitectura de un sistema describe su organización lógica y física en cuanto a componentes,


su relación con el entorno y principios que guían su diseño y evolución.

Cualquier encaminador IP utiliza reglas de filtrado para reducir la carga de la red. Además, las
utilizará para implementar diferentes políticas de seguridad. El objetivo es evitar el acceso no
autorizado entre dos redes.

30
El filtrado de paquetes consiste en la acción de permitir o denegar el flujo de tramas entre dos
redes de acuerdo a unas reglas predefinidas. Un encaminador que trabaje en el nivel de red del
modelo OSI puede realizar esta tarea, pero también puede realizarse en una máquina individual.
Al filtrado (en inglés screening) y a los dispositivos que lo implementan se los denomina
chokes. Un choke puede ser una máquina bastión o un elemento diferente.

Además del filtrado de paquetes, es habitual que los sistemas cortafuegos utilicen aplicaciones
software para reenviar o bloquear conexiones a servicios considerados inseguros (por ejemplo,
Telnet, FTP, etcétera). Se trata de los servicios Proxy. Son programas que trabajan en el nivel de
aplicación del modelo OSI y que permiten o deniegan el acceso a una aplicación determinada
entre dos redes. Los clientes proxy se comunican con los servidores proxy, que autorizarán las
peticiones y las enviarán a los servidores que presten el servicio solicitado. Si las deniegan, las
devolverán al peticionario.

En casi todas las arquitecturas, al menos existirá un choke y una máquina bastión. También
puede convidarse un cortafuegos a un simple encaminador que filtre paquetes (es decir, que
actúa como un choke). Desde un punto de vista lógico, en el sistema cortafuegos suelen existir
servidores proxy para las aplicaciones que han de atravesar el sistema y se sitúan,
habitualmente, en el bastión host. Asimismo, se implementa en el choke un mecanismo de
filtrado de paquetes. Por último, en alguno de los elementos se suele ubicar un mecanismo que
pueda monitorizar y detectar actividad sospechosa.

31
Cortafuegos de filtrado de paquetes

Un cortafuegos sencillo puede consistir en un dispositivo capaz de filtrar paquetes, es decir, un


choke. Este dispositivo podrá aprovechar la facultad de algunos encaminadores de realizar un
encaminamiento selectivo.

Estos dispositivos se denominan screening routers. Pueden bloquear o permitir el tránsito de


paquetes mediante listas de control de acceso (ACLs) en función de ciertas características de las
tramas de la comunicación. De esta forma, el encaminador actúa de pasarela de toda la red.
Habitualmente, estas características son los puertos origen y destino, el tipo de mensaje así
como los interfaces de entrada y salida de la trama en el encaminador.

En un cortafuegos de filtrado de paquetes los accesos desde la red interna al exterior que no
están bloqueados son directos, esto es, no existe necesidad de utilizar proxies, como sí ocurre en
los cortafuegos basados en un equipo que cuenta con dos tarjetas de red. Por tanto, esta
arquitectura es más simple de implementar y es muy utilizada en organizaciones que no
precisan de grandes niveles de seguridad o que no cuentan con muchos recursos. Eso sí, elegir
esta topología puede no resultar recomendable ya que estos dispositivos presentan desventajas:

- No disponen de un sistema de monitorización muy sofisticado. No resulta fácil para el


administrador determinar si el encaminador está siendo atacado o si la seguridad de la
organización puede estar comprometida.

- Las reglas de filtrado pueden resultar muy complejas de implementar. Esto dificulta
comprobar su corrección. Es habitual que se comprueben mediante la realización de
pruebas directas, lo que puede suponer algún problema de seguridad, por ejemplo, de
denegación de servicio (DoS).

Es conveniente bloquear todos los servicios que no se utilicen desde el exterior, así como el
acceso desde máquinas que no son de confianza hacia la subred. Igualmente, es conveniente
bloquear los paquetes con encaminamiento activado en origen.

32
Dual-Homed host

Esta arquitectura consta de varias máquinas equipadas con dos o más tarjetas de red,
denominadas anfitriones de dos bases (en inglés, Dual-Home hosts) o multibase (multihomed
hosts). Una de las tarjetas puede conectarse a la red interna a proteger y la otra a la red externa a
la organización. En esta configuración la máquina tanto el choke como el bastión.

El sistema debe ejecutar al menos un servidor proxy para cada uno de los servicios que deban
pasar a través del cortafuegos. Asimismo, es necesario que en el equipo esté deshabilitada la
característica de IP Forwarding. Aunque una máquina con dos tarjetas puede actuar como un
encaminador, para aislar el tráfico entre la red interna y la externa es necesario que el choke no
encamine paquetes entre ellas. De esta forma, los sistemas externos podrán “ver” al host a través
de una de las tarjetas y los internos a través de la otra, pero entre las dos partes no podrá existir
tráfico alguno que no pase por el cortafuegos, es decir, todo el intercambio de datos entre las
redes ha de realizarse o a través de los servidores proxy situados en el bastión host o
permitiendo a los usuarios conectar directamente con el mismo.

Esta última posibilidad no resulta muy recomendable puesto que un usuario que consiguiese
aumentar su nivel de privilegios en el sistema podría quebrar toda la
protección del cortafuegos (por ejemplo, reactivando el IP Forwarding). Además, suele resultar
incómodo para los usuarios la obligación de acceder a una máquina intermediaria entre ellos e
Internet. Por tanto, la existencia de proxies resulta lo más recomendable, pero puede ser
problemático el configurar cierto tipo de servicios o protocolos que no se diseñaron teniendo en
cuenta la existencia de un proxy entre los dos extremos de una conexión.

33
Screened host

Esta arquitectura combina un encaminador con un host bastión. El principal nivel de seguridad
procede del filtrado de paquetes, esto es, el encaminador es la principal línea de defensa. En la
máquina bastión, que es el único sistema accesible desde el exterior, se ejecutarán los proxies de
las aplicaciones. En el choke se filtrarán los paquetes que se consideren peligrosos para la
seguridad de la red interna. Únicamente se permitirá la comunicación con un reducido número
de servicios.

La respuesta a la pregunta de dónde ubicar el sistema bastión, si en la red interna o en el exterior


del encaminador es diferente en función del experto en seguridad informática al que se consulte.
Sí parece que la mayoría se decanta por ubicar el encaminador entre la red exterior y el host
bastión. De esta forma, cuando una máquina de la red interna desea comunicarse con el exterior
existen dos posibilidades:

- El choke permite la salida de algunos servicios a todas o a parte de las máquinas


internas a través de un filtrado de paquetes.

- El choke prohíbe todo el tráfico entre máquinas de la red interna y el exterior,


permitiendo únicamente la salida de ciertos servicios que proceden de la máquina
bastión y que han sido autorizados por la política de seguridad de la organización. De
esta forma se obliga a los usuarios a que las conexiones con el exterior se realicen a
través de los servidores Proxy ubicados en el bastión.

La primera opción es más compleja a la hora de configurar las listas de control de acceso
(ACLs) en el encaminador. La dificultad de la segunda opción está en la configuración de los
servidores proxy en el host bastión. Desde un análisis de la seguridad, es mejor la segunda
opción, pues es menor la posibilidad de dejar escapar tráfico no deseado.

Es posible combinar las dos opciones, puede permitirse el tráfico entre máquinas internas y el
exterior de ciertos protocolos difíciles de encaminar a través de un proxy o que no sean
demasiado peligrosos para la seguridad de la organización (por ejemplo, DNS o NTP),
obligando para el resto de servicios a utilizar el host bastión.

La arquitectura screened host puede parecer inicialmente más peligrosa que la basada en una
máquina con dos o más tarjetas de red. Se cuenta con dos sistemas accesibles desde el exterior
-lo que exige una configuración de seguridad más exigente- y su diseño es más complejo, lo que
puede propiciar que se cometan más errores que puedan provocar una violación de la política
implantada.

Pese a reconocer que estos problemas son reales, se solventan con una cuidadosa planificación
en tiempo de diseño e implantación, así como a la hora de definir una política de seguridad
correcta. No obstante, esta arquitectura se encuentra en desuso pues presenta dos puntos únicos
de fallo: el choke y el bastión. Si un atacante consiguiese controlar cualquiera de ellos, tendría
acceso a toda la red protegida.

34
Screened Subnet (DMZ)

Esta arquitectura, conocida también como red perimétrica o De-Militarized Zone (DMZ) es la
más utilizada. Añade un nivel de seguridad en las arquitecturas de cortafuegos situando una
subred (la DMZ) entre las redes externa e interna de la organización. De esta forma, se reducen
los efectos de un ataque exitoso al host bastión.

En las arquitecturas anteriores, el rol del host bastión era crítico. Los atacantes lo saben y hacen
de él un objetivo primordial. La arquitectura DMZ intenta aislar al host bastión en una red
perimétrica, de modo que, aunque un intruso consiguiera acceder a esa máquina, no conseguiría
un acceso total a la subred protegida.

La arquitectura screened subnet es la más segura, pero, a su vez, la más compleja. Se utilizan
dos encaminadores, uno exterior y otro interior que se conectan a la red perimétrica. Ésta, que
constituye el sistema cortafuegos, incluye el host bastión, así como otros servidores que
requieran acceso controlado (por ejemplo, el servidor de correo), que serán los únicos sistemas
visibles desde el exterior de la red de la organización.

El encaminador exterior bloqueará el tráfico no deseado en ambos sentidos (hacia la red


perimétrica y hacia la red externa), mientras que el interior realiza la misma función, pero con el
tráfico entre red perimétrica y la red interna. Con esta disposición, un atacante debería quebrar
la seguridad de ambos encaminadotes para acceder a la red protegida. Sería posible implementar
una arquitectura DMZ únicamente con un encaminador que contase con tres interfaces de red,
pero existiría un punto único de fallo.

También sería posible, en el caso de precisar un mayor nivel de seguridad, definir varias redes
perimétricas, situando los servicios que requieran menos fiabilidad en redes más externas. De
esta forma, el atacante debería ir “saltando” por todas las redes para acceder a los equipos. La
arquitectura screened subnet elimina los puntos únicos de fallo existentes en las anteriores, pero
tampoco es infalible. Pueden darse algunos problemas:

- Puede utilizarse el cortafuegos para que los servicios fiables pasen directamente sin
acceder al bastión, lo que puede ocasionar un incumplimiento de la política de
seguridad de la organización.

- La mayor parte de la seguridad reside en los encaminadores. En estos dispositivos es


complicado tanto configurar como comprobar las reglas de filtrado, lo que puede
ocasionar errores que creen brechas de seguridad en los sistemas de la organización.

35
Otras arquitecturas

Una manera de incrementar la seguridad facilitando, al mismo tiempo, la administración de los


cortafuegos es utilizar un host bastión diferente para cada protocolo o servicio en lugar de un
único sistema para todo. Evidentemente, el gran problema de esta solución es el número de
máquinas necesarias para implemente el sistema de cortafuegos, lo que impide a muchas
organizaciones adoptarla. Una opción más económica podría ser la de utilizar un único bastión
host pero diferentes servidores proxy para cada servicio.

Cada día es más frecuente que las 0rganizaciones dividan sus redes en diferentes subredes. Se
trata de una solución que requiere incrementar los niveles de seguridad en las zonas más
comprometidas. Puede hacerse colocando cortafuegos internos entre estas zonas y el resto de la
red. Aparte de mejorar la seguridad, esta arquitectura permite una mejor granularidad a la hora
de decidir qué servicios se pueden acceder desde ciertas máquinas, eliminando la posibilidad de
malos usos o de filtrado de información, por ejemplo.

3. REDES VIRTUALES (VPN)

Al igual que en Internet, la red de las organizaciones suele utilizar el protocolo TCP/IP como
método de conexión de sus sistemas. Puesto que, al menos, la organización dispondrá de una
dirección IP pública válida, habrá que considerar a esa red como parte de Internet.

Frente a las redes privadas que se basan en la utilización de líneas físicas dedicadas, existe la
posibilidad de utilizar líneas lógicas (virtuales) que se establecerán de manera dinámica según
las necesidades de cada momento: se trata de las redes privadas virtuales (en inglés, Virtual
Private Network, VPN). Las transmisiones realizadas sobre estas líneas se fundamentan en el
concepto de túnel, es decir, en el encapsulado de paquetes mediante el cual se posibilita la
transmisión de datos correspondientes a una red a través de las conexiones de una red diferente.
Un túnel queda definido por dos puntos extremos y un protocolo de comunicación utilizado
entre ellos. Los extremos pueden ser de dos tipos: un equipo personal o una LAN con un
dispositivo de acceso (por ejemplo, un cortafuegos). Se utilizan únicamente dos de las posibles
combinaciones:

- Cliente-LAN.
- LAN-LAN.

En ambos casos estaría involucrado un dispositivo de acceso.

36
Las redes privadas virtuales proporcionan acceso remoto seguro a usuarios y a infraestructuras
ubicadas fuera de nuestra red. Representan un método efectivo para extender geográficamente la
red interna utilizando Internet permitiendo, de este modo, el acceso a redes remotas y a equipos
de cliente también remotos. Utilizan Internet para encaminar el tráfico de la red interna, desde
una red privada hasta otra, encapsulando y cifrando el tráfico dentro una comunicación TCP/IP
estándar. Los paquetes son ilegibles para los equipos que se encuentran en Internet puesto que
están cifrados.

Otra gran ventaja de las VPN es la versatilidad del tipo de información de la red interna que
pueden encapsular y transportar: desde archivos, acceso a impresoras, correo interno, acceso a
bases de datos cliente/servidor, etc. Los sistemas puros de VPN no protegen la red, únicamente
transportan datos. La seguridad se logra con servicios y dispositivos de seguridad como
cortafuegos, IDS, IPS, etc. Sin embargo, en la actualidad, ya podemos encontrar modernos
sistemas basados en VPNs que se combinan con la mayoría de los dispositivos anteriormente
citados, sobre todo con los cortafuegos.

Las redes privadas virtuales solucionan el problema del acceso directo a servidores a través de
Internet utilizando una combinación de los siguientes componentes:

- Encapsulado IP.

- Autenticación criptográfica.

- Cifrado de la carga de los datos.

Estos tres componentes han de existir para crear una VPN. Aunque la autenticación
criptográfica y el cifrado de la carga útil de los datos (Payload) pueden parecer ser una misma
cosa, de hecho, son funcionalidades absolutamente diferentes y pueden existir de forma
independiente. Por ejemplo, el protocolo SSL (Secure Socket Layer) lleva a cabo el cifrado de
la carga útil de los datos sin autenticación criptográfica del usuario remoto. Otro ejemplo es el
inicio de sesión estándar de Windows, que lo realiza con autenticación criptográfica, pero sin
cifrar la carga útil de los datos.

· IMPLEMENTACIONES COMUNES

Son diversos los protocolos de encapsulado utilizados para la creación de VPNs. Suelen
funcionar en la capa de enlace y en la de red. Los protocolos de la capa de red son:

- IPSec, (Internet Protocol Security). Conjunto de protocolos que permite establecer


una VPN a nivel 3 entre un nodo y una o dos puertas de enlace. En IPv4 IPSec es
optativo y obligatorio en IPv6. Desde 2005 su tercera versión, considerada segura, se
detalla en los RFC 4301 y 4309.

- IP-IP.

- GRE (Generic Routing Encapsulation).

- MPLS (MultiProtocol Label Switching). Es un protocolo de WAN que trabaja en los


niveles 2 y 3 de OSI. Su versatilidad y velocidad lo han convertido en una de las
opciones más utilizadas. El funcionamiento de MPLS se describe en el RFC 3031 y se
basa en el etiquetado del tráfico de nivel 2 (tramas). Los paquetes de nivel 3 al entrar en
una red MPLS a través del Ingress Label Switched Router (Ingress LER), se encapsulan
o etiquetan como tramas MPLS de nivel 2. Las tramas MPLS viajan a su destino a
través de un túnel previamente establecido entre el Ingress LER y el punto de salida,
Egress LER.

37
Los encaminadores intermedios de la red MPLS se denominan Transit Label Switched
Routers (TLSR). Al llegar al final de la red, las tramas se desetiquetan y siguen su ruta
por la red que sea.

Por lo que respecta a los protocolos de la capa de enlace, destacan:

- PPTP, funciona con las siguientes características:

o El objetivo es el encapsulado de tramas PPP sobre un túnel GRE.

o El control del túnel se realiza en base a los mensajes PPTP específicos sobre
TCP en el puerto 1723. Los mensajes PPTP de control de túnel son de cuatro
tipos:

 De Gestión de control de la conexión.

 De gestión de llamada.

 De reporte de error.

 De control de sesión PPP.

- L2F (Layer Two Forwarding). Muy similar a PPTP pero no depende de IP por lo que
puede trabajar con otras tecnologías como ATM o Frame Relay.

- L2TP. Fue publicado en 1999 y su versión 3 es de 2005, que proporciona


características de seguridad, mejorando el encapsulado y posibilitando el transporte de
datos distintos a PPP sobre IP (por ejemplo, ATM, Ethernet o Frame Relay). Sus
características son:

o Los paquetes L2TP se envían sobre IDP, en el puerto 1701.

o Como L2TP no proporciona habitualmente ni una confidencialidad adecuada ni


autenticación, suele combinarse con IPSec en lo que se conoce como
L2TP/IPSec.

o El túnel L2TP se establece entre dos puntos: el iniciador del túnel (conocido
como LAC, L2TP Access Concentrator) y el servidor que queda a la espera de
nuevos túneles (conocido como LNS, L2TP Network Server).

o Cuando se establece el túnel, las capas superiores podrán utilizarlo en lo que se


conoce como sesiones o llamadas L2TP.

Los paquetes intercambiados sobre un túnel L2TP pueden ser de control o de datos. Los
primeros se refieren a acciones del tipo establecimiento del túnel o de sesión, mientras
que los segundos se refieren al encapsulado de tramas PPP sobre L2TP.

Por último, una VPN puede implementarse siguiendo los siguientes esquemas:

- SSH tunneling. SSH (Secure SHell) es un protocolo estándar de conexión remota.


Ofrece la posibilidad de utiliza un túnel para conducir tráfico TCP en un canal cifrado,
creando en la práctica una VPN. Establece correspondencias entre puertos locales y

38
remotos que permiten acceso sencillo a servicios del sistema remoto. Para su
establecimiento, origen y destino deben seguir la arquitectura cliente-servidor.

- SSL (Secure Socket Layer). Ofrece más simplicidad que IPSec para implementar una
VPN debido a que no exige la instalación de software en la parte cliente. Las VPN
basadas en SSL establecen la conexión utilizando un navegador web. El equipo de la
organización que gestione SSL será el interfaz con los servidores internos para
proporcionar acceso a los recursos. En versiones avanzadas también se permite realizar
túneles entre puertos o redes. Además, proporciona un control de acceso fuerte y
flexible y un registro de eventos detallado.

· ENCAPSULADO IP

Un paquete IP puede contener cualquier tipo de información: archivos de programas, datos de


hojas de cálculo, música o, incluso, otros paquetes IP. Cuando se da esta última situación, se
denomina encapsulado IP (también es conocido como IP sobre IP –IP/IP–). El encapsulado es el
proceso de embeber paquetes en otros paquetes en la misma capa de red con el propósito de
transportarlos entre las redes en las que serán utilizados. Por ejemplo, puedes querer conectar a
través de Internet dos redes Novell Netware y que, por tanto, utilizan el protocolo IPX para
comunicarse ellas. En este caso necesitaríamos encapsular los paquetes IPX en los paquetes IP
para transportarlos. El último encaminador (router) eliminaría los paquetes IP e insertaría los
paquetes IPX en la red remota.

El encapsulado IP puede hacer que aparezcan como cercanos en la red privada aquellos equipos
que, en realidad, se encuentran distantes. Pero, de hecho, están separados por diversos
encaminadores y puertas de enlace que, incluso, tendrán direccionamientos de IP
completamente diferentes porque, muy probablemente, las redes internas estarán utilizando
traducción de direccionamiento.

· AUTENTICACIÓN CRIPTOGRÁFICA

Se utiliza para validar, de una forma segura, la identidad del usuario remoto de modo que el
sistema pueda determinar qué nivel de seguridad es el apropiado para ese usuario. Las VPNs
utilizan autenticación criptográfica para determinar si el usuario puede participar o no en la
comunicación y puede también utilizar la autenticación para intercambiar el secreto o la clave
pública utilizada para el cifrado de carga útil de los datos.

Existen diferentes formas de autenticación criptográfica y los tipos utilizados por las VPNs
varían según los fabricantes. Para que dos dispositivos de fabricantes diferentes sean
compatibles deben soportar el mismo cifrado y los mismos algoritmos de cifrado de la carga útil
de datos y, además, implementarlos del mismo modo. La mejor manera de determinar la
compatibilidad es comprobar la información facilitada por todos los fabricantes de los
dispositivos utilizados, a través de sus hojas de producto.

· CIFRADO DE LA CARGA DE LOS DATOS

Se utiliza para confundir los contenidos de los datos encapsulados sin la necesidad de
encapsular un paquete completo dentro de otro paquete. De este modo, el cifrado del cargo de
los datos es exactamente como una red IP estándar excepto que, en este caso, los datos han sido
cifrados. El cifrado de carga confunde los datos, pero no mantiene privada la información de las
cabeceras, de modo que los detalles de la red interna pueden ser conocidos analizando dicha
información.

39
· ARQUITECTURAS

Las VPNs pueden ser implementadas por hardware o software pero, independientemente del
método elegido, lo más importante es el protocolo que se tiene en cuenta para su
implementación.

Algunos fabricantes ofrecen soluciones híbridas como VPN sobre SSL, PPP/SSL (Pointto-
Point Protocol over SSL) o PPP/SSH, (Point-to-Point Protocol over SSH).

Para aliviar el problema de la carga de proceso que introduce el cifrado, se suelen usar
concentradores VPN, de los que se distinguen dos tipos, soluciones cerradas (con hardware para
cifra) y servidores generalistas (con software de gestión y establecimiento de la VPN). El primer
tipo se muestra en la figura de la izquierda y el segundo a la derecha.

La solución cerrada aprovecha que el cortafuego es el punto de entrada a la red externa. La


solución de servidor generalista utiliza un concentrador de VPN que puede situarse en otro sitio
que no sea la frontera de la red, aunque es normal encontrarlo cerca. Las opciones más
habituales de posicionamiento son entre el cortafuego y la red externa, en la red interna, tras el
cortafuego o en una DMZ dedicada.

No se recomienda situar el concentrador entre el cortafuego y la red externa, ya que no estaría


protegido, sino directamente fuera del perímetro de seguridad. Tampoco es recomendable la
segunda opción, detrás del cortafuego, en la red interna ya que el tráfico del concentrador está
cifrado al cruzar el cortafuego, por lo que no se puede analizar. Sólo se recomendaría si se
garantizase que las redes conectadas poseen el mismo nivel de seguridad y no es posible situarlo
en otra posición por otras cuestiones.

Lo suyo es situar el concentrador en una DMZ dedicada. Así, estaría protegido por el
cortafuegos y puede controlarse el tráfico del concentrador hacia el interior. Se muestra en la
figura derecha. Algunas configuraciones VPN pueden tener problemas con la traducción de
direcciones, lo que debe considerarse al elegir la posición del concentrador.

40
4. SEGURIDAD EN EL PUESTO DE USUARIO

Es frecuente que las organizaciones inviertan grandes cantidades de recursos, humanos y


económicos, en la implantación de medidas de seguridad para evitar fugas o pérdidas de
información: desde mejorar los centros de procesos de datos, pasando por la renovación de
aplicaciones corporativas, sistemas de detección de intrusos, antivirus, controles de acceso
físico a las instalaciones, replicación de datos entre distintas sedes, hasta los mantenimientos de
los grupos electrógenos, etcétera.

Pese a que todo el mundo parece ser conocedor de que gran parte de los incidentes de seguridad
en la organización se generan dentro de ella, tanto de manera intencionada como accidental, no
es extraño que en el proceso de implantación de medidas se pase por alto un elemento vital: el
puesto de trabajo. No hay que olvidar que un usuario no necesita realizar complejos ataques
para acceder a la información: ha sido autorizado para utilizarla y la tiene a su alcance.

Además, desde la explosión de la movilidad, el concepto de puesto de trabajo excede la


ubicación física donde el usuario desempeña sus funciones diarias. Dentro de este entorno es
sencillo identificar elementos con relación directa con la seguridad de la información: equipos
de trabajo, tabletas, teléfonos inteligentes, dispositivos de almacenamiento extraíbles,
impresoras, escáneres, etcétera.

Es común que un puesto de trabajo está adecuado a un perfil y por tanto las amenazas a las que
está expuesto son distintas según las funciones que desempeñe el trabajador dentro de la
organización. Por tanto, resulta imprescindible que, además de implantar medidas de seguridad
transversales a toda la organización, se estudie la casuística de cada puesto de trabajo para
evaluar la necesidad de medidas de seguridad adicionales. Para la protección del puesto de
trabajo, definido en las circunstancias de ubicuidad anteriormente detalladas, puede ser
necesaria la utilización de tecnologías de protección de las siguientes categorías:

- Control de acceso y gestión de identidad.

- Control de contenidos confidenciales.

- Antifraude.

- Antimalware.

- Certificación digital.

- Seguridad en movilidad.

Está más que demostrado que para reducir los riesgos del puesto de trabajo de una forma
significativa no se requiere la implantación de grandes medidas técnicas, sino más bien
establecer una cultura o conciencia de la seguridad de la información que conducirán a la puesta
en marcha de medidas técnicas que son en la mayor parte de los casos sencillas.

41
· ESCENARIOS DE RIESGO

Existen numerosos riesgos en el puesto de trabajo que, además, podrán diferir en función del
tipo de organización, así como del perfil del usuario. Los dos grandes bloques serían:

- Fuga de datos. Habitualmente se producen como consecuencia de prácticas no


recomendables, desde errores al utilizar los sistemas de información hasta actos
malintencionados de empleados descontentos. Es conveniente una correcta utilización
del correo electrónico, así como de las redes sociales. Un descuido puede provocar el
envío de información al destinario no deseado. En las redes sociales, algunos empleados
facilitan información sobre proyectos, clientes o cualquier otro activo valioso de la
organización que puede provocar ataques utilizando, por ejemplo, la ingeniería social.
Pese a que existen herramientas que reducen el riesgo de fugas de información, es
imprescindible utilizar el sentido común a la hora de gestionar datos.

- Actualizaciones e Infecciones. Un puesto de trabajo que no reúna los mínimos niveles


de actualización, tanto en el sistema operativo y en las aplicaciones como en el antivirus
es un puesto vulnerable ante un ataque. No sólo estará comprometido ese puesto, sino
que podrá permitir el acceso a la red de la organización.

La explosión de la tendencia Bring Your Own Device (BYOD), fomentada o no por las
organizaciones, pero que ha resultado en la proliferación de dispositivos que se
conectan a otros que sí pertenecen los corporativo, ha aumentado el riesgo a sufrir
infecciones pues carecen, habitualmente, de los controles y protección que sí presentan
los del entorno de la organización.

· MEDIDAS DE SEGURIDAD

Puesto que existen innumerables escenarios de riesgo, igualmente las medidas de seguridad que
se pueden adoptar son muy diversas, de diferente grado y complejidad. Para tomar la decisión
de qué medidas son las que la organización finalmente adoptará, puede ser de ayuda acudir a la
legislación para conocer cuáles son requisitos obligatorios (por ejemplo, el caso de la Ley de
Protección de datos de carácter personal). En todo caso, conviene considerar medidas cuyo
coste de implantación y mantenimiento sea reducido y que, sin embargo, aporten una mejora
importante en el nivel de seguridad de la organización. Dos ejemplos serían:

- Establecer una política y normativas de seguridad.

- Establecer un programa de concienciación.

Política y normativa de seguridad

El éxito de la implantación de una política de seguridad se basa en la capacidad de la


organización en transmitir a todos sus integrantes un conjunto de obligaciones y buenas
prácticas relacionadas con la seguridad de los sistemas de información, incluido el puesto de
trabajo. La política suele ir acompañada de una normativa. Es habitual que esta normativa
contenga aspectos como los siguientes:

- Utilización de Internet y del correo corporativo. La normativa trasladará a los


empleados en qué condiciones puede utilizarse el acceso a Internet, así como el correo
corporativo.

42
- Normativa sobre uso de la documentación. La documentación está considerada como
uno de los activos más importantes de la organización. La normativa velará por:

o No abandonarla. No es infrecuente que los empleados olviden recoger una


documentación enviada a imprimir o escanear. Durante ese tiempo la
información habrá estado expuesta a otros usuarios que podrán hacerse con ella.

o Guardarla. En un entorno de trabajo compartido pueden originarse miradas


indiscretas a la documentación que terminen en una fuga de información. Para
evitarlo, tanto al ausentarse del puesto como al finalizar la jornada es
importante guardar de forma adecuada toda la documentación gestionada
durante la misma. Esta acción se conoce como política de mesas limpias:

 Que el puesto de trabajo esté limpio y ordenado.

 Que la documentación que no se utilice esté guardada de forma correcta

 Que no estén visibles nombres de usuario o contraseñas de acceso a


través de los típicos post-it o mecanismos parecidos.

o Destruirla. La organización ha de concienciar a los empleados en el


conocimiento de los riesgos asociados a la utilización de papeleras comunes
para desprenderse de documentos que contengan información relevante o
sensible. Asimismo, pondrá a disposición de los empleados mecanismos
seguros de destrucción. En el caso de contratar un servicio de destrucción
segura, es necesario notificar su existencia a los empleados.

- Uso adecuado de los medios de almacenamiento. Es frecuente el uso de estos medios


(desde pendrives hasta discos duros externos) por parte de los empleados para
almacenar información que se trasladará desde el puesto de trabajo a su domicilio y
viceversa. Esta práctica conlleva riesgos, tanto de pérdida y robo de información como
de infección por virus. La organización ha de habilitar mecanismos alternativos para
que sus empleados almacenen la información, garantizado de este modo su seguridad:

o Implantación de repositorios comunes para el intercambio de información.

o Implantar mecanismos de acceso remoto, que eliminarán la necesidad de


dispositivos de almacenamiento entre las dos ubicaciones.

o Fomentar, con criterios y normas claras, el uso de servicios en la nube (en


inglés cloud). Actualmente, estos servicios son de gran utilidad para almacenar
información, facilitar el trabajo en equipo y permitir trabajar desde fuera del
puesto. En todo caso, la organización deberá considerar:

 Proporcionar entornos cloud que hayan sido diseñados y/o validados


por el personal técnico de la organización.

 Utilizar usuarios corporativos, evitando la mezcla entre información


personal y de la organización.

 Utilizar algún mecanismo de cifrado antes de subir la información de la


organización.

43
 Proporcionar esta posibilidad como repositorios temporales de
información, no permanentes.

- Bloquear el equipo al ausentarse. Si no se realiza esta simple acción, equivale a contar


con un equipo sin contraseña de acceso. Asimismo, en líneas generales, habrá que
notificar al empleado la obligación de apagar su equipo al finalizar su jornada. El
equipo TIC de la organización podrá establecer mecanismos tanto de bloqueo
automático tras un tiempo prudencial sin actividad, como de apagado también de forma
automática.

- Publicación y compartición de contraseñas. Las claves de acceso a los recursos son


elementos confidenciales y deben mantenerse en secreto. Es la única forma que
garantizar tanto confidencialidad como una posterior trazabilidad de las acciones
realizadas por un usuario de un sistema. No deben ni compartirse ni apuntarse en
soporte alguno.

- Prohibición de alterar la configuración del equipo, así como la instalación de software


no autorizado por la organización. Es preciso disuadir al empleado de la posibilidad de
modificar tanto dispositivos como configuración del equipo de su puesto de trabajo.
Cualquier modificación necesaria habrá de ser solicitada al departamento TIC.

- Obligación de notificar cualquier incidente de seguridad. Es muy importante que todos


los empleados de la organización estén plenamente comprometidos en aspectos de
seguridad. Su participación puede ser crítica a la hora de detectar o prever un incidente
de seguridad. Deberá notificar, entre otras incidencias:

o Llamadas sospechosas solicitando información relevante (por ejemplo,


contraseñas de acceso o información sobre un proyecto de la organización).

o Sospechas o incluso evidencias de acceso físico no autorizado, tanto al equipo


como al puesto de trabajo.

o Alertas de virus generadas por el sistema antivirus.

o Existencia de correos electrónicos sospechosos.

o Pérdida de dispositivos que contengan información sensible, desde un pendrive


o un DVD con hasta un equipo portátil.

o Falta o alteración repentina de información tanto en los repositorios de


documentación de la organización como en las aplicaciones con información
crítica.

o Comportamientos anómalos en los equipos o en las aplicaciones. En ocasiones,


pueden ser indicios de alguna actividad maliciosa.

- Obligación de mantener la confidencialidad. La organización puede exigir a los


empleados un compromiso de confidencialidad relacionado con la documentación a la
que el empleado acceda durante su estancia en ella. Además, no se debe publicar
información corporativa en redes sociales.

- Normativa sobre la utilización de dispositivos personales. La ya comentada tendencia


BYOD conlleva riesgos, por lo que los empleados se adaptarán a las medidas de
seguridad específicas implantadas por la organización.

44
45
En terminología de seguridad de las TIC (STIC), a la disciplina que se encarga de la seguridad
de los equipos se le denomina COMPUSEC. Se basa en los siguientes aspectos:

- Acceso. La primera medida a adoptar para implantar la seguridad consiste en restringir


el acceso a programas y archivos; los operadores deben trabajar con poca supervisión,
sin la participación de los programadores, y no deben poder modificarlos. Se debe
asegurar en todo momento que los datos y archivos usados sean los adecuados,
procurando no usar respaldos incorrectos. En este sentido no debe permitirse la entrada
a la red a personas no autorizadas, ni el uso no autorizado de terminales. Se debe
realizar periódicamente una verificación física del uso de terminales y de los reportes
obtenidos.

- Auditoría. Para hacer efectivo el control sobre los equipos se hace necesario
monitorizar y auditar periódicamente el uso de los terminales, hacer auditorías
periódicas al área de operación y establecer un estricto control sobre el acceso físico a
los archivos. En el caso de programas, se debe asignar a cada uno una clave que
identifique el sistema, subsistema, programa y versión.

- Registro. Deben existir registros que reflejen la transformación entre las diferentes
funciones de un sistema y controlar la distribución de las salidas (reportes, cintas,
etcétera). Los listados de procesos correctos e incorrectos deben controlarse, así como
el número de copias y la destrucción de la que se considere prescindible pero esté
catalogada como información confidencial.

- Responsabilidad. El usuario es responsable de la información, por lo que debe


asegurarse que los datos sean procesados completamente. Esto se logra con controles
adecuados, definidos desde el momento del diseño general del sistema. Asimismo, es
conveniente contar con un lugar segundario de alta seguridad para guardar copias de la
información. Se deben controlar las copias de información confidencial sin la debida
autorización. Sólo el personal autorizado debe tener acceso a la información
confidencial. Los programadores deben usar normas de estilo para, por ejemplo, evitar
nombres no significativos difíciles de identificar, que oculten otras actividades.

- Restauración. Los procedimientos de recuperación son fundamentales ante


contingencias. Se hace necesario conocer el motivo que originó el problema y el daño
causado, lo que permitirá recuperar en el menor tiempo posible el proceso perdido.
También se debe analizar el impacto futuro en el funcionamiento de la organización y
prevenir consecuencias negativas.

Las acciones de recuperación disponibles a nivel operativo se suelen apoyar en copias


periódicas de los archivos para reanudar un proceso a partir de una fecha determinada.
Esta medida, junto al registro de transacciones que afectaron al sistema, permitirá
retroceder a una situación anterior coherente.

El análisis del flujo de datos y procesos permitirá cambiar el proceso normal porun
proceso alternativo de emergencia que reconfigure los recursos disponibles de sistemas
comunicaciones.

El procedimiento que se determine será adecuado a la situación de emergencia y


planeado y probado previamente. El grupo de emergencia deberá tener un conocimiento
de las características de las aplicaciones, tanto desde el punto técnico como de su
prioridad, nivel de servicio planeado y su influencia en la operación de la organización.

46
Política de concienciación

Las medidas, tanto obligaciones como recomendaciones, deben trasladarse a los componentes
de la organización de un modo adecuado. Han de estar disponibles y ser recordadas
periódicamente. En algunos casos puede ser conveniente que deban ser acordadas en el inicio de
la relación laboral.

La organización no puede centrarse únicamente en aspectos disciplinarios ante un


incumplimiento de las medidas, sino que no debe perder el foco en que las consecuencias de un
ataque o de una fuga de información las sufre la propia organización. Por ello resulta crítico el
establecimiento de programas de concienciación de forma periódica, con enfoque práctico, para
trasladar la importancia de las medidas adoptadas y comunicadas en la política de seguridad.

Son recomendables las sesiones de formación, también con carácter periódico. En ellas se
revisarán los elementos de la política y normativa de seguridad y, si así se decide, podrán
incorporar una evaluación de los conocimientos de los empleados con el objetivo de identificar
con los puntos débiles. La puesta en marcha de un programa de concienciación podría incluir los
siguientes elementos:

- Comunicación de la política y normativa de seguridad.

- Formación periódica de los empleados.

- Realización de informes de seguimiento, que ayudarán a identificar los puntos que es


necesario reforzar. Además, permitirán a la organización la incorporación de nuevos
aspectos que vayan sucediendo.

Medidas de carácter técnico

La organización ha de proporcionar un conjunto de medidas técnicas que permitan a los


empleados la aplicación de las medidas organizativas adoptadas en la política y la normativa de
seguridad. En función de la organización y de los recursos que destine, estas medidas pueden
ser muy sofisticadas, pero existe un buen número de ellas fáciles de implementar y que no
implican un gran coste:

- Limitar la navegación a páginas de ciertos contenidos. Existen numerosas páginas cuya


visita puede provocar infecciones o, incluso, repercusiones de carácter legal para la
organización. Esta podrá implantar bloqueos a:

o Sitios web con contenido inadecuado.

o Sitios web con contenidos contrarios a la legislación.

o Aplicaciones o plataformas de intercambio de archivos que pueden ser


causantes de infecciones.

- Habilitar ubicaciones físicas seguras para almacenar la información relevante o sensible


de la organización. Los empleados deberán disponer de:

o Despachos que se cierren cuando no haya nadie.

o Cajones o archivadores protegidos con llave.

47
o Salas de archivo específicas, con los mecanismos de protección adecuados.

- Proporcionar a los empleados destructoras de documentación. No únicamente hay que


pensar en el papel, sino también en habilitar mecanismo de destrucción y borrado
seguro de otros soportes, como DVDs, discos duros, pendrives, etcétera.

- Establecer mecanismos de seguridad en la impresión de documentos. Podrá implantarse


la utilización de uso de tarjetas o códigos personales antes de retirar documentación
impresa, evitando así la posibilidad de olvido en retirarla o su elevada exposición a
miradas indiscretas.

- Configurar el bloqueo de sesión por inactividad en los equipos. Esta medida puede
complementarse con la configuración automática de apagado al finalizar la jornada.

- Implantar una política de contraseñas. Ha de afectar tanto a sistemas como a


aplicaciones. La elección de contraseñas robustas evitará que los usuarios elijan
contraseñas demasiado evidentes o que las repitan de forma tan continua que otros
empleados las conozcan. Es habitual que esta política contenga los siguientes aspectos:

o Cambio obligatorio de la clave inicial.

o Complejidad, se define el número mínimo de caracteres, la tipología de estos,


etcétera.

o Obligación de cambiarlas periódicamente.

o Existencia de bloqueo de la cuenta del usuario en el caso de un número de


intentos de acceso fallidos.

- Implantar un sistema antivirus. Ha de contar con, las siguientes características:

o Actualización automática.

o Capacidad de análisis en tiempo real, tanto de ficheros como de correo y de


páginas web.

o Imposibilidad de desactivarlo por el usuario.

- Configurar un sistema para gestionar las actualizaciones y parches de seguridad, tanto


de los sistemas operativos como de las actualizaciones. Es conocido que los fabricantes
publicar mejoras de sus sistemas y aplicaciones, así como dan respuesta a
vulnerabilidades que pueden ser explotadas por todo tipo de malware. Se hace necesario
que el personal TIC de la organización establezca una planificación de las
actualizaciones que afecte lo mínimo posible al trabajo del usuario pero que permita un
nivel de seguridad adecuado.

- Restringir los puertos USB. El uso descontrolado de estos dispositivos puede producir
desde fugas de información (por pérdida o copia no autorizada de información) a
infecciones, pues en numerosas ocasiones se conectan a los equipos sin pensar sobre su
origen.

Es cierto que una restricción total resulta complicada de gestionar, pues los dispositivos
USB ofrecen muchas ventajas para los usuarios. Es preciso encontrar un equilibrio entre

48
seguridad y productividad. Puede empezarse por restringir su uso en equipos más
críticos, por ejemplo, en los servidores.

49
- Limitar el acceso a la red a los equipos que no cumplan con los requisitos de seguridad
exigidos por la organización. Antes de conectar cualquier equipo a la red, es
conveniente realizar alguna comprobación:

o El dispositivo cuenta con un sistema antivirus actualizado.

o El dispositivo está a un nivel de actualización aceptable de sistema operativo y


aplicaciones.

- En el caso de proporcionar conectividad inalámbrica, esta ha de contar con una


configuración de seguridad adecuada. Será conveniente proporcionar sistemas de
cifrado para garantizar la seguridad de la información transmitida.

50

También podría gustarte